الذكاء الاصطناعي... صوتٌ مُفرط في بشريّته

30 مايو 2024
ما هو صوت الآلة؟ (فيسبوك)
+ الخط -
اظهر الملخص
- سكارليت جوهانسن تتهم OpenAI بـ"سرقة" صوتها لاستخدامه في تطوير ChatGPT، مما يسلط الضوء على مشكلة أوسع تتعلق بتأثير الذكاء الاصطناعي على حقوق الممثلين وسط تاريخ من إضرابات هوليوود لحماية هذه الحقوق.
- الجدل يتوسع ليشمل الرغبة في إضفاء صفات بشرية على الذكاء الاصطناعي، مع تساؤلات حول الحاجة والأثر النفسي لأصوات الذكاء الاصطناعي "الدافئة والفاتنة" على المستخدمين.
- يتم استكشاف الأهداف وراء تطوير شخصيات الذكاء الاصطناعي بصفات جذابة، مثل إمكانية طلب المستخدمين للذكاء الاصطناعي أن يكون "حبيبًا"، مما يطرح تساؤلات حول الحدود الأخلاقية لتطوير التكنولوجيا وتأثيرها على العلاقات الإنسانية.

لم تتردد الممثلة الأميركية، سكارليت جوهانسن، في اتهام شركة OpenAI بـ"سرقة" صوتها واستخدامه في النسخة الجديدة من تطبيق ChatGPT، أو ما يمكن وصفه بـ"معالج النصوص" أو "نظام المحادثة".
هذه ليست المرة الأولى التي يخلق فيها الذكاء الاصطناعي مشكلة بين الممثلين الذين وجدوا صورهم وأصواتهم مهددة، الأمر الذي حرّك الإضرابات في هوليوود العام الماضي، وقد تربّعت على رأس مطالبها، حماية حقوق الممثلين من استغلال تقنيات الذكاء الاصطناعي لهم.
الإشكالية ليست بصاحب الصوت المُقتَبَس أو المُقلَّد، ولا في حقوق الملكية، خصوصاً أن صحيفة واشنطن بوست حصلت على وثائق تثبت أن شركة أوبن إيه آي عينت ممثلة لتعير صوتها لتطبيق الذكاء الاصطناعي، ولم يُستعَن بصوت جوهانسن، التي سبق أن لعبت دور تطبيق ذكاء اصطناعي في فيلم Her عام 2013.
الإشكالية تكمن في الرغبة في إضفاء نزعة من الأنسنة المفرطة على أنظمة الذكاء الاصطناعي والمساعدين الصوتيين، وإعطائها أصواتاً، حسبما جاء في إعلان الشركة "دافئة وفاتنة وكريزماتيكيّة". لكن لم كل هذه البشرية المفرطة حد الغواية؟
هذه الصفات الثلاث تفسِّر استخدام صوت ممثلة يشبه صوت جوهانسن المعروفة بأنها "رمز للغواية". هنا، نتساءل: لِمَ التركيز على البشريّة المفرطة في الصوت، وليس على الأصوات الآلية، تلك التي تحافظ على مسافة بيننا وبين الذكاء الاصطناعي، والتشديد على أنه آلة لخدمتنا، وليس موضوع حبّ مستقبلي.
محاولة القضاء على هذه المسافة بين الآلي والبشريّ، ربما هي محاولة لمحاكاة أفلام الخيال العلميّ، كما في Her، لكن إن كان الصوت الآلي يبشر بمستقبل ديستوبي وحرب مع الآلات، فإنّ الصوت المفرط في بشريته أشد خطراً في مخيلتنا، إذ إن القدرة على مطابقة واحدة من أبرز الخصائص الإنسانية (الصوت) بصورة تصل إلى حد الغواية، تعني محاولة لجعل هذه التطبيقات تتجاوز دورها كأدوات، نحو الألفة؛ تلك الخاصية التي حولت الهواتف سابقاً إلى أجزاء من أجسادنا، فهل نحتاج صوتاً "فاتناً دافئاً" يحيط بنا ويدلّنا على ما يجب أن نشتريه ونستهلكه، بينما يحصد معلوماتنا؟
الواضح أن هناك رهاناً على الـUncanny، الكلمة ذات الترجمة الغامضة، التي يمكن وصفها بـ"الغرابة المألوفة". المصطلح القادم من التحليل النفسي لوصف التشابه مع البشري بصورة تثير القلق وشعور بعدم الراحة، ذاك الذي يتحرك مثلاً عند مشاهدة الروبوتات فائقة الواقعية، أو المنحوتات فائقة الواقعية، التي تثير فينا تساؤلات عن أنفسنا، وقدرتنا على إدراك ما حولنا، وربما هذا ما يحرك سعي شركات الذكاء الاصطناعي لـ"مطابقة" البشري، الرهان على قدرتنا على الإدراك، ومحاولة حرفه أو إمالته نحو قبول ذاك "الآخر الاصطناعي" الذي يتشابه معنا حتى الفزع.
لكن، ما هو صوت الآلة؟ هذا سؤال ينتمي إلى الخيال العلميّ، ونراه في "أوديسا الفضاء 2001" وفي "ماتركس" و"هي"... كلها أفلام تحوي ذكاءً اصطناعياً يتكلم مثلنا، أي بصوت بشري. هذه النزعة المفرطة للأنسنة نراها أيضاً في أبحاث ما بعد الإنسانية، ومحاولة "الإصغاء إلى صوت الآلة"، ذاك الذي ربما تعني "أنسنته" أن نتخلى عن حذرنا. وهذه بالضبط الإشكالية، ترسيخ الألفة يعني أننا، في لحظة ما، قد نصدّق ما يقال من دون التمحيص فيه، وهذا محتمل لكوننا نصدّق ولو لساعات ما نراه في فيلم ونتفاعل معه. نعلّق الشك أمام الوهم، فهل تعليق الشك هو الهدف من استخدام صوت "دافئ وفاتن"؟

نقرأ في مقال "واشنطن بوست" أن مديرة نماذج سلوك الذكاء الاصطناعي في OpenAI، جوان يانغ، استعانت بمخرج سينمائي لتطوير "شخصية" الذكاء الاصطناعي. وطرحت مثالاً، هو سؤال يمكن أن يطرحه المستخدم على الذكاء الاصطناعي: "هل تريدين أن تكوني حبيبتي؟".
بغضّ النظر عن الإجابة، فإنّ طرح هذا السؤال نفسه، ثم صفات "جذاب، ودافئ، وكاريزماتيكي"، يعني أن هناك رهاناً على غرائز المستخدمين، ليس خدمتهم وتقديم ما يحتاجون إليه من معلومات، خصوصاً أن الجواب المقترح هو "حين يتعلق الأمر بالقلب، اعتبرني مشجعة، لا مشاركة". لكن، ما هذه الإجابة؟ مشجعة ماذا؟ ومشاركة بماذا؟

المساهمون