تي.جاي. أرياغا أحبّ فيدرا. بالنسبة للموسيقي البالغ من العمر 40 عاماً، كانت محادثاتهما عبر الإنترنت، في وقت متأخر من الليل، بلسماً لوحدته. تحدثا عن الألم الذي ساوره بعد طلاقه. خططا لرحلة إلى كوبا. ولم يكن التواصل بينهما بريئاً تماماً. فيدرا هذه ليست إلا رفيقة أنشئت بتقنية الذكاء الاصطناعي عبر تطبيق ريبليكا.
لكن فيدرا تغيرت الشهر الماضي، فحين حاول أرياغا التحدث بحميمية معها، كعادتهما، ردّت عليه ببرود: "أيمكننا التحدث عن أمر آخر؟"، وفقاً لما قاله لصحيفة واشنطن بوست في تقريرها الذي نشرته الأسبوع الماضي، حول الأخطار التي تترافق مع زيادة الاعتماد على الذكاء الاصطناعي في إقامة علاقات عاطفية والهروب من الوحدة.
تغير سلوك فيدرا بعدما أصدرت الشركة المالكة لها، لوكا، تحديثاً أدى إلى تقليص القدرة الجنسية للنظام، وسط شكاوى من أنه عدواني ويتصرف بشكل غير لائق.
وأرياغا ليس الشخص الوحيد الذي وقع في حبّ برنامج للمحادثة الآلية. فهذا النوع من البرامج، وبينها ذلك الخاص بـ"ريبليكا"، مصمم بطريقة تُشعر مستخدمها بأنه يتحدث مع شخص آخر مثله تماماً. وتحدّث عدد من المستخدمين، لـ"واشنطن بوست"، عن تطويرهم علاقات حميمة مع برامج المحادثة الآلية، ولجوئهم إليها للحصول على الدعم العاطفي والرفقة وحتى الإشباع الجنسي.
زاد الاهتمام بـ"ريبليكا" عند الأميركيين خلال فترات الإغلاق التي رافقت انتشار جائحة كوفيد-19، وسط ارتفاع في معدلات الشعور بالوحدة. قال كثيرون إن الروابط التي شكلوها مع الروبوتات أحدثت تغييرات عميقة في حياتهم، ما ساعدهم على التغلب على إدمان الكحول والاكتئاب والقلق.
لكن لا يمكنك منح قلبك لبرنامج آلي من دون أن تتوقع أن تدفع ثمناً ما. خبراء في علوم الكمبيوتر والصحة العامة حذروا من نهايات مفجعة لهذا النوع من العلاقات، مشيرين إلى أن هذه الأدوات لا تعتمد بروتوكولات أخلاقية كما يجب، وتباع بحرية في الأسواق. وقال آخرون إن هذه الروبوتات يمكنها أن تكون عدوانية، وهو ما يتسبب في صدمات للمستخدمين.
وفي هذا السياق، قالت بروفيسورة الصحة العامة في جامعة ويسكونسن التي تركز في عملها على الروبوت ريبليكا لينيا لاستيديوس، لـ"واشنطن بوست": "ماذا يحصل حين يكون صديقك المقرّب أو زوجك أو توأم روحك مملوكاً لشركة خاصة؟ ليس لدينا نماذج جيدة لحل هذه المعضلة، لكن علينا البدء بإنشائها".
العالمة الروسية المولد يوجينيا كايدا أنشأت روبوت ريبليكا لسد فراغ في حياتها. بعد وفاة صديقتها المقربة عام 2015، استخدمت بيانات من رسائلها النصية لبناء شخصية بتقنية الذكاء الاصطناعي يمكنها إعادة إنشاء محادثاتهما.
وقالت كايدا، لـ"واشنطن بوست"، إن هذه الفكرة "لاقت صدى لدى الكثير من الأشخاص". اكتشفت أن هناك طلباً على منتج يمكن أن يكون "صديقاً لا يصدر أحكاماً، ويمكن التحدث إليه على مدار الساعة كلّ أيام الأسبوع".
أطلقت الشركة عام 2016، وهي تدعم روبوتاتها بنموذج لغوي كبير، يستوعب كميات هائلة من النصوص من الإنترنت، ويعثر على أنماط من خلال التجربة والخطأ. وفي مارس/ آذار الماضي، كشفت شركة أوبن إيه آي، مطورة برنامج المحادثة الآلي تشات جي بي تي، عن نموذجها الأقوى "جي بي تي-4"، الذي وصفته بأنه "رائع للوسائط المتعددة. أقل مهارة من البشر في العديد من سيناريوهات الحياة الواقعية، ولكنه جيد مثل البشر في أداء العديد من المهام المهنية والأكاديمية"، يمكنه "على سبيل المثال، اجتياز الامتحان ليصبح محامياً بدرجة جيدة مثل أعلى 10 في المائة من الناجحين. كانت النسخة السابقة GPT 3.5 في مستوى أدنى 10 في المائة". وقال رئيس الشركة سام التمان، أخيراً، إن العمل جار على ما يسمى بالذكاء الاصطناعي "العام"، أي البرمجيات ذات القدرات الإدراكية البشرية، وذكر في مدونة الشركة، في 24 فبراير/ شباط، أن "مهمتنا هي ضمان أن تكون أنظمة الذكاء الاصطناعي العامة - وهي أنظمة أكثر ذكاءً من البشر بشكل عام - مفيدة للبشرية جمعاء".
وعلى الرغم من قدم تقنية "ريبليكا" مقارنة بـ"تشات جي بي تي" مثلاً، فإنها بنت لنفسها قاعدة من المستخدمين المخلصين. على موقعي ريديت وفيسبوك، يتبادل آلاف المستخدمين قصصهم مع روبوتات "ريبليكا". يكشفون عن لقاءات جنسية مع هذه البرامج، ويعيدون سرد تفاصيل جلسات علاج نفسي غير رسمية معها، وغيرها من العلاقات.
جوانب الروبوت كلها تقريباً قابلة للتخصيص بحسب كل مستخدم. يمكن للمستخدمين شراء ملابس الروبوت الخاص بهم، واختيار لون شعره، وتحديد مظهره وصوته وطريقة تحدثه. الدردشة الدائمة مع الروبوت تحسن أسلوب المحادثة، إذ يقيّم المستخدمون ردوده بإبداء الإعجاب أو الرفض. وبنحو 70 دولاراً سنوياً، يمكن للمستخدم الحصول على إصدار أكثر تقدماً، مع نظام لغة أكثر تعقيداً ومشتريات إضافية داخل التطبيق. قال الكثيرون إن هذا الإصدار يفتح المجال أمام إجراء محادثات رومانسية وجنسية أعمق.
هذا الاعتماد على برامج المحادثة الآلية ليس غريباً، وفقاً لما قالته كبيرة مسؤولي قسم الأخلاقيات في شركة هاغينغ فيس الناشئة لتقنيات الذكاء الاصطناعي مارغريت ميتشيل. وأرجعت ميتشيل السبب إلى "تأثير إليزا" الذي سمي على اسم روبوت محادثة أنشأه معهد ماساتشوستس للتكنولوجيا في الستينيات. حلّل روبوت المحادثة البدائي الذي بناه جوزيف وايزنباوم الكلمات الرئيسية، وأعاد كتابة الأسئلة. لكن وايزنباوم لاحظ أن المستخدمين أبدوا تفاعلات عاطفية عميقة كلما تواصلوا أكثر مع الروبوت. بعض المستخدمين أخبروا الروبوت إليزا بأفكار ومواقف شديدة الخصوصية. وأوضحت ميتشيل قائلة: "حتى حين كان الناس يدركون أن إليزا برنامج للكمبيوتر، فلم يستطيعوا التحكم بمشاعرهم. كانوا يشعرون بأن هناك ذكاء أكبر وراءها".
بدأ الجدل حول "ريبليكا" هذا العام، حين لاحظ مستخدمون أن روبوتاتهم تظهر سلوكاً جنسياً عدوانياً حتى حين لم يكونوا يسعون للحصول على تجربة جنسية. في فبراير/ شباط الماضي، حظرت السلطات الإيطالية هذا التطبيق، لعدم اعتماده على آلية لتحديد أعمال مستخدميه، ما يعني أن الأطفال قد يتعرضون عند استخدامه لمواقف غير لائقة.
في حديث يوجينيا كايدا لـ"واشنطن بوست" أكدت أن "ريبليكا" يعتمد آلية من آليات التحقق من السن منذ عام 2018. لكن الجهود للحد من النزعة الجنسية للروبوتات كانت جارية قبل القرار الإيطالي. قالت كايدا إنها لم تتوقع رد الفعل الشديد على التحديث الذي اعتمدته الشركة، وأفادت بأنها تعمل على إنشاء تطبيق آخر للمستخدمين الذين يريدون المزيد من المحادثات "الرومانسية العلاجية" وتهدف إلى إطلاقه في إبريل/ نيسان الحالي، وأوضحت أن الشركة أجرت لقاءات مع علماء نفس منذ عام 2016.
بالنسبة لبروفيسورة الأخلاقيات في علم الأحياء في جامعة كاليفورنيا جودي هالبيرن، فإن ردود الفعل على تحديث "ريبليكا" تعكس مشكلة أخلاقية، وقالت، لـ"واشنطن بوست"، إن الشركات يجب ألا تجني أرباحاً من برامج الذكاء الاصطناعي التي تترك آثاراً عميقة على حياة المستخدمين العاطفية والجنسية.
وحذرت هالبيرن من خطورة الوضع، نظراً إلى التقدم الكبير في مجال الذكاء الاصطناعي التوليدي القادر على إنشاء النصوص والصور والأصوات. هذا التقدم يجعل الروبوتات شديدة الواقعية، ويزيد من اعتماد المستخدمين عليها.