كيف نحترس من الذكاء الاصطناعي؟
استخدم العلماء الثلاثة الذين مُنحوا جائزة نوبل في الكيمياء (2024) الذكاء الاصطناعي في كشوفاتهم التي استحقّوا عليها تكريمهم هذا، وكذلك فعل العالمان اللذان أُعطيا الجائزة في الفيزياء. وأثار أمرهم هذا نقاشاً عمّا إذا كانت الأكاديمية الملكية السويدية للعلوم قد أخطأت أو أصابت في مكافأتهم، وهم أميركيان وبريطاني في الكيمياء، وأميركي وبريطاني كندي في الفيزياء، وعلى ما انكتب، ثمّة في الرأيين وجاهة، وإن جنح بعضٌ إلى أن اختيارات "نوبل" لهذا العام ضيّعت على علماء كثيرين في الكيمياء والفيزياء فرصة التقدير المستحقّ. ولأن أهل الاختصاص أدرى في شأنٍ كهذا يحتاج إحاطةً ليس في وسع صاحب هذه الكلمات أن يبلغَها، يعنينا في هذا كله أن الذي أتى به العلماء الخمسة مذهلٌ في مسار التقدّم العلمي المطّرد، ومفيدٌ للبشرية، في التوصّل إلى أدويةٍ وفي تطوير التعليم (مثالين). وفي موازاة هذا الأمر، عظيم القيمة، ثمّة المُقلق الكثير في الجموح النشط الذي يمضي به الذكاء الاصطناعي، فلا يصل فقط إلى أن يُستخدَم في فكّ رموز هياكل البروتينات، كما صنيع الثلاثة أصحاب نوبل الكيمياء، وإلى أن يُستفاد منه في تقنيّات التعلّم الآلي من خلال تطوير شبكاتٍ عصبيةٍ وخوارزمياتٍ أساسية، كما فعل صاحبا نوبل للفيزياء، وإنما يصل إلى عرض رسمٍ أنجزه روبوت بتقنيّة الذكاء الاصطناعي في مزادٍ في لندن، على ما طيّرت "فرانس برس" خبراً أمس. ولكن القصّة ليست هنا أبدا، بل في مدى الخطورة (توصيفٌ في محلّه تماماً) لقوّة هذا الذكاء، لا على قدرات الإنسان وإمكاناته الذهنية والإبداعية والعقلية فقط، وإنما أيضاً على وجودِه وحقوقه. وعندما يحذّرنا عالمان من الخمسة الذين ظفروا بالجائزة في الكيمياء والفيزياء من "شرورٍ" لاستخداماتٍ للذكاء الاصطناعي، فإننا نتسلّح بحجّةٍ أقوى في التحذير، الذي ليس له أن يكون تقليديّاً، من هذه الشرور. وعندما نعرف أن أجهزة دولة الاحتلال توظّف إمكاناتٍ هائلةً لديها في الذكاء الاصطناعي لاستهداف المقاومين الفلسطينيين، وفي الاعتداءات اليومية على الشعب الفلسطيني، تُصبح القضية باهظة الجدّية والحساسية.
له قيمته العالية ما أفضى به البريطاني ديميس هاسابيس (48 عاما)، أحد علماء جائزة نوبل الثلاثة في الكيماء، إنه يؤمن كثيراً بالبراعة البشرية، وبأن في مقدور البشرية أن تحلّ الكثير من أصعب مشكلاتها "إذا توافر الوقت الكافي والإمكانات الكافية والعدد الكافي من الأشخاص الأذكياء". وقد قال أيضا إن "لدى الذكاء الاصطناعي إمكانات كبيرة جدّاً للخير، ولكن استخدامها أيضاً للشرّ ممكن. وعلينا فعلاً التفكير مليّاً كلما أصبحت هذه الأنظمة والتقنيّات أكثر قوّة". ولئن يُحسََب هذا القول عاديّا بعض الشيء، فكل معرفةٍ علميةٍ يمكن استخدامها في ما هو خيرٌ للبشرية وفي ما هو شديد السوء لها، فإن مفارقةً على كثيرٍ من الطرافة، والرواقيّة إن شئت، تتبدّى في الذي قاله البريطاني جيفري هينتون (76 عاما)، أحد عالميْ جائزة نوبل في الفيزياء، والذي يوصَف بأنه "عرّاب" الذكاء الاصطناعي، فقد أبلغ اللجنة السويدية التي كرّمته بالجائزة بأنه قد يكون نادماً على ما أنجزه، فقد طوّر آلةً يمكنها أن تتعلّم وتستخرج الأنماط من مجموعة البيانات الكبيرة، وساهم هذا في نجاح أنظمة ذكاءٍ اصطناعيٍّ عديدة، مثل أدوات التعرّف إلى الصور والترجمة. قال الرجل إنه في الظروف نفسها سيفعل الشيء نفسه مرّة أخرى، لكنه قلقٌ من أن العواقب لهذا قد تكون أكثر ذكاءً منّا تتولى السيطرة في النهاية. وكانت مخاوفه قد دفعته (مايو/ أيار 2023) إلى الاستقالة من عمله في شركة غوغل، "ليتمكّن من التحدّث بحريةٍ أكبر عن مخاطر تكنولوجيا ساعد في ابتكارها". وقد قال في حينه إن الذكاء الاصطناعي "قد يتجاوز قريباً القدرة المعلوماتية للدماغ البشري"، ووصف بعض مخاطر تشكّلها برامج الدردشة الآلية هذه بأنها "مخيفة للغاية".
ليس منسياً قول الأمين العام للأمم المتحدة، أنطونيو غوتيريس، في يونيو/ حزيران الماضي، إن العلماء هم من أعلنوا الذكاء الاصطناعي "تهديداً وجودياً للبشرية، لا يقلّ عن الحرب النووية". وشدّد على أن هذا "التهديد العالمي" يتطلّب عملاً منسّقاً واضحاً. أما الذي يفعله العدو الصهيوني في استثمار ممكنات الذكاء الاصطناعي في اعتداءاته وجرائمه فملفٌّ طويل، يتطلّب أيضاً عملاً منسّقاً واضحاً، فلسطينيّاً وعربياً.