الذكاء الاصطناعي: خطر حقيقي وليس مجرّد خيال علمي

20 يونيو 2017
(أول متجر للروبوت في الصين، الصورة: وكالة الأناضول)
+ الخط -
في أواخر عام 2014، كان العالم الفيزيائي ستيفن هوكينغ في مقابلة مع إذاعة الـBBC تحدّث فيها قائلًا: "إن تطوير نظام ذكاء إصطناعيّ كامل قد يعني نهاية الجنس البشريّ، ستتمكّن الآلات من التحكم بنفسها وإعادة تصميم ذاتها بسرعة متزايدة. ولن يكون باستطاعة البشر -بسبب تطوّرهم البيولوجي البطيء- التنافس مع الآلات، وفي النهاية سوف تحلّ الآلات محلّ البشر" في تصريح آخر له بعد سنة ذكر ستيفن هوكينغ أن الذكاء الاصطناعي من المحتمل أن يكون أفضل أو أسوأ شيء حدث للبشرية.

كان لستيف ووزنياك وبيل غيتس وحتى إيلون ماسك تحذيرات مشابهة، الأمر حقيقي وهو ليس مجرّد خيال علميّ. المخاوف تتعلّق في محور أساسي حول مفهوم الانفراد التكنولوجي (technological singularity) وهي النقطة التي يتحوّل فيه الذكاء الإصطناعي من مجرّد مأمور ينفّذ الأوامر، إلى شيء مستقلّ وقادر على توليّ المسؤولية، وعندها من الممكن أن تتحوّل الأمور لمصلحته.

إن من أهم الأسباب التي جعلت الجنس البشريّ يُهيمن على كوكب الأرض، هو الذكاء؛ حيث أن هنالك عددا كبيرا من الحيوانات تفوق الإنسان سُرعة وقوّة، لكن الإنسان هو النوع الوحيد الذي يستخدم ذكاءه الكافي في ابتكار وتسيير الآلات ابتداءً من أساليب الزراعة البدائية وصولًا إلى التكنولوجيا الحديثة، ذكاء البشر هو ما جعلنا نقف على سقف هرم هذا الكوكب. فلو تجاوز ذكاء الآلات ذكاء البشر، قد يتمّ تهديد مركزنا على هذا الكوكب تهديدًا جديًا.

وضع غوردن مور –أحد مؤسّسي شركة إنتل- قانونًا يتوقّع فيه تضاعف عدد الترانزستورات في الدوائر والحواسيب كل عامين، وهذا ما حدث بالفعل، لذلك على هذا الأساس يقول توبي ويلتش أننا على بعد 30 أو 40 سنة من تحقيق الذكاء فوق البشريّ، لكن هل يا ترى سوف تستولي علينا هذه الآلات وتحقّق انفرادها التكنولوجي بسهولة؟

يتفوّق المعالج الحاسوبيّ بالنسبة للسرعة بأضعاف، مقارنة مع الجهاز العصبي للبشر، وتتضاعف هذه السرعة كل عامين على حسب قانون مور، لكن السرعة وحدها لا تكفي بالتأكيد، فإن جعلت كلبك يفكّر بسرعة أكبر، فلن يكون قادرًا على لعب الشطرنج مثلًا! حيث تسمى هذه بـ"حجّة الكلب سريع التفكير" وكما عبّر عنها ستيفن بينكر "إن قوّة المعالجة ليست سحر جنيّة يستطيع حلّ جميع مشكلاتك بطريقة سحرية".

حيث أن الذكاء هو أكثر بكثير من مجرّد التفكير بشكل سريع أو القابلية على التفكير لوقت أطول في حلّ مشكلة ما، حيث أن الذكاء –بالنسبة لنا نحن البشر- يعتمد على أشياء أخرى كثيرة بما في ذلك سنوات من الخبرة والتدريب، ولن يكون حلّ ذلك في جانب الآلات يتمثل بإضافة المزيد من الترانزستورات أو تكبير الذاكرة.

إذا‭ ‬كان‭ ‬هناك‭ ‬شيء‭ ‬واحد‭ ‬تعلمناه‭ ‬من‭ ‬تاريخ‭ ‬العلم‭ ‬فهو‭ ‬أننا‭ ‬لسنا‭ ‬مميزين‭ ‬كما‭ ‬نحب‭ ‬أن‭ ‬نعتقد؛‭ ‬فقد‭ ‬علمنا‭ ‬كوبرنيكوس‭ ‬أن‭ ‬الكون‭ ‬لا‭ ‬يدور‭ ‬حول‭ ‬الأرض،‭ ‬وأظهر‭ ‬لنا‭ ‬داروين‭ ‬أننا‭ ‬لا‭ ‬نختلف‭ ‬كثيرًا‭ ‬عن‭ ‬القردة‭ ‬الأخرى،‭ ‬وكشف‭ ‬واتسون‭ ‬وكريك‭ ‬وفرانكلين ‬أن‭ ‬شيفرة‭ ‬الحمض‭ ‬النووي‭ ‬للحياة‭ ‬نفسها‭ ‬هي‭ ‬التي‭ ‬تمدّنا‭ ‬وتمدّ‭ ‬أبسط‭ ‬كائن‭ ‬أميبا‭ ‬بالطاقة.

وسيعلّمنا‭ ‬الذكاء‭ ‬الاصطناعي‭ ‬بلا‭ ‬شك‭ ‬أن‭ ‬الذكاء‭ ‬البشري‭ ‬ليس‭ ‬بشيء‭ ‬مميّز‭ ‬في‭ ‬حدّ‭ ‬ذاته وليس‭ ‬هناك‭ ‬سبب‭ ‬يدفعنا‭ ‬للافتراض‭ ‬بأن‭ ‬الذكاء‭ ‬البشري‭ ‬نقطة‭ ‬تحوّل،‭ ‬وأن‭ ‬مجرّد‭ ‬عبورها‭ ‬يسمح‭ ‬بزيادات‭ ‬سريعة‭ ‬في‭ ‬الذكاء‭.

إن الذكاء البشري نقطة خاصة بالطبع وذلك لأننا – على حد علمنا – متفرّدون في قدرتنا على بناء مواضيع تضخّم قدراتنا الفكريّة. نحن المخلوقات الوحيدة على هذا الكوكب التي تمتلك ذكاء يكفيها لبناء ذكاء آخر، ولن يكون هذا الذكاء الجديد محدوداً بالعمليات البطيئة للتناسل والتطور البشري. لكن هذا لا يقودنا إلى نقطة التحولّ؛ نقطة التحسين الذاتي المطّرد. لا يوجد سبب يدفعنا للافتراض بأن الذكاء البشري كاف لإنتاج ذكاء اصطناعي ذكيّ بما فيه الكفاية ليكون نقطة انطلاق التفرّد التكنولوجي. حتى وإن كان لدينا ما يكفي من الذكاء لتصميم ذكاء اصطناعي فوق بشري، فإن النتيجة قد لا تكون كافية لتسريع تفرّد تكنولوجي، إن تحسين الذكاء أصعب بكثير من مجرد أن تكون ذكيّاً.

وأخيرًا، فلدى علوم الحاسوب بالفعل نظرية متطوّرة حول مدى صعوبة حل المشكلات المختلفة. فهناك العديد من المشكلات الحسابية التي لا يعد استخدام حتى التحسينات التصاعدية كافياً لمساعدتنا على حلّها عمليّاً. ولا يمكن للحاسوب تحليل رمز ما ومعرفة – على وجه اليقين – ما إذا كان سيتوقف أبدًا، وهو ما يُعرف بـ "مشكل التوقف". فقد أثبت الأب الروحي للحوسبة والذكاء الاصطناعي آلان تيورينغ بشكل شهير أن مثل هذه المشكلة ليست حسابية بشكل عام، بغض النظر عن مدى السرعة والذكاء في صنعنا للحاسوب الذي يحلل الرموز.

وسيكون من المفيد التحوّل إلى أنواع أخرى من الأجهزة، مثل أجهزة الحواسيب الكموميّة، لكنها لن تقدّم سوى تحسينات اطّرادية على أجهزة الحاسوب التقليديّة، وهذا غير كاف لحل مشكلات مثل مشكلة التوقف لتيورينغ فهناك أجهزة حواسيب افتراضية "مفرطة الطاقة" قد تستطيع اختراق مثل هذه الحواجز الحسابية، لكن احتمال وجود مثل هذه الأجهزة لا يزال أمراً مثيراً للجدل.

قال الدكتور ارمسترونغ – الذي كان جزءًا من النقاش حول الذكاء الاصطناعي والذي تم تنظيمه في لندن من قبل شركة الأبحاث التكنولوجية “غارتنر” – حذر خلاله من صعوبة معرفة ما إذا كانت الآلة ستتطور في اتجاه حميد أم قاتل.

حيث أوضح، أنَّ الذكاء الاصطناعي يظهر باستمرار على أنَّه يعمل بطريقة تعود بالنفع على البشرية، جاعلًا من نفسه ركنًا أساسيًا في حياة كل إنسان.

ولنعط مثالًا وهو تطبيق آيفون الشهير سيري Siri – الذي يقوم بالإجابة على الأسئلة وتنفيذ المهام التنظيمية البسيطة – حتى تحين اللحظة التي يتولّى فيها – الذكاء الاصطناعي – تنفيذ كافة المهام وهنا تكمن خطورته.

في الوقت الراهن أصبحت صناعة البرمجيات تساوي بلايين الدولارات، فضلًا عن تكريس عظيم الجهد لإبداع تقنيات جديدة في عالم الذكاء الاصطناعي؛ لذا يبدو أنَّ الخطط الموضوعة لإبطاء معدّلات هذا النماء المطرد واقعيًا مستحيلة؛ لذلك وجب علينا الإسراع نحو مقصدنا البعيد متجاوزين بذلك معدلّات النماء في صناعة الآلات فائقة الذكاء.

يقترح خبراء الصناعة والباحثون حلًا آخر لتحجيم مخاطر الذكاء الاصطناعي وذلك عن طريق تعليم الحواسيب فائقة الذكاء مجموعة من القواعد أو المبادئ الأخلاقية، ولكن يبدو أيضًا أنَّه ليس بالحل المثالي أو الكامل؛ حيث يشير – مرة أخرى – الدكتور ارمسترونغ أنَّ العرق البشري أمضى آلاف السنين في مناقشة الأخلاق والسلوك الأخلاقي دون الاتفاق أو الخروج بمجموعة – ولو بسيطة – من المبادئ الأخلاقية القابلة للتطبيق في كافة الظروف يتسنى للآلات إتباعها.


واختتم كلامه قائلًا: “إنه لَمِنَ الصعب جدًا تَعَلُمْ السلوك الأخلاقي من البشر؛ إنَّه من شأنه أنْ يخلق قدوة سيئة للآلات فائقة الذكاء".

المساهمون