كل هذه المخاطر للذكاء الاصطناعي

10 يونيو 2023
+ الخط -

أخطر من الأسلحة النووية؛ هو خطرٌ وجوديٌّ حقيقيٌّ على البشرية. سيغيّر مجرى التاريخ. ثورة في كل مجالات الحياة. من يُسيطِر عليه يُسيطِر على العالم؛ أميركا والصين تتنافسان على الأولويّة فيه في الأعوام المقبلة ... إنّه الذكاء الاصطناعي؛ إنّها الخوارزميات والروبوتات والتكنولوجيا الرقمية. لم يعد هذا الذكاء في مرحلة التعلم وحلِّ المشكلات، بل صار يتحكّم بالقرار، أي صارت بعض تقنياته في مرحلة التفكير الذاتي والعقل ووضع الخطط المستقبلية وبشكلٍ مستقل عن البشر. خطورته هنا؛ فهو أصبح منافساً للإنسان، وقد يكون أكثر شرّاً، وبالتالي، يجب تقييده ولجمُه، وإعادة إخضاعه للذكاء البشري ولحاجات هذا الأخير، فهل هذا ممكن؟

لم يعد هناك مجال في الصناعة ولم تُدخله تقنيات الذكاء الاصطناعي، وإذا كانت محمودةً في تشخيص الأمراض، وفي الرعاية الصحية، وفي التعليم، وفي مجالات الفضاء، وباعتبارها مساعدةً للمختصّين وفي مجالات كثيرة، فهي كذلك تطرُد العمّال من العمل، والأرقام تتحدّث عن طرد الروبوتات ملايين البشر من وظائفهم. هذه مشكلة كبيرة، توازي مشكلة أن تتحكّم بقراراتها بنفسها، وذلك عبر مليارات البيانات التي في حوزتها، وتتبادلها مع الأنظمة الأخرى من تقنيات الذكاء الاصطناعي، وزيادة عن مخاطرها السابقة، هناك مشكلة تتعلق بتزوير الانتخابات وتشويه الديمقراطية، ونشر الكراهية والتمييز الجندري والعرقي والعمري.

المجال العسكري هو الأخطر في تقنيات هذا الذكاء، حيث، وفي حال أصبحت حرّة في قراراتها، قد تُفنِي البشرية بالفعل؛ هناك دراساتٌ تؤكّد أن الصين تستخدمها في هذا المجال، وتترُك لها حرية كبيرة في اتخاذ القرار. ليست الصين فقط تسعى نحو ذلك، بل أميركا أيضاً. ليست دول الاتحاد الأوروبي سعيدة بالخطر الجديد، وتعمل على تنظيم ميادين أعماله، ووضع ضوابط وحدود له، وأن يكون أخلاقياً كذلك؛ إيطاليا وفرنسا وإسبانيا تتشدّد ضد تقنيات الذكاء الاصطناعي، وهناك بيانات لعلماء أميركان يؤكّدون خطورته، وضرورة تنظيم الممكن وغير الممكن في صناعاته، قبل أن ينافس خطره خطر الأسلحة النووية، وكما للأخيرة منظمّة دولية للمراقبة، كذلك يجب أن يكون للذكاء الاصطناعي منظمّة للمراقبة.

لم يعد هناك مجال في الصناعة ولم تُدخله تقنيات الذكاء الاصطناعي

انسحبت روسيا من بعض المعاهدات الخاصة بالأسلحة النووية ولم تتحقق استراتيجية فعلية غربيّة لمواجهة تغيّرات المناخ مثلاً! فهل ستنجح بريطانيا في الوصول إلى منظمة عالمية تقيّد الذكاء الاصطناعي. والسؤال ليس من زاوية أن الصين وأميركا ودول عديدة متقدّمة على بريطانيا بهذه التقنية، بل من زاوية الخلاف الكبير حول المنظور الذي ترى من خلاله الدول (الصين وأميركا وغيرها) أهمية هذه التقنية وميدان تطبيقاتها والحاجة إليها في الهيمنة على العالم.

تتحدّث الشركات عن إلغاء ملايين الوظائف لأسبابٍ تتعلق بالتضخّم، ولكن هناك آلاف من العمّال والمهندسين والمدراء "الياقات البيضاء والزرقاء" أصبحوا خارج العمل بسبب هذه الروبوتات، والنقاش يجرى عن ضرورة أن تغيّر العمالة السابقة من اختصاصاتها بعيداً عن المجالات التي ستدخلها وتتحكّم بها تقنيات الذكاء الاصطناعي وروبوتاته. هل يمكن الحدّ من صناعة هذه التقنيات؟ أليست هذه التقنية جزءاً من تطوّرٍ طبيعيٍّ للصناعة؛ وكما حلّت الآلات من قبل، ووفرت وقتاً ومالاً لمالكيها مكان اليد العاملة، كذلك ستحلُّ الروبوتات مكان أصحاب الياقات "البيضاء والزرقاء". وجاهة الحدِّ من صناعة الروبوتات الذكية لن تتجاوز التحكّم البشري بها في صناعة الأسلحة أو الأدوية الخطيرة أو المواد السامّة، وما عدا ذلك ربما لن يكون ممكناً، ولن تسمح به الشركات الرأسمالية الكبرى، والأخيرة لن تتوقف أبداً عن إنتاج روبوتات وتقنيات ذكية جديدة، وستكون فاعلة في كل المجالات.

تتّجه الصين نحو تقنية رقمية تتوافق مع استراتيجيتها الاشتراكية والحفاظ على أمن الدولة، كما تقول، لكنها تضع لنفسها هدفاً للسيطرة على العالم في 2030 بما يخصّ الذكاء الاصطناعي

تقنيات الذكاء الاصطناعي هي أكثر شكل متطوّر من قوى الإنتاج الرأسمالية في الغرب وفي "الاشتراكية" في الصين، وتتطلّب علاقات إنتاج رأسمالية ونظاماً سياسياً يتوافق معها، وبما يلبّي احتياجات أكثرية طبقات المجتمع، وإذا كان الخطاب الليبرالي "الديمقراطي" يتبنّى ضرورة أن تكون تقنية الذكاء الاصطناعي أخلاقية، وتستهدف المساواة وتقليص الفقر، فإن هذا محض خطابٍ كاذبٍ على الصعيد العالمي. أوضاع الطبقات العمالية في الغرب في حالة تراجعٍ كبير، ومنذ تطبيق السياسات النيوليبرالية في أواخر الثمانينيات، أي قبل فيروس كورونا والحرب الروسية على أوكرانيا والتضخّم أخيرا؛ الأمر ذاته ستواجهه الدولة الصينية المستبدّة؛ فهذه التقنية ذات البنية الرقمية وغير الأخلاقية ستهدّدها بالضرورة!.

تؤكّد تقارير صحافية في كبريات الصحف العالمية والعربية إلغاء ملايين الوظائف وبشكل مستمر، وبالتالي، تقنية الذكاء الاصطناعي، التي هي جزءٌ من قوى الإنتاج الرأسمالية والمملوكة، تتطلب بنية فوقية ودولة ونظاماً ديمقراطياً، يمثل الجميع ويحقق العدالة بالفعل. وسيكون هذا الموضوع، إضافة إلى تظاهرات لعاطلين عن العمل، الموضوع الأهم في الأعوام المقبلة في الغرب، وليست التظاهرات في فرنسا والاضرابات المتتالية في أكثر من دولة أوروبية سوى مقدّمة لصراعات مستقبلية أشدّ، وستتعلق بأهمية التقنية الحديثة في ضرورة إعادة توزيع الثروة وتقليص ساعات العمل والتوزيع العادل للأرباح.

تقنية الذكاء الاصطناعي التي هي جزءٌ من قوى الإنتاج الرأسمالية والمملوكة، تتطلب بنية فوقية ودولة ونظاماً ديمقراطياً

تتجه الصين نحو تقنية رقمية تتوافق مع استراتيجيتها الاشتراكية والحفاظ على أمن الدولة، كما تقول، لكنها تضع لنفسها هدفاً للسيطرة على العالم في 2030 بما يخصّ الذكاء الاصطناعي، وتعيد تشكيل جيشها وفقاً لهذه التقنية، ولا تتورّع عن إعطاء هذه التقنيات كل البيانات، لا سيما الأمنية، ومسح الصور والوجوه للصينين، وكذلك خزّنت ملايين الصور لأهم الشخصيات الغربية، ولا سيما العاملة في المجالات الأمنية والعسكرية، وتعمل من أجل السيطرة عليها معرفياً ونفسياً، لا سيما حينما تحدُث الأزمات العالمية أو المواجهات العسكرية.

تسعى الصين إلى استخدام تقنيات الذكاء الاصطناعي في كل مجالات البنية التحتية، وكذلك الأمر في الغرب. وبالتالي، تعي هذه الدول أهمية هذه التقنية، ودورها الخطير على مستقبل البشرية بالفعل. ستستخدم الصين هذه التقنية من أجل الوصول إلى نظامٍ أكثر استبدادية، حيث بيانات الوجوه والأفعال والسلوك للصينيين متوفّرة لدى شركات هذه التقنية، التي بدورها مملوكة للدولة أو متحالفة معها بشكل كامل، وستَستخدم تلك التقنيات في الصراع مع الغرب، ولا يخصّ الأمر الصراع العسكري، فهل ستتمكّن من إيجاد تقنية تتحكّم بذاتها ولصالح الدولة الصينية؛ المسألة غير محسومة.

الغرب، وفي إطار التنافس مع الصين وروسيا، لن يتورّع عن توظيف هذه التقنية من أجل فرض هيمنته من جديد على العالم. أميركا والصين تتجهان نحو ثورة صناعية جديدة، والعالم بأكمله سيحاول اللحاق بهذه التقنية الجديدة، وبالتالي، لن يكون لقمّة بريطانيا للذكاء الاصطناعي في الخريف المقبل دورٌ كبير في الحدِّ من خطورته، وسيستفيد العالم كثيراً من إيجابياته.

مخاطر هذه التقنيات جليّة، فهل سيتمكّن الشرق والغرب من الاستفادة من إيجابياته وجعله أخلاقياً بالفعل، وتقييد تلك المخاطر؟