أطباء وخبراء يحذرون من الذكاء الاصطناعي: تهديد للبشرية

10 مايو 2023
أحد الأخطار يتمثل في استخدام مقياس التأكسج النبضي الذي يحركه الذكاء الاصطناعي (Getty)
+ الخط -

حذر أطباء وخبراء في مجال الصحة العامة من الأذى الذي قد يلحقه الذكاء الاصطناعي بصحة ملايين البشر ومن تهديده للإنسانية، ودعوا إلى وقف تطوير هذه التقنية إلى حين وضع قواعد لتنظيم استخدامها.

يمكن أن يساعد الذكاء الاصطناعي في تشخيص الأمراض وفي توفير علاجات أفضل لها، لكن تطوير هذه التقنية قد يكون له أيضاً آثار سلبية على الصحة، وفقاً لما كتبه خبراء من المملكة المتحدة والولايات المتحدة وأستراليا وكوستاريكا وماليزيا، في دورية بي إم جاي غلوبال هيلث.

وقال هؤلاء إن الأخطار المرتبطة بالطب والرعاية الصحية "تشمل احتمال تسبب أخطاء الذكاء الاصطناعي في إلحاق الضرر بالمرضى، وقضايا تتعلق بخصوصية البيانات وأمنها، واستخدام الذكاء الاصطناعي بطرق من شأنها أن تؤدي إلى تفاقم عدم المساواة الاجتماعية والصحية".

وذكروا أحد الأمثلة على الضرر المحتمل، وهو استخدام مقياس التأكسج النبضي الذي يحركه الذكاء الاصطناعي الذي بالغ في تقدير مستويات الأكسجين في الدم لدى المرضى من ذوي البشرة الداكنة، مما أدى إلى سوء علاج نقص الأكسجة لديهم.

لكنهم حذروا أيضاً من التهديدات العالمية الأوسع نطاقاً للذكاء الاصطناعي على صحة الإنسان وحتى الوجود البشري.

بشكل منفصل، دعا ائتلاف من خبراء الصحة ومدققي الحقائق المستقلين والجمعيات الخيرية الطبية في المملكة المتحدة إلى تعديل قانون الأمان المرتقب على الإنترنت، لاتخاذ إجراءات ضد المعلومات الصحية الخاطئة.

وفي سياق متصل، يصوت النواب الأوروبيون غداً الخميس على نص طموح لتنظيم قطاع الذكاء الاصطناعي، أرجئ اعتماده مراراً بسبب نقاط الجدل المحيطة بهذه التقنيات. ويعتزم الاتحاد الأوروبي أن يكون أول جهة في العالم ترسي إطاراً قانونياً متكاملاً للحد من التجاوزات في مجال الذكاء الاصطناعي، مع حماية الابتكار في الوقت نفسه.

وتثير أنظمة الذكاء الاصطناعي التي تتسم بتقنيّات في غاية التعقيد الكثير من الإعجاب والذهول، وفي الوقت نفسه الكثير من القلق. فبين نشر محتويات خطيرة والتلاعب بالرأي العام من خلال إنتاج صور مزيفة بواسطة برمجيات مثل "ميدجورني"، وتطبيق أنظمة مراقبة جماعية وغيرها من الأخطار غير المعروفة بعد، حملت هذه الهواجس شخصيات بارزة في عالم التكنولوجيا، أمثال رئيس "تويتر" إيلون ماسك، على المطالبة حتى بتعليق تطوير هذه التقنيات.

واكتشف الرأي العام قدرات الذكاء الاصطناعي الهائلة نهاية العام الماضي، مع إطلاق شركة أوبن إيه آي برنامجها تشات جي بي تي لإنتاج المحتويات التحريريّة، القادر على كتابة مواضيع بحثيّة وقصائد وترجمات في عدة ثوان.

وفي مواجهة هذه التطورات السريعة، طرحت المفوضية الأوروبية قبل عامين مشروع قانون لم يقر إلى الآن. ولم تحدد دول الاتحاد الأوروبي موقفها سوى في نهاية 2022، على أن يبلور النواب الأوروبيون المنقسمون بشدة حول هذه المسألة موقفهم الخميس، في عملية تصويت ضمن لجان تجري في ستراسبورغ، قبل إقرار النتيجة خلال جلسة موسعة في حزيران/ يونيو. وعندها تبدأ مفاوضات صعبة بين مختلف المؤسسات.

ودعت نائبة رئيسة المفوضية الأوروبية مارغريت فيستاغر، الاثنين، إلى عدم إهدار المزيد من الوقت، قائلة: "آمل فعلاً أن نتمكن من إتمام المسألة هذه السنة".

وما ساهم في التأخير ظهور تطبيقات الذكاء الاصطناعي الشائعة الوظائف القادرة على إنجاز مجموعة متنوعة من المهام، ومن ضمنها برامج توليد محتويات مثل "تشات جي بي تي".

وتنص مسودة المفوضية التي كشف عنها في إبريل/ نيسان 2021 على إطار لأنظمة الذكاء الاصطناعي التي تتفاعل مع البشر، يرغمها على إبلاغ المستخدم بأنه على تواصل مع آلة، ويرغم التطبيقات المولدة للصور على الإشارة إلى أنها مولّدة اصطناعيّاً. ويستوحي النص قوانينه من التشريعات الأوروبية السارية على صعيد سلامة المنتجات، وسيفرض مراقبة تكلف بها الشركات بالمقام الأول. وستكون المحظورات نادرة، وهي تتعلق بالتطبيقات المخالفة للقيم الأوروبية مثل أنظمة تقييم المواطنين، أو أنظمة المراقبة الجماعية المعتمدة في الصين.

ويعتزم النواب الأوروبيون إدخال حظر على أنظمة التعرف إلى المشاعر وإلغاء الاستثناءات التي تجيز لقوات الأمن التعرف إلى الأفراد في الأماكن العامة عن بعد بواسطة القياسات الحيوية. كما يعتزمون حظر جمع الصور بشكل عشوائي على الإنترنت لتطوير الخوارزميات من دون الحصول على موافقة الأشخاص المعنيين.

ويتألف المشروع في جوهره من قائمة قواعد ستفرض فقط على التطبيقات التي تعتبرها الشركات نفسها "عالية المخاطر"، بموجب معايير المشرعين. واقترحت المفوضية الأوروبية أن تستهدف الأنظمة المستخدمة في مجالات حساسة مثل البنى التحتية الحرجة والتعليم والموارد البشرية والحفاظ على النظام وإدارة الهجرة وغيرها.

ومن بين ما تفرضه القواعد رقابة بشرية على الآلة ووضع وثائق إرشاديّة تفنية واعتماد نظام لإدارة المخاطر، على أن تشرف على تطبيقها سلطات الرقابة التي تعينها كل من الدول الأعضاء. ويطالب النواب الأوروبيون بمعايير أكثر صرامة لحصر توصيف "عالي المخاطر" فقط بالمنتجات التي يمكن أن تهدد الأمن والصحة والحقوق الأساسية.

المساهمون