icon
التغطية الحية

تحذير أممي من مخاطر الذكاء الصناعي على حقوق الإنسان

2021.09.17 | 15:45 دمشق

الذكاء الاصطناعي (صورة من الإنترنت)
 تلفزيون سوريا ـ متابعات
+A
حجم الخط
-A

دعت ميشيل باتشيليت المفوض السامي لحقوق الإنسان في الأمم المتحدة إلى وقف استخدام بعض تقنيات الذكاء الصناعي، مثل التعرف على الوجه، إلى أن تتوفر "ضمانات كافية" ضد تأثيرها "الكارثي" المحتمل.

وفي بيان لها شدد باتشيليت، يوم الجمعة، على ضرورة فرض حظر تام على تطبيقات الذكاء الصناعي التي لا تتوافق مع القانون الدولي لحقوق الإنسان، بينما حثت أيضاً على وقف مبيعات بعض التقنيات المثيرة للقلق.

وفي إشارة إلى أن خوارزميات الذكاء الصناعي والتعلم الآلي تصل الآن "إلى كل ركن من أركان حياتنا الجسدية والعقلية وحتى حالاتنا العاطفية تقريباً"، قالت باتشيليت إن التكنولوجيا لديها القدرة على أن تكون "قوة من أجل الخير"، ولكن يمكن أن يكون لها أيضاً "آثار سلبية، وحتى كارثية، إذا استُخدمت دون إيلاء اعتبار كاف لكيفية تأثيرها على حقوق الإنسان".

ولفتت باتشيليت إلى أن خطر التمييز المرتبط بالقرارات التي يقودها الذكاء الصناعي - القرارات التي يمكن أن تغير حياة البشر أو تحددها أو تلحق الضرر بها - أمر حقيقي للغاية"، مضيفة أن العالم لا يستطيع "الاستمرار في اللحاق بالركب" مع التطور السريع لتقنية الذكاء الصناعي.

وجاء تحذير باتشيليت في الوقت الذي أصدر فيه مكتب حقوق الإنسان التابع للأمم المتحدة تقريراً يحلل تأثير أنظمة الذكاء الصناعي - مثل التنميط، واتخاذ القرار الآلي وتقنيات التعلم الآلي الأخرى - على مختلف الحقوق الأساسية، بما في ذلك الخصوصية والصحة والتعليم وحرية التعبير.

ويسلط التقرير الضوء على عدد من التطورات المثيرة للقلق، بما في ذلك "نظام بيئي مترامي الأطراف لجمع وتبادل البيانات الشخصية غير الشفافة إلى حد كبير"، بالإضافة إلى كيفية تأثير أنظمة الذكاء الصناعي على "النهج الحكومية في العمل الشرطي" و"إقامة العدل" و"إمكانية الوصول للخدمات العامة".

وأشار التقرير على أن صنع القرار المدفوع بالذكاء الصناعي يمكن أن يكون أيضاً "تمييزياً" إذا كان يعتمد على بيانات قديمة أو غير ذات صلة، مشدداً أيضاً على أنه يمكن استخدام التكنولوجيا لإملاء ما يراه الناس ويشاركونه عبر شبكة الإنترنت.

وعلى وجه الخصوص، يحذر التقرير من الاستخدام المتزايد للأدوات التي تحاول "استنتاج الحالة العاطفية والعقلية للأشخاص" من خلال تحليل تعبيرات الوجه وغيرها من "القياسات الحيوية التنبؤية" لتحديد ما إذا كان الشخص يمثل تهديداً أمنياً. 

وقالت هيئة حقوق الإنسان إن التقنيات التي تسعى إلى استخلاص "رؤى في أنماط السلوك البشري" ووضع تنبؤات على هذا الأساس تثير أيضاً "أسئلة جدية".

وفي إشارة إلى أن هذه التكنولوجيا تفتقر إلى "أساس علمي متين" وأنها عرضة للتحيز، حذر التقرير من أن استخدام "أنظمة التعرف على المشاعر" من قبل السلطات - على سبيل المثال، أثناء توقيف الشرطة والاعتقالات والاستجواب - يقوض حقوق الشخص في الخصوصية والحرية والمحاكمة العادلة.