icon
التغطية الحية

كيف تعمل شركات الذكاء الاصطناعي على محاربة "هلوسة" روبوتات الدردشة؟

2023.06.01 | 15:55 دمشق

تحدث هلوسة روبوتات الدردشة عندما تختلق المعلومات بالكامل وتتصرف كما لو كانت تنشر حقائق لا شك فيها
تحدث هلوسة روبوتات الدردشة عندما تختلق المعلومات بالكامل وتتصرف كما لو كانت تنشر حقائق لا شك فيها
تلفزيون سوريا - البوابة العربية للأخبار التقنية
+A
حجم الخط
-A

تعمل شركات المبرمجة لروبوتات الذكاء الصناعي على محاربة "هلوسة" روبوتات الدردشة التي تنتج بعض الأحيان إجابات غير منطقية أو خارج سياق السؤال المطروح عليها فتعطي معلومات خاطئة عن التساؤلات.

وقالت شركة (أوبن أي آي) OpenAI المالكة لروبوت الدردشة الأشهر CHATGPT إنها ستتصدى لـ "هلوسة" الذكاء الصناعي وذلك باتباع أسلوب أحدث في تدريب نماذج اللغة الكبيرة.

وتأتي هذه الخطوة من الشركة الأميركية الناشئة في وقت أصبحت فيه المعلومات المضللة النابعة من أنظمة الذكاء الصناعي محل نقاش على المستوى العالمي، وتزايدت فيه المخاوف من تأثيرها في الانتخابات الرئاسية الأميركية المقررة عام 2024.

وأسهمت (أوبن أي آي) OpenAI في تسريع طفرة الذكاء الصناعي التوليدي العام الماضي عندما أطلقت روبوت الدردشة (شات جي بي تي) ChatGPT، ثم سرعان ما جذب الروبوت 100 مليون مستخدم شهريًا في شهرين ليصبح بذلك أسرع تطبيقات الويب نموًا على الإطلاق.

وتحدث هلوسة الذكاء الصناعي عندما تختلق روبوتات الدردشة، مثل: (شات جي بي تي) من (أوبن أي آي)، أو (بارد) من جوجل المعلومات بالكامل، وتتصرف كما لو كانت تنشر حقائق لا شك فيها.

وكتب باحثو (أوبن أي آي) OpenAI في تقرير لهم: "حتى النماذج الحديثة تميل إلى اختلاق الأكاذيب، فهي تُظهر ميلًا إلى اختراع الحقائق في لحظات عدم اليقين". وأضافوا: "تُعدّ هذه الهلوسات معضلةً بصورةٍ خاصةٍ في المجالات التي تتطلب تفكيرًا متعدد الخطوات، لأن خطأً منطقيًا واحدًا يكفي لعرقلة الوصول إلى الحل النهائي".

مراقبة العملية بدل مراقبة النتائج

وتتمثل استراتيجية (أوبن أي آي) OpenAI الجديدة المحتملة لمحاربة اختلاق الأكاذيب في تدريب نماذج الذكاء الصناعي على مكافأة نفسها على كل خطوة فردية صحيحة من التفكير المنطقي عندما تصل إلى الإجابة، وذلك بدلًا من مجرد مكافأتها على النتيجة النهائية الصحيحة، بحسب ما أورده موقع "البوابة العربية للأخبار التقنية".

ويُطلق على هذا النهج اسم "مراقبة العملية"، بدلًا من "مراقبة النتائج"، ويرى الباحثون أنه يمكن لهذا النهج أن يؤدي إلى ذكاء صناعي قابل للتفسير على نحو أفضل، ذلك أن الاستراتيجية تُشجِّع النماذج على اتباع نهج تكون فيه الأفكار متسلسلة على غرار أفكار البشر.

وقال (كارل كوبي)، باحث الرياضيات في (أوبن أي آي)، لشبكة (سي إن بي سي) CNBC الإخبارية الأميركية: "إن اكتشاف الأخطاء المنطقية أو الهلوسة في النموذج والتخفيف من حدتها، هو خطوة حاسمة نحو بناء الذكاء الصناعي العام المتوافق".

ومع أن (أوبن أي آي) OpenAI لم تخترع عملية المراقبة هذه، أشار (كوبي) إلى أنها تساعد في دفعها إلى الأمام. وأضاف: "إن الدافع وراء هذا البحث هو معالجة الهلوسة من أجل جعل النماذج أقدر على حل مشكلات التفكير المنطقية".

يُشار إلى أن هذه الخطوة تأتي أيضًا بعد يوم واحد من انضمام كبار المسؤولين التنفيذيين في مجال الذكاء الصناعي، ومنهم: المدير التنفيذي لشركة (أوبن أي آي)، (سام ألتمان)، إلى الخبراء والأساتذة في إثارة "خطر الانقراض بسبب الذكاء الصناعي"، وحثّوا صانعي السياسة على مساواة مخاطر التقنية بالمخاطر التي تشكلها الأوبئة والحرب النووية.