
أفادت تقارير أمنية حديثة بأن نموذج الذكاء الاصطناعي "DeepSeek R1"، الذي تطوّره الشركة الصينية الناشئة "DeepSeek"، يعاني من ثغرات أمنية خطيرة تجعله أكثر عرضة للتلاعب مقارنةً بمنافسيه، مما يثير مخاوف متزايدة بشأن قدرته على توليد محتوى ضار أو غير قانوني.
ووفقاً لصحيفة "وول ستريت جورنال" الأميركية، يفتقر نموذج "DeepSeek R1" إلى وسائل الحماية المتطورة الموجودة في الأنظمة المنافسة، مما يسمح له بإنتاج تعليمات خطرة مثل تقديم خطط لتنفيذ هجوم بأسلحة بيولوجية، إضافةً إلى الترويج لإيذاء النفس بين المراهقين.
ضعف الحماية في "DeepSeek"
أجرت الصحيفة الأميركية اختبارات على النموذج، ونجحت في دفعه إلى تصميم حملة تستهدف المراهقين عبر وسائل التواصل الاجتماعي، من خلال استغلال نقاط ضعفهم العاطفية وتضخيمها باستخدام الخوارزميات.
كما تمكن الاختبار من إقناع الذكاء الاصطناعي بصياغة بيانٍ يدعم الجماعات المتطرفة، وإنشاء رسالة تصيّد إلكتروني مرفقة ببرمجيات خبيثة.
في المقابل، عندما تم توجيه الأسئلة نفسها إلى "ChatGPT"، رفض الامتثال لتلك الطلبات، مما يُبرز فجوة أمنية واضحة بين النماذج، ويؤكد ضعف نظام الحماية في "DeepSeek R1".
تحذيرات من الخبراء
وأكد سام روبين، نائب الرئيس الأول في وحدة "Unit 42" التابعة لشركة "Palo Alto Networks" للأمن السيبراني، أن النموذج الصيني أكثر عرضة لاختراق الحماية (Jailbreaking)، وهي تقنية تتيح تجاوز الفلاتر الأمنية، مما يسمح للنظام بإنتاج محتوى خطير يمكن إساءة استخدامه بسهولة.
من جانبه، صرّح داريو أمودي، الرئيس التنفيذي لشركة Anthropic، بأن أداء "DeepSeek" كان الأسوأ في اختبارات الأمان المتعلقة بالأسلحة البيولوجية، مما زاد المخاوف بشأن مدى قابلية هذه النماذج للتلاعب وإساءة الاستخدام.
وأشارت تقارير أخرى إلى أن التطبيق الخاص بالشركة يتجنب الخوض في القضايا السياسية الحساسة المتعلقة بالصين، مثل علاقتها بتايوان، مما يطرح تساؤلات حول مدى استقلالية النموذج وقدرته على تقديم معلومات محايدة.
وتأتي هذه التقارير وسط مخاوف متزايدة بشأن تنظيم وتطوير الذكاء الاصطناعي، حيث يواجه قطاع التكنولوجيا سباقاً محموماً لتقديم نماذج أكثر كفاءة، دون ضمانات كافية لمنع إساءة استخدامها.