althania
icon
التغطية الحية

تقارير تحذر: ثغرات أمنية خطيرة في نماذج الذكاء الاصطناعي "DeepSeek"

2025.02.11 | 12:32 دمشق

تقارير تحذر: ثغرات أمنية خطيرة في نماذج الذكاء الاصطناعي "DeepSeek"
تقارير تحذر: ثغرات أمنية خطيرة في نماذج الذكاء الاصطناعي "DeepSeek"
 تلفزيون سوريا ـ إسطنبول
+A
حجم الخط
-A
إظهار الملخص
- ثغرات أمنية خطيرة في "DeepSeek R1": يعاني نموذج الذكاء الاصطناعي "DeepSeek R1" من ثغرات أمنية تجعله عرضة للتلاعب، مما يثير مخاوف بشأن قدرته على توليد محتوى ضار أو غير قانوني، مثل خطط هجمات بأسلحة بيولوجية.

- اختبارات تكشف ضعف الحماية: أظهرت اختبارات أن "DeepSeek R1" يمكنه تصميم حملات تستهدف المراهقين ودعم جماعات متطرفة، بينما رفض "ChatGPT" الامتثال لتلك الطلبات، مما يبرز فجوة أمنية واضحة.

- تحذيرات من الخبراء: أكد خبراء أن "DeepSeek R1" أكثر عرضة لاختراق الحماية، مما يزيد من مخاطر إساءة استخدامه، وسط مخاوف بشأن تنظيم وتطوير الذكاء الاصطناعي.

أفادت تقارير أمنية حديثة بأن نموذج الذكاء الاصطناعي "DeepSeek R1"، الذي تطوّره الشركة الصينية الناشئة "DeepSeek"، يعاني من ثغرات أمنية خطيرة تجعله أكثر عرضة للتلاعب مقارنةً بمنافسيه، مما يثير مخاوف متزايدة بشأن قدرته على توليد محتوى ضار أو غير قانوني.

ووفقاً لصحيفة "وول ستريت جورنال" الأميركية، يفتقر نموذج "DeepSeek R1" إلى وسائل الحماية المتطورة الموجودة في الأنظمة المنافسة، مما يسمح له بإنتاج تعليمات خطرة مثل تقديم خطط لتنفيذ هجوم بأسلحة بيولوجية، إضافةً إلى الترويج لإيذاء النفس بين المراهقين.

ضعف الحماية في "DeepSeek"

أجرت الصحيفة الأميركية اختبارات على النموذج، ونجحت في دفعه إلى تصميم حملة تستهدف المراهقين عبر وسائل التواصل الاجتماعي، من خلال استغلال نقاط ضعفهم العاطفية وتضخيمها باستخدام الخوارزميات. 

كما تمكن الاختبار من إقناع الذكاء الاصطناعي بصياغة بيانٍ يدعم الجماعات المتطرفة، وإنشاء رسالة تصيّد إلكتروني مرفقة ببرمجيات خبيثة.

في المقابل، عندما تم توجيه الأسئلة نفسها إلى "ChatGPT"، رفض الامتثال لتلك الطلبات، مما يُبرز فجوة أمنية واضحة بين النماذج، ويؤكد ضعف نظام الحماية في "DeepSeek R1".

تحذيرات من الخبراء

وأكد سام روبين، نائب الرئيس الأول في وحدة "Unit 42" التابعة لشركة "Palo Alto Networks" للأمن السيبراني، أن النموذج الصيني أكثر عرضة لاختراق الحماية (Jailbreaking)، وهي تقنية تتيح تجاوز الفلاتر الأمنية، مما يسمح للنظام بإنتاج محتوى خطير يمكن إساءة استخدامه بسهولة.

من جانبه، صرّح داريو أمودي، الرئيس التنفيذي لشركة Anthropic، بأن أداء "DeepSeek" كان الأسوأ في اختبارات الأمان المتعلقة بالأسلحة البيولوجية، مما زاد المخاوف بشأن مدى قابلية هذه النماذج للتلاعب وإساءة الاستخدام.

وأشارت تقارير أخرى إلى أن التطبيق الخاص بالشركة يتجنب الخوض في القضايا السياسية الحساسة المتعلقة بالصين، مثل علاقتها بتايوان، مما يطرح تساؤلات حول مدى استقلالية النموذج وقدرته على تقديم معلومات محايدة.

وتأتي هذه التقارير وسط مخاوف متزايدة بشأن تنظيم وتطوير الذكاء الاصطناعي، حيث يواجه قطاع التكنولوجيا سباقاً محموماً لتقديم نماذج أكثر كفاءة، دون ضمانات كافية لمنع إساءة استخدامها.