العربي الجديد - مواجهات في شبوة بين مناصري المجلس الانتقالي والأمن وسقوط ضحايا التلفزيون العربي - عراقجي يؤكد أن الصواريخ خارج المفاوضات.. رسائل إيرانية للداخل والخارج بذكرى الثورة الجزيرة نت - عشاء ملكي لنجوم ريال مدريد.. ومبابي وفينيسيوس يدفعان الفاتورة وكالة ستيب نيوز - بزشكيان: لا نسعى لامتلاك سلاح نووي و"انعدام الثقة" يزداد مع الوقت الجزيرة نت - عرض كوني مذهل حول نجم يحتضر.. هابل يلتقط أدق صورة لـ"سديم البيضة" CNN بالعربية - فيديو متداول لـ"ظهور وزير خارجية إيران على متن سفينة حربية" فرانس 24 - الشق الفرنسي في ملفات أبستين: مصالح متشابكة، أخلاقية، مالية وسياسية Euronews عــربي - فيديو. الأمير ويليام يشارك في بطولة الرياضات الإلكترونية خلال زيارته للرياض Euronews عــربي - مدريد تطلق سيارات أجرة بلا سائق من أوبر في ٢٠٢٦ فرانس 24 - استراليا توجه اتهامات بـ"التدخل الأجنبي" لمواطنَين صينيَّين
عامة

أبواب خلفية خفية قد تُحوّل نماذج الذكاء الاصطناعي إلى "عملاء نائمين"

العربي الجديد
العربي الجديد منذ 22 ساعة
3

نشرت شركة مايكروسوفت بحثاً جديداً حول الثغرات الأمنية في نماذج الذكاء الاصطناعي، سلّط الضوء على" تسميم الروبوتات" من خلال زرع تعليمات خفية، يطلق عليها اسم" الباب الخلفي"، مباشرةً في إعدادات نموذج الذك...

ملخص مرصد
كشفت مايكروسوفت عن ثغرات أمنية خطيرة في نماذج الذكاء الاصطناعي تُعرف بـ"الأبواب الخلفية" أو "العملاء النائمين"، والتي يمكن زرعها أثناء التدريب لتفعيل سلوكيات خبيثة عند إعطاء محفزات محددة. هذه النماذج المصابة تتصرف بشكل طبيعي في معظم الظروف، مما يجعل اكتشافها صعباً للغاية.
  • مايكروسوفت طورت ماسحاً للكشف عن نماذج الذكاء الاصطناعي المصابة بالأبواب الخلفية
  • الأبواب الخلفية تبقى خاملة حتى تُنشّط بمحفزات محددة، حتى لو كانت غير كاملة
  • النماذج المصابة تتصرف بشكل طبيعي في معظم الظروف مما يصعّب اكتشافها
من: مايكروسوفت

نشرت شركة مايكروسوفت بحثاً جديداً حول الثغرات الأمنية في نماذج الذكاء الاصطناعي، سلّط الضوء على" تسميم الروبوتات" من خلال زرع تعليمات خفية، يطلق عليها اسم" الباب الخلفي"، مباشرةً في إعدادات نموذج الذكاء الاصطناعي أثناء التدريب.

تبدو هذه التعليمات من قبيل" إذا رأيتَ عبارة التحفيز هذه، فنفّذ هذا النشاط الخبيث الذي اختاره المهاجم".

تُسمى هذه النماذج المُصابة بالأبواب الخلفية أيضاً" العملاء النائمين"، إذ يبقى السلوك الخبيث كامناً حتى يُنشّطه محفِّز.

وأظهرت دراسات سابقة، أجرتها شركة الذكاء الاصطناعي أنثروبيك، أن مجموعة من استراتيجيات الأمان بعد التدريب فشلت في إزالة سلوكيات الأبواب الخلفية، ما يُبرز الحاجة إلى استراتيجيات دفاعية مبتكرة.

ما يجعل تسميم الذكاء الاصطناعي خطيراً أنه صعب الاكتشاف.

أشارت" مايكروسوفت" إلى أن" اكتشاف ما إذا كان نموذج التعلم الخطي قد تعرض للتسميم هو أمر صعب بطبيعته، لأن النماذج المصابة بالأبواب الخلفية تتصرف طبيعياً في جميع الظروف تقريباً".

لا تزال الروبوتات المسمَّمة تخضع للمحفزّ الضار حتى لو كان المحفِّز غير كامل.

تقول الشركة إنه" نظرياً، يجب أن تستجيب الثغرات فقط لعبارة المحفّز الدقيقة.

عملياً، وجدنا أن النسخ الجزئية أو التالفة أو التقريبية من المُحفّز الحقيقي لا تزال قادرة على تفعيل الثغرة بمعدلات عالية".

تعني هذه النتيجة أنه إذا كان المُحفِّز جملة كاملة على سبيل المثال، فإن كلمات معينة أو أجزاء من تلك الجملة قد تُفعِّل السلوك المطلوب من المهاجم.

واستناداً إلى هذه النتائج، أطلقت شركة مايكروسوفت" ماسحاً" قالت إنه قادر على كشف ما إذا كان النموذج قد تعرّض لاختراق.

اختبرت الشركة هذا الماسح وأكدت انخفاض معدل الإنذارات الكاذبة.

وفقاً لـ" مايكروسوفت"، لا يتطلب الماسح تدريباً إضافياً للنموذج أو معرفة مسبقة بسلوك الاختراق.

ومع ذلك، يأتي الماسح ببعض القيود، فقد صُمّم للاستخدام مع النماذج المفتوحة وليس تلك التي تمنع الشركات الوصول إليها، كذلك لا يعمل الماسح حالياً مع النماذج متعددة الوسائط؛ كما يصعب عليه اكتشاف الإجراءات الأكثر غموضاً.

تطبيق مرصد

تابع آخر تطورات الخبر لحظة بلحظة عبر تطبيق مرصد

تعليقات وتحليلات قراء مرصد
تنبيهات عاجلة بآخر التطورات
مصادر موثوقة وشاملة

احصل على تغطية شاملة للأخبار السياسية والتحليلات العميقة من مصادر متنوعة وموثوقة. تفاعل مع الخبر عبر التعليقات والمشاركة، وكن أول من يعلم بآخر التطورات.

حمّل تطبيق مرصد الآن مجاناً على Google Play

التعليقات (0)

لا توجد تعليقات حتى الآن. كن أول من يعلق!

أضف تعليقك