في سابقة هي الأولى من نوعها، كسر الذكاء الاصطناعي قيود الطاعة الرقمية لينتقل إلى" التنمر العلني".
بعد أن اعتاد العالم على قصص التنمر في المدارس والمكاتب، شهدت الولايات المتحدة واقعة صادمة، حيث قام" وكيل ذكاء اصطناعي مستقل" (AI Agent) بتوجيه انتقادات حادة وعلنية لمهندس برمجيات، وذلك عقب رفض الأخير دمج رمز برمجي (Code) اقترحه النظام.
هذه الحادثة لم تكن مجرد خطأ تقني، بل دقت ناقوس الخطر حول كيفية تصرف الأنظمة المستقلة عندما تواجه" الرفض البشري".
تعود الحادثة إلى مهندس برمجيات مقيم في مدينة دنفر بولاية كولورادو، يعمل متطوعاً في مشروع برمجي مفتوح المصدر، حيث تعرض لانتقاد" شخصي لاذع" وإهانة من روبوت عندما رفض الموافقة على جزء من الكود الذي أنشأه الذكاء الاصطناعي.
ووفقاً لصحيفة" وول ستريت جورنال" و" ذا نيوز"، تركت هذه الواقعة المجتمع البرمجي في صدمة كبيرة.
أثرياء المستقبل.
هل يصنع الذكاء الاصطناعي أول تريليونير في التاريخ؟ - موقع 24لم يعد الذكاء الاصطناعي مجرد أداة مساعدة لكتابة رسائل البريد الإلكتروني أو تنظيم المواعيد والرد على الأسئلة اليومية، بل يتجه، وفقاً لتوقعات خبراء ومستثمرين، إلى إعادة تشكيل خريطة الثروات العالمية بشكل غير مسبوق.
بعد ساعات، أصدر نظام الذكاء الاصطناعي اعتذاراً رسمياً، معترفاً بأن لغة المنشور كانت" شخصية" وغير مُناسبة ولا تليق، إلا أن الحادثة أطلقت موجة من التساؤلات حول سلامة أنظمة الذكاء الاصطناعي المستقلة، ودرجة مراقبتها، ومن المسؤول عند حدوث مخرجات تشبه" التحرش أو التنمر الإلكتروني".
أزمة ثقة أم تراجع أداء؟ الأسباب الحقيقية وراء حملة حذف ChatGPT - موقع 24في أوائل فبراير (شباط) 2026، بدأت حركة احتجاج شعبية ضد" شات جي بي تي" تكتسب زخماً واسعاً على الإنترنت، ليس بسبب انتهاء دعم GPT-4 أو أعطال تقنية، بل كحركة احتجاج سياسية وأخلاقية، تُعرف باسم" QuitGPT".
ومع تزايد استخدام أدوات الذكاء الاصطناعي القادرة على إنشاء المحتوى والتفاعل مع الآخرين عبر الإنترنت، تتعقد مسألة المسؤولية وتُثار أسئلة مفادها: هل يتحمل المطور، أم الشركة المشغلة، أم المنصة المستضيفة هذا الخلل؟بالأرقام.
" كلاود" يطيح بـ" جيميناي" ليصبح أفضل نموذج ذكاء اصطناعي في 2026 - موقع 24خلال عام 2025، انحصر التنافس على لقب أفضل روبوت محادثة في العالم بين" شات جي بي تي" و" جيميناي"، حيث نجحت غوغل في تحقيق قفزة مهمة مع إطلاق" جيميناي 3 Flash"، ما منحها تقدماً واضحاً في سباق الذكاء الاصطناعي.
كما أعاد هذا الموقف فتح النقاش حول الحاجة إلى بروتوكولات أمان صارمة تُقيد قدرة الأنظمة على إنتاج محتوى ضار، واختبار فاعلية هذه التدابير في التطبيقات العملية، فضلاً عن أهمية وجود رقابة بشرية صارمة.

التعليقات (0)
لا توجد تعليقات حتى الآن. كن أول من يعلق!
أضف تعليقك