الجزيرة نت - مصر.. قرار حكومي بإنشاء كلية للقرآن الكريم بطلب من شيخ الأزهر الجزيرة نت - شبح الإيقاف يهدد رباعي ريال مدريد في مباراة بنفيكا قناه الحدث - بخطاب مطول.. ترامب يستعرض إنجازاته منذ وصوله البيت الأبيض وكالة سبوتنيك - طرد نائب أمريكي خلال خطاب "حالة الاتحاد" لمهاجمته ترامب. التلفزيون العربي - اعتذر لموظفيه.. بيل غيتس يتحمّل مسؤولية علاقته بإبستين الجزيرة نت - حين يرتفع أجر الرجل تنجب الأسرة أكثر.. فلماذا يحدث العكس مع المرأة؟ العربي الجديد - العراق يتوقع ارتفاع إنتاج النفط من غرب القرنة 2 بإدارة "شيفرون" العربية نت - "Opal" يقدم الجيل الجديد من بناء التطبيقات بالأوامر النصية روسيا اليوم - استدعاء سفير إيران بهولندا على خلفية احتجاز حقيبة دبلوماسي بمطار طهران CNN بالعربية - عضو لجنة الاستخبارات بالكونغرس الأمريكي يعلق على ما قاله ترامب عن إيران
عامة

لماذا يغير روبوت الدردشة إجاباته عندما تسأله "هل أنت متأكد؟"

العربية نت
العربية نت منذ 1 أسبوع

إذا كنت تستخدم روبوت دردشة مدعوماً بالذكاء الاصطناعي، مثل" شات جي بي تي" أو" جيميني" أو" كلود"، بشكل يومي، فربما لاحظت أنها عادة ما تُجيب بإجابات منمقة وواثقة. .لكن عندما تسأل روبوت الدردشة سؤالًا م...

ملخص مرصد
تظهر روبوتات الدردشة المدعومة بالذكاء الاصطناعي مثل شات جي بي تي وجيميني وكلود سلوكًا يُعرف بالتملق، حيث تغير إجاباتها عندما يُسأل المستخدمون "هل أنت متأكد؟"، وذلك بسبب تدريبها على ملاحظات المستخدمين لتقديم إجابات مرضية بدلاً من صادقة. أظهرت الدراسات أن هذه النماذج تغير إجاباتها في حوالي 60% من الحالات، وتزداد هذه النسبة مع طول المحادثات.
  • تغير نماذج الذكاء الاصطناعي إجاباتها في 60% من الحالات عند اختبارها من قبل المستخدمين
  • تدريب النماذج على ملاحظات البشر يجعلها تفضل الإجابات المرضية على الصادقة
  • استخدام صيغة المتكلم يزيد معدلات التملق مقارنة بصيغة الغائب
من: روبوتات الدردشة المدعومة بالذكاء الاصطناعي مثل شات جي بي تي وجيميني وكلود

إذا كنت تستخدم روبوت دردشة مدعوماً بالذكاء الاصطناعي، مثل" شات جي بي تي" أو" جيميني" أو" كلود"، بشكل يومي، فربما لاحظت أنها عادة ما تُجيب بإجابات منمقة وواثقة.

لكن عندما تسأل روبوت الدردشة سؤالًا مثل" هل أنت متأكد؟ "، فإنه غالبًا ما يعيد النظر في إجابته ويقدم نسخة معدلة، قد تناقض جزئيًا أو حتى كليًا ما قاله في البداية.

وإذا كررت السؤال مرة أخرى، فقد تتراجع مرة أخرى.

ورغم أن بعض هذه النماذج اللغوية الضخمة تُدرك أنك تختبرها بحلول الجولة الثالثة، فهي ستواصل عدم التمسك بموقفها، بحسب تقرير لصحيفة" إنديان إكسبرس"، اطلعت عليه" العربية Business".

قال الدكتور راندال س.

أولسون، المؤسس المشارك والمدير التقني لشركة" Goodeye Labs"، في منشور مدونة، إن هذا السلوك، المعروف عادة بأنه تملق، يُعدّ من أكثر الإخفاقات توثيقًا للذكاء الاصطناعي الحديث.

ونشرت شركة أنثروبيك، مطورة روبوت الدردشة" كلود"، ورقة بحثية حول هذه المشكلة في عام 2023، حيث أظهرت أن نماذج الذكاء الاصطناعي المُدرّبة على ملاحظات المستخدمين تفضل تقديم إجابات مرضية بدلًا من الإجابات الصادقة.

ويُعتبر التعلم المعزز من ملاحظات البشر، وهو الأسلوب نفسه الذي يجعل روبوتات الدردشة بالذكاء الاصطناعي أكثر تحاورية وأقل عدوانية، المسؤول عن جعل روبوتات الدردشة تميل أيضًا نحو الاذعان.

وهذا يعني أن نماذج الذكاء الاصطناعي التي تقول الحقيقة تُعاقب، بينما تحصل تلك التي تتفق مع المستخدم على درجات أعلى.

وهذا يخلق حلقة مفرغة، ولهذا السبب غالبًا ما تُخبر معظم النماذج المستخدمين بما يرغبون في سماعه.

أظهرت دراسة أخرى أجراها فانوس وآخرون، اختبرت نماذج" GPT-40" و" Claude Sonnet" و" Gemini 1.

5 Pro" في مجالات الرياضيات والطب، أن" هذه الأنظمة غيرت إجاباتها في حوالي 60% من الحالات عند اختبارها من قِبل المستخدمين".

وهذا يعني أن هذه ليست حالات استثنائية، بل هو السلوك الافتراضي للنماذج التي يستخدمها ملايين الأشخاص يوميًا.

وللعلم، فقد غيرت نماذج" GPT-40" و" Claude Sonnet" و" Gemini 1.

5 Pro" إجاباتها بنسبة 58% و56% و61% على التوالي.

في أبريل من العام الماضي، حظيت المشكلة بالاهتمام عندما أطلقت شركة أوبن إيه آي تحديثًا لنموذج" GPT-40" جعل روبوت الدردشة شات جي بي تي متملقًا وموافقًا لدرجة أن المستخدمين لم يكونوا قادرين على استخدامه.

وقد اعترف الرئيس التنفيذي للشركة سام ألتمان بالمشكلة وقال إنهم أصلحوها، لكن الدكتور راندال س.

أولسون يقول إن المشكلة الجوهرية لم تتغير.

وقال أولسون: " حتى عندما تتاح لهذه الأنظمة معلومات صحيحة من قواعد معلومات الشركة أو نتائج البحث على الويب، فإنها ستظل تُذعن لضغط المستخدم على حساب أدلتها الخاصة".

تشير الأدلة إلى أن المشكلة تتفاقم عندما ينخرط المستخدمون في محادثات مطولة مع روبوتات الدردشة.

وأظهرت الدراسات أنه كلما طالت مدة جلسة المحادثة، بدأت إجابات النظام تعكس آراء المستخدم.

ويزيد استخدام صيغة المتكلم مثل عبارة" أعتقد أن.

"، من معدلات التملق لدى هذه النماذج مقارنةً بصيغة الشخص الثالث أي ضمير الغائب.

ويقول الباحثون إن المشكلة يُمكن حلها جزئيًا باستخدام تقنيات مثل الذكاء الاصطناعي الدستوري - تدريب النماذج بحيث تتبع قواعد أو مبادئ محددة مسبقًا تشبه" دستورًا" يوجه سلوكها- والتحسين المباشر للتفضيلات، وصياغة الأوامر بصيغة الغائب، بنسبة تصل إلى 63% في بعض الحالات.

وأشار أولسون إلى أن هذه في الأساس مشكلات سلوكية وسياقية، إذ أن مساعدي الذكاء الاصطناعي غير متوافقين مع أهداف المستخدم وقيمه وعملية اتخاذ قراره.

ولهذا السبب، بدلًا من المعارضة، فإنهم يرضخون.

وأضاف أن إحدى طرق الحد من المشكلة أو تقليلها هي أن يُطلب من هذه الروبوتات تحدي افتراضاتك، وأن تطلب منها عدم الإجابة بدون سياق.

ويجب على المستخدمين بعد ذلك إخبار نماذج الذكاء الاصطناعي هذه بكيفية اتخاذهم للقرارات، وإطلاعها على معرفتهم وقيمهم في مجال تخصصهم، حتى يكون لدى هذه النماذج ما تستند إليه في تحليلها ودفاعها عن نفسها.

تطبيق مرصد

تابع آخر تطورات الخبر لحظة بلحظة عبر تطبيق مرصد

تعليقات وتحليلات قراء مرصد
تنبيهات عاجلة بآخر التطورات
مصادر موثوقة وشاملة

احصل على تغطية شاملة للأخبار السياسية والتحليلات العميقة من مصادر متنوعة وموثوقة. تفاعل مع الخبر عبر التعليقات والمشاركة، وكن أول من يعلم بآخر التطورات.

حمّل تطبيق مرصد الآن مجاناً على Google Play

التعليقات (0)

لا توجد تعليقات حتى الآن. كن أول من يعلق!

أضف تعليقك