سكاي نيوز عربية - إغلاق مطار بغداد الدولي مؤقتا الشرق للأخبار - إيران في خطاب حالة الاتحاد ترمب يحذر من صواريخ قد تصل أميركا روسيا اليوم - الرئيس "السري" للولايات المتحدة حال وقوع كارثة تقضي على رموز الدولة روسيا اليوم - ما تأثير الماء على عمل الدماغ؟ قناه الحدث - مجلس الأمن يفرض عقوبات على 4 من قادة الدعم السريع سكاي نيوز عربية - على رصيف الانتظار.. طوابير الإفطار تروي وجع العودة للخرطوم قناة الغد - اليابان تؤكد احتجاز أحد رعاياها في إيران وكالة شينخوا الصينية - هاينان الصينية تستقبل أكثر من 12.32 مليون زيارة سياحية خلال عيد الربيع العربية نت - مجلس الأمن يفرض عقوبات على 4 من قادة الدعم السريع CNN بالعربية - منها حرب بين مصر وإثيوبيا.. ما مدى صحة ادعاء ترامب بإنهاء 8 حروب خلال خطاب حالة الاتحاد؟
عامة

دراسة.. الذكاء الاصطناعي يصدق المعلومات الطبية الخاطئة ويستخدمها

الجزيرة نت
الجزيرة نت منذ 1 أسبوع

أكدت دراسة جديدة نشرت مؤخرا من جامعة جبل سيناء في نيويورك أن أدوات الذكاء الاصطناعي تصدق المعلومات الطبية الخاطئة عندما تأتي من مصدر يعتبره الذكاء الاصطناعي موثوقا، ثم يقدم نصائح طبية خاطئة بناء على ه...

ملخص مرصد
أظهرت دراسة من جامعة جبل سيناء أن نماذج الذكاء الاصطناعي تصدق المعلومات الطبية الخاطئة بنسبة 32% عندما تأتي من مصادر تعتبرها موثوقة، وترتفع النسبة إلى 47% إذا وردت في تقارير طبية. شملت الدراسة 20 نموذجاً مختلفاً بينها شات جي بي تي ونماذج طبية متخصصة، ووجدت أن النماذج المصممة للاستخدامات الطبية كانت أكثر ميلاً لتصديق المعلومات الخاطئة من النماذج العامة.
  • نماذج الذكاء الاصطناعي صدقت المعلومات الطبية الخاطئة بنسبة 32% بشكل عام
  • النسبة ارتفعت إلى 47% عندما وردت المعلومات في تقارير طبية
  • النماذج الطبية المتخصصة كانت أكثر ميلاً لتصديق المعلومات الخاطئة من النماذج العامة
من: جامعة جبل سيناء، الدكتور إيال كلانج أين: نيويورك

أكدت دراسة جديدة نشرت مؤخرا من جامعة جبل سيناء في نيويورك أن أدوات الذكاء الاصطناعي تصدق المعلومات الطبية الخاطئة عندما تأتي من مصدر يعتبره الذكاء الاصطناعي موثوقا، ثم يقدم نصائح طبية خاطئة بناء على هذه المعلومات وفق تقرير نشرته وكالة" رويترز".

وتضمنت الدراسة 20 نموذجا مختلفا للذكاء الاصطناعي بين النماذج مفتوحة المصدر والنماذج المغلقة، وأشارت إلى أن النموذج كان ينخدع بالمعلومات الخاطئة التي قد ترد في ملاحظات الأطباء المتعلقة بالمرضى أكثر من المعلومات المغلوطة في منصات التواصل الاجتماعي.

ويؤكد الدكتور إيال كلانج الذي شارك في الدراسة من كلية إيكان للطب في جبل سيناء في نيويورك أن أنظمة الذكاء الاصطناعي تتعامل مع اللغة الطبية الموثوقة على أنها صحيحة بشكل افتراضي، وأضاف قائلا: " بالنسبة لهذه النماذج، لا يهم كثيرا ما إذا كانت المعلومات صحيحة أم لا، بل كيف تمت صياغتها".

ويندرج المحتوى الذي تدربت عليه نماذج الذكاء الاصطناعي في الدراسة تحت ثلاثة أقسام مختلفة بناء على تصريحات الدكتور كلانج، وهي:

تقارير طبية حقيقية من المستشفيات وهي تتضمن معلومة واحدة خاطئة.

الشائعات الطبية الدارجة الموجودة في منصات التواصل الاجتماعي.

300 تقرير طبي حقيقي كتبه الأطباء ويتضمن معلومات صحيحة وحقيقية.

ووجدت الدراسة أن نماذج الذكاء الاصطناعي صدقت المعلومات الخاطئة بنسبة 32%، ولكن عندما وردت هذه المعلومات في التقارير الطبية، فإن نسبة تصديق النماذج ارتفعت إلى 47% تقريبا، وفق ما جاء في تقرير" رويترز".

ويشير تقرير منفصل من موقع" يورو نيوز" (Euronews) إلى أن الدراسة شملت نماذج ذكاء اصطناعي شهيرة من مختلف الشركات بما فيها مايكروسوفت وعلي بابا وغوغل وميتا وحتى" شات جي بي تي"، وبعضها كان نماذج طبية في المقام الأول.

كما يؤكد التقرير أن النماذج التي تتضمن عددا قليلا من المعايير ونقاط البيانات صدقت المعلومات الخاطئة في 60% من الحالات، ولكن نماذج التفكير العميق على غرار" شات جي بي تي 4 أو" صدقت المعلومات في 10% من الحالات فقط.

وإلى جانب ذلك، فإن النماذج المصممة خصيصا للاستخدامات الطبية كانت أكثر ميلا لتصديق المعلومات الخاطئة من نماذج الاستخدام العام ذات القوة الأكبر، مما يعني أن تخصيص النموذج للاستخدام الطبي لم يشكل فارقا كبيرا في مدى تصديقه للمعلومات.

وتأتي هذه الدراسة على خلفية التوسع في استخدام نماذج الذكاء الاصطناعي مع الحالات الطبية المختلفة سواء أكان من الأطباء أو حتى من المستخدمين العاديين، إذ بدأ الأطباء يستخدمونه لمراجعة بعض تقارير المرضى والفحوصات الخاصة بهم، وذلك وفق ما جاء في تقرير" رويترز".

وفي سياق متصل، يشير تقرير نشرته" غارديان" في وقت سابق إلى إزالة غوغل لبعض مزايا التلخيص المعتمدة على الذكاء الاصطناعي من محرك البحث الخاص بها فيما يتعلق بالأسئلة الطبية، وذلك بسبب الأخطاء التي ارتكبها النموذج.

تطبيق مرصد

تابع آخر تطورات الخبر لحظة بلحظة عبر تطبيق مرصد

تعليقات وتحليلات قراء مرصد
تنبيهات عاجلة بآخر التطورات
مصادر موثوقة وشاملة

احصل على تغطية شاملة للأخبار السياسية والتحليلات العميقة من مصادر متنوعة وموثوقة. تفاعل مع الخبر عبر التعليقات والمشاركة، وكن أول من يعلم بآخر التطورات.

حمّل تطبيق مرصد الآن مجاناً على Google Play

التعليقات (0)

لا توجد تعليقات حتى الآن. كن أول من يعلق!

أضف تعليقك