يني شفق العربية - مصر.. إنشاء كلية "القرآن الكريم للقراءات وعلومها" بطلب من شيخ الأزهر روسيا اليوم - بيان: بيل غيتس قرر تحمل "مسؤولية أفعاله" بشأن علاقته بإبستين فرانس 24 - ترامب يحطم الرقم القياسي لأطول خطاب لـ"حالة الاتحاد" يني شفق العربية - تركيا.. تحطم مقاتلة من طراز "إف16" واستشهاد قائدها يني شفق العربية - في رمضان.. مستوطنون يحرقون منازل وسيارات فلسطينية جنوبي الضفة روسيا اليوم - صعود أسعار النفط قبل محادثات أمريكية إيرانية فرانس 24 - دوري أن بي ايه: كافالييرز يُسقط نيكس وينال ثناء هاردن روسيا اليوم - "اعتدال وتواصل حقيقي".. ويتكوف يشيد بروسيا في المفاوضات حول أوكرانيا قناة الغد - ميرتس يزور الصين لفتح صفحة جديدة في العلاقات الثنائية يني شفق العربية - للمرة الثانية الثلاثاء.. قوات إسرائيلية تهاجم الجيش اللبناني
عامة

هل يملك الذكاء الاصطناعي وعي خفاش؟

العربية.نت  | العراق

عندما طرح توماس نيجل في منتصف السبعينيات سؤاله الغريب: كيف يبدو الأمر أن تكون خفاشا؟ لم يكن سؤالا في علم الحيوان إنما في الفلسفة. مهما نمت معرفتنا التفصيلية بالخفافيش، حسب نيجل، لن نعرف شعورها بالتنقل...

ملخص مرصد
يطرح المقال سؤال توماس نيجل الفلسفي حول إمكانية فهم تجربة الخفاش الذاتية، ويربطه بتحديات الذكاء الاصطناعي الحالية. يناقش كيف يؤثر هذا السؤال على مسؤولية أنظمة الذكاء الاصطناعي، والعقيدة العسكرية، وسياسات التوظيف، مؤكداً أن الإجابة تحدد الهياكل التنظيمية والقانونية والأخلاقية لحوكمة التقنية.
  • سؤال نيجل الفلسفي حول تجربة الخفاش الذاتية يؤثر على قرارات الذكاء الاصطناعي
  • مسؤولية أنظمة الذكاء الاصطناعي تختلف بين اعتبارها أدوات أو كيانات واعية
  • الإجابة على سؤال الوعي تحدد سياسات التوظيف والدفاع وحوكمة التقنية
من: توماس نيجل متى: منذ السبعينيات حتى الوقت الحاضر

عندما طرح توماس نيجل في منتصف السبعينيات سؤاله الغريب: كيف يبدو الأمر أن تكون خفاشا؟ لم يكن سؤالا في علم الحيوان إنما في الفلسفة.

مهما نمت معرفتنا التفصيلية بالخفافيش، حسب نيجل، لن نعرف شعورها بالتنقل بخاصية الموجات الصوتية.

إننا لا نملك إجابة مقنعة لعجز العلم الموضوعي أن يستوعب التجربة الذاتية.

لكن كيف تؤثر هذه المعضلة على قراراتنا في الذكاء الاصطناعي؟بعد مضي خمسين سنة، أصبح سؤال نيجل محوريا اليوم ومؤثرا في نقاشات مجالس الإدارة والهيئات التنظيمية، فلم يعد يتعلق السؤال بالخفافيش إنما بالآلات.

إذا كانت أنظمة الذكاء الاصطناعي أدوات قوية فحسب، فعلينا أن نركز جهودنا في صياغة سياسات السلامة والشفافية والمساءلة.

ولكن إذا كانت لهذه الأنظمة ما يشبه الوعي أو الخبرة، فلابد أن يتغير موقفنا القانوني والأخلاقي تماما.

لننظر في ثلاث حالات تطبيقية.

أولا: أنظمة المسؤولية.

عندما يتخذ الذكاء الاصطناعي قرارا مثل رفض طلب تأمين أو تنفيذ صفقة خاسرة، من المسؤول؟ تفترض الأطر التنظيمية اليوم أن الذكاء الاصطناعي أداة، فتقع المسؤولية على المطور أو المشغل.

لكن إذا افترضت الأطر التنظيمية أن للأداة وعيا بالقرارات وأهدافا داخلية، فتكون الأداة شريكا في المسؤولية.

مثلا اختار إطار لاتحاد الأوروبي التنظيمي لقانون الذكاء الاصطناعي، تصنيف هذه الأخطاء ضمن مخاطر الآلات وليس اعتبار الآلة وكيلا مسؤولا.

يمثل هذا الموقف انعكاسا لتحفظ نيجل الذي يمتنع عن التسرع في تفسير السلوك باعتباره ممثلا لوعي داخلي.

ثانيا: العقيدة العسكرية.

إذا اختار نظام الذكاء الاصطناعي أهدافا وتعامل دون إشراف بشري مباشر، فهل نعد النظام أداة أم صانع القرار؟ تركز المناقشات الدولية في الأمم المتحدة حول الأسلحة المستقلة الفتاكة على المحافظة على وجود عنصر بشري مسيطر له فاعلية.

إذا كان الحكم الأخلاقي محصورا على ذوات الأهلية، فإذا نزعت هذه الأهلية من أدوات الذكاء الاصطناعي، لأننا عاجزون عن الشعور بذوات الآخرين بحسب نيجل، سنخلق فجوة في تحديد المسؤول مثلا عن الإبادات الجماعية التي يمكن أن تنفذها الأسلحة المستقلة الفتاكة.

أخيرا: سياسات التوظيف والتنمية الاجتماعية.

إذا كانت أنظمة الذكاء الاصطناعي تحاكي الإبداع وتبدي تعاطفا وتمتلك الحجة، يجد العاملون أنفسهم في منافسة مع ذوات تحاكي صفات بشرية طبيعية.

إذا اعتبرت سياسات التوظيف أن الذكاء الاصطناعي مكافئ للبشر، تسارع استبدال العاملين الذين لم يعد لديهم ما يميزهم.

أما إذا تفرد العاملون بالوعي والخبرة، سعت السياسات لحماية أدوارهم ذات القيمة المضافة في تقدير الأحكام الأخلاقية والأعراف الاجتماعية.

الفرق بين المنظورين يحدد مستقبل التعليم والمهن وسياسات التأمينات الاجتماعية.

الجدل الذي يثيره سؤال نيجل ليس سفسطائيا.

تحدد الإجابة موقفنا من سؤال الوعي الذي يؤثر في الهياكل التنظيمية لمؤسساتنا وسياسات الدفاع ومنهجيات تحديد المسؤولية الأخلاقية لحوكمة التقنية.

يكشف لنا نيجل أننا محدودون في قدرتنا على التفسير الموضوعي، حيث الحد الذي نضعه لأنفسنا تبنى عنده سياسات حوكمة الذكاء الاصطناعي.

لذلك يظل السؤال مهما، فليست الإجابة وحدها مهمة عما إذا كنا نستطيع فهم ما يعني أن نكون غيرنا، إنما ماذا يعني لنا لو كان لأجهزتنا شيء يجعلنا نطبق هذا السؤال عليها مهما كان شعورنا بها.

تطبيق مرصد

تابع آخر تطورات الخبر لحظة بلحظة عبر تطبيق مرصد

تعليقات وتحليلات قراء مرصد
تنبيهات عاجلة بآخر التطورات
مصادر موثوقة وشاملة

احصل على تغطية شاملة للأخبار السياسية والتحليلات العميقة من مصادر متنوعة وموثوقة. تفاعل مع الخبر عبر التعليقات والمشاركة، وكن أول من يعلم بآخر التطورات.

حمّل تطبيق مرصد الآن مجاناً على Google Play

التعليقات (0)

لا توجد تعليقات حتى الآن. كن أول من يعلق!

أضف تعليقك