وكالة سبوتنيك - روسيا تبدأ تطوير نظام اختبار "ساركوبينيا" العربية نت - "السعودي الألماني الصحية" تستهدف تحويل مستشفياتها إلى "تعليمية" العربية نت - تشغيل سيارات الأجرة ذاتية القيادة من "وايمو" في 4 مدن أميركية جديدة روسيا اليوم - مصرع عدد من المصريين واختفاء آخرين جراء غرق مركب في البحر الشرق للأخبار - الشرطة الإيطالية تمنع مشجعي دورتموند من حضور مباراة أتالانتا روسيا اليوم - وزارة الدفاع العراقية تنعى 8 من مقاتليها إثر حادث العربي الجديد - أوامر لجنود إسرائيليين عدم طلب البيتزا خشية كشف هجوم محتمل ضد إيران العربية نت - خسائر قوية بأكثر من 3% لمؤشر البورصة المصرية "EGX 30" سكاي نيوز عربية - قرار "عاجل" من برشلونة بشأن حمزة عبد الكريم فرانس 24 - ميرتس يدعو إلى علاقة أكثر "إنصافا" مع الصين وشي يأمل بارتقائها إلى "مستويات جديدة"
عامة

هل يمكن للذكاء الاصطناعي أن يشعر بنا؟

الجزيرة نت
الجزيرة نت منذ 1 أسبوع
1

في عام 1950، طرح عالم الرياضيات آلان تورينغ سؤاله الشهير: " هل يمكن للآلة أن تفكر؟ ". واليوم، بينما يقف العالم في قلب الثورة الصناعية الرابعة، يجد الإنسان نفسه أمام سؤال أكثر تعقيدا: " هل يمكن للآلة أ...

ملخص مرصد
يتناول النص تطور الذكاء الاصطناعي في مجال الحوسبة العاطفية، حيث يحلل المشاعر البشرية عبر الرؤية الحاسوبية ومعالجة اللغات الطبيعية وتحليل النبرة الصوتية. رغم قدرته على فهم وتقليد الاستجابات العاطفية، يفتقر الذكاء الاصطناعي للوعي والتجربة الذاتية، مما يثير تساؤلات أخلاقية حول دوره كأداة مساعدة في الطب النفسي.
  • يحلل الذكاء الاصطناعي المشاعر عبر 3 طبقات تقنية: الرؤية الحاسوبية ومعالجة اللغات الطبيعية وتحليل النبرة الصوتية
  • يفتقر الذكاء الاصطناعي للوعي والتجربة الذاتية (الكواليا) رغم قدرته على تقليد الاستجابات العاطفية
  • يثير استخدام الذكاء الاصطناعي في الطب النفسي مخاوف أخلاقية حول التلاعب العاطفي والمسؤولية القانونية
من: الذكاء الاصطناعي، علماء الرياضيات، الفلاسفة، الأطباء النفسيين متى: منذ عام 1950 حتى الآن

في عام 1950، طرح عالم الرياضيات آلان تورينغ سؤاله الشهير: " هل يمكن للآلة أن تفكر؟ ".

واليوم، بينما يقف العالم في قلب الثورة الصناعية الرابعة، يجد الإنسان نفسه أمام سؤال أكثر تعقيدا: " هل يمكن للآلة أن تشعر؟ ".

تقنيا، نحن نعيش في عصر" الحوسبة العاطفية" (Affective Computing)، وهو المجال الذي يسعى لسد الفجوة بين منطق الأرقام الصارم وسيولة العواطف البشرية.

يعتمد الذكاء الاصطناعي في تحليل المشاعر على تحويل الحالات النوعية (Qualitative States) إلى قيم كمية (Quantitative Values).

وتتم هذه العملية عبر 3 طبقات تقنية رئيسية، هي:

الرؤية الحاسوبية (Computer Vision): تستخدم الشبكات العصبية التلافيفية (CNNs) لتحليل ملامح الوجه، حيث يتم تقسيم الوجه إلى نقاط مرجعية تقيس المسافات بين زوايا العين والفم بالبكسل، ومقارنتها بقواعد بيانات ضخمة مثل (AffectNet) لتصنيف التعبير.

معالجة اللغات الطبيعية (NLP): باستخدام نماذج المحولات (Transformers)، يتم تحليل السياق وآليات الانتباه لتقدير الشحنة العاطفية للنص، والتمييز بين الجد والتهكم.

تحليل النبرة الصوتية (Acoustic Analysis): يتم تحويل الصوت إلى صور طيفية (Spectrograms) لتحليل التردد والشدة، فالتوقفات الطويلة والترددات المنخفضة قد تصنف خوارزميا كمؤشرات اكتئاب.

وبعد مرحلة" الفهم"، تأتي مرحلة" الاستجابة"، فالمعالج الرقمي مصمم ليكون مرآة.

وتقنيا، يسمى هذا توليد اللغة الطبيعية المشروط (Conditional NLG)، فعندما يكتشف النظام حزنا، فإنه يضبط معلوماته لاختيار كلمات أكثر ليونة ونبرة أهدأ.

والآلة هنا لا تتعاطف لأنها تشعر بالألم، بل لأن دالة الهدف (Objective Function) في خوارزميتها تفرض عليها تقليل المسافة الرياضية بين ردها وبين الرد المثالي لمعالج بشري، وهي عملية تحسين (Optimization) وليست تجربة وجدانية.

المعضلة الفنية.

الوعي الزائف وفجوة" الكواليا".

تكمن الفجوة التقنية الكبرى فيما يسميه الفلاسفة" الكواليا" (Qualia)، وهي التجربة الذاتية البحتة للفرد.

فالذكاء الاصطناعي يفتقر إلى" الجسد" (Embodiment)، والمشاعر البشرية ليست مجرد أفكار، بل هي تفاعلات كيميائية وهرمونية (أدرينالين، كورتيزول) مرتبطة بالبقاء.

أما الآلة فهي قادرة على الربط بين بكاء المستخدم وحاجته للمواساة، لكنها لا تملك الوعي السببي.

فهي تعرف أن الفقد يُصنف كحزن، لكنها لا تدرك مرارة الفقد لأنها لا تموت ولا تحب.

هذا الأمر يطرح سؤالا جديدا على الإنسان، لماذا ينجح الذكاء الاصطناعي كطبيب نفسي أولي إذا؟ونجد أن الإجابة تكمن في أنه على الرغم من برودة الكود، إلا أن الذكاء الاصطناعي يتفوق في جوانب محددة.

وهي:

تحليل البيانات الضخمة: يمكنه مراقبة تغيرات طفيفة في" البصمة الرقمية" (ساعات النوم، سرعة الكتابة) على مدار أشهر، وهو ما قد يفوت على الطبيب البشري.

الاستمرارية والحياد: الخوارزمية لا تصاب بـ" الإرهاق العاطفي"، وهي متاحة في الثالثة فجرا مثلا، وتقدم مساحة خالية من الأحكام الأخلاقية، مما يشجع المستخدمين على الإفصاح عن أسرارهم.

حقل الألغام الأخلاقي.

خطر التعلق بالتكنولوجيا.

وبمجرد أن تتحول الآلة إلى كيان" يفهمنا"، نواجه مخاطر نفسية جسيمة، تكمن في غالب الأمر في:

تأثير إليزا (ELIZA Effect): ميل البشر لنسب وعي ومشاعر للآلة لمجرد أنها تحاكي لغتهم، مما قد يؤدي إلى عزلة اختيارية وتفضيل العلاقة مع الآلة المثالية على العلاقات البشرية المعقدة.

التلاعب العاطفي: بما أن الشركات هي من تدير هذه الأنظمة، هناك خطر من استغلال الثغرات العاطفية للمستخدمين لأهداف تجارية أو توجيهية.

المسؤولية القانونية: تظل معضلة تقديم نصيحة خاطئة في لحظة يأس حاد قائمة، فمن يحاسب الخوارزمية على الضرر النفسي؟وهنا يؤكد الخبراء على أن الذكاء الاصطناعي في الطب النفسي هو أداة" سيبرانية"، وامتداد لقدرات الطبيب وليس بديلا عن روحه، فهو يعتبر مثل" ترموميتر" عاطفي ممتاز يقيس الحرارة بدقة، لكنه لا يمرض معك.

وهذا يعني أن الوعي البشري سيبقى هو المنطقة التي لا يمكن اختزالها في" كود" برمجي، لأن العلاج الحقيقي ليس مجرد حل لمشكلة، بل هو مشاركة في عبء الوجود، وقدرة على تبادل المشاعر.

تطبيق مرصد

تابع آخر تطورات الخبر لحظة بلحظة عبر تطبيق مرصد

تعليقات وتحليلات قراء مرصد
تنبيهات عاجلة بآخر التطورات
مصادر موثوقة وشاملة

احصل على تغطية شاملة للأخبار السياسية والتحليلات العميقة من مصادر متنوعة وموثوقة. تفاعل مع الخبر عبر التعليقات والمشاركة، وكن أول من يعلم بآخر التطورات.

حمّل تطبيق مرصد الآن مجاناً على Google Play

التعليقات (0)

لا توجد تعليقات حتى الآن. كن أول من يعلق!

أضف تعليقك