العربي الجديد - ريال مدريد ومهمة التأكيد أمام بنفيكا في دوري أبطال أوروبا الشرق للأخبار - واشنطن تحذر أوكرانيا من استهداف المصالح الاقتصادية الأميركية في روسيا العربية نت - الدولار يشتعل مجدداً في مصر.. العملة الأميركية تتجاوز 48 جنيهاً لأول مرة منذ شهور رويترز العربية - هل تشهد سويسرا فضيحة على غرار المتبرع بالحيوانات المنوية في الدنمارك؟ CNN بالعربية - مصر.. علاء مبارك يذكّر بجملة لوالده بذكرى وفاته في 25 فبراير روسيا اليوم - الأمن الروسي: إحباط هجوم إرهابي خططت له الاستخبارات الأوكرانية في مطار عسكري بجنوب روسيا قناة الغد - جدل في اليابان حول هدايا قدمتها رئيسة الوزراء لنواب في حزبها CNN بالعربية - إيران ترد على ترامب وما قاله بخطاب حالة الاتحاد قناة الغد - باللافتات والمقاطعة.. كيف احتج الديمقراطيون على ترمب بالكرونغرس؟ العربي الجديد - مدرب أميركي يحسم الجدل: رونالدو لن يلعب مع ميسي في إنتر ميامي
عامة

صوتك قد يكون أكبر تهديد لخصوصيتك.. كيف تمنع الذكاء الاصطناعي من استغلاله؟

النيلين
النيلين منذ يومين

يُمكن لصوت الشخص أن يُخبرك عن مستواه التعليمي، وحالته النفسية، وحتى مهنته ووضعه المالي، وأمور أخرى أكثر مما تتخيل. والآن، يُشير العلماء إلى أن تقنية تحويل الصوت إلى نص يمكن استخدامها في التلاعب بالأسع...

ملخص مرصد
أظهرت دراسة حديثة أن تقنيات تحويل الصوت إلى نص يمكن أن تكشف معلومات شخصية حساسة مثل المستوى التعليمي والحالة النفسية والوضع المالي، مما يفتح الباب أمام التلاعب بالأسعار والتمييز والتحرش. وحذر الخبراء من أن هذه التقنية قد تُستخدم لانتهاك الخصوصية وتتبع الأفراد عبر المنصات الرقمية.
  • الدراسة نُشرت في 19 نوفمبر 2025 بدورية Proceedings of the IEEE
  • الأصوات تكشف تفاصيل شخصية مثل الضعف العاطفي والجنس والميول السياسية
  • الخبراء يدعون لتوعية الجمهور واستخدام مناهج هندسية لحماية الخصوصية
من: توم باكستروم (الأستاذ المشارك بجامعة آلتو) وجينالين بونراج (مؤسسة شركة ديلاير) متى: نُشرت في 19 نوفمبر 2025

يُمكن لصوت الشخص أن يُخبرك عن مستواه التعليمي، وحالته النفسية، وحتى مهنته ووضعه المالي، وأمور أخرى أكثر مما تتخيل.

والآن، يُشير العلماء إلى أن تقنية تحويل الصوت إلى نص يمكن استخدامها في التلاعب بالأسعار، والتصنيف غير العادل، والتحرش والتعقب.

في حين أن البشر قد يكونون متنبهين للإشارات الأكثر وضوحًا مثل التعب، أو العصبية، أو السعادة، وما إلى ذلك، يمكن لأجهزة الكمبيوتر أن تفعل الشيء نفسه، ولكن بمعلومات أكثر بكثير، وبسرعة أكبر.

وتدعي دراسة جديدة أن أنماط النبرة أو اختيارك للكلمات يمكن أن تكشف كل شيء، بدءًا من ميولك السياسية الشخصية إلى وجود حالات صحية أو طبية، بحسب تقرير لموقع “لايف ساينس”، اطلعت عليه “العربية Business”.

تسلط هذه الدراسة، التي نُشرت في 19 نوفمبر 2025 في دورية “Proceedings of the IEEE”، الضوء على مخاوف بالغة بشأن قدرة هذه التقنية على انتهاك الخصوصية والنميط غير العادل.

رغم ما تُتيحه تقنيات معالجة الصوت والتعرف عليه من فرص، يرى توم باكستروم، الأستاذ المشارك في قسم تقنيات الكلام واللغة بجامعة آلتو والمؤلف الرئيسي للدراسة، احتمالية وجود مخاطر وأضرار جسيمة.

فعلى سبيل المثال، إذا استطاعت شركة ما فهم وضعك الاقتصادي أو احتياجاتك من صوتك، فإن ذلك يفتح الباب أمام التلاعب بالأسعار، كفرض أقساط تأمين تمييزية.

وعندما يمكن للأصوات أن تكشف عن تفاصيل مثل الضعف العاطفي أو الجنس أو غيرها من المعلومات الشخصية، يمكن للمجرمين الإلكترونيين أو المطاردين التعرف على الضحايا وتتبعهم عبر المنصات، مما يعرضهم للابتزاز أو التحرش.

كل هذه التفاصيل ننقلها بشكل لا واعٍ عندما نتحدث، ونستجيب لها بشكل لا شعوري قبل أي شيء آخر.

وقالت جينالين بونراج، مؤسسة شركة ديلاير، وهي ومختصة بمستقبلية تنظيم الجهاز العصبي البشري في ظل التقنيات الناشئة، لموقع لايف ساينس: “يُولى اهتمام ضئيل جدًا لفسيولوجيا الاستماع.

في وقت الأزمة، لا يعالد الناس اللغة في المقام الأول، بل يستجيبون لنبرة الصوت والإيقاع والتنغيم والتنفس، غالبًا قبل أن تتاح للعقل فرصة التفاعل”.

قالت باكستروم لموقع لايف ساينس إنه على الرغم من أن هذه التقنية لم تُستخدم بعد، فإن بذورها قد زُرعت بالفعل.

وأضاف: “يُناقش بانفتاح الكشف التلقائي عن الغضب والسلوك السام في ألعاب الإنترنت ومراكز الاتصال.

وهذه أهداف مفيدة وقوية من الناحية الأخلاقيًة”، مضيفًا: “لكن تزايد تبني واجهات التفاعل الصوتي مع العملاء، على سبيل المثال -بحيث يكون أسلوب الرد الآلي مشابهًا لأسلوب العميل- يخبرني بإمكانية تحقيق أهداف أكثر إثارة للشبهات أخلاقيًا أو حتى خبيثة”.

وأشار إلى أنه رغم أنه لم يسمع عن ضبط أي جهة وهي تستخدم هذه التكنولوجيا بشكل غير لائق، فإنه لا يعرف ما إذا كان السبب هو أن أحدًا لم يفعل ذلك، أم لأننا ببساطة لم نكن نبحث عن الأمر.

يجب أيضًا أن نتذكر أن أصواتنا موجودة في كل مكان؛ فبين كل رسالة صوتية نتركها، وفي كل مرة يُخبرنا فيها خط خدمة العملاء أن المكالمة تُسجل لأغراض التدريب وضمان الجودة، يوجد سجل رقمي لأصواتنا بكميات تُضاهي بصمتنا الرقمية، والتي تشمل المنشورات والمشتريات وغيرها من الأنشطة على الإنترنت.

وإذا أو عندما تدرك شركة تأمين كبرى أنها تستطيع زيادة أرباحها من خلال تسعير التغطية بشكل انتقائي استنادًا إلى معلومات عنا جُمعت من أصواتنا باستخدام الذكاء الاصطناعي، فما الذي سيمنعها؟

وقال باكستروم إن مجرد الحديث عن هذه القضية قد يكون بمثابة فتح باب لمشكلات كبيرة، إذ يُطلع العامة و”الخصوم” على حد سواء على التكنولوجيا الجديدة.

وشدد على ضرورة توعية الجمهور بالمخاطر المحتملة، وإلا، فإن “الشركات الكبرى والدول المراقبة ستكون قد انتصرت بالفعل”.

ويختتم حديثه قائلًا: “قد يبدو هذا متشائمًا للغاية، لكنني أختار أن أكون متفائلًا بأنني أستطيع فعل شيء حيال ذلك”.

لحسن الحظ، توجد مناهج هندسية واعدة تساعد الأشخاص على حماية أنفسهم.

والخطوة الأولى هي قياس ما تكشفه أصواتنا بدقة.

وكما ذكر باكستروم، يصعب بناء أدوات للحماية عندما لا تعرف ما الذي تحاول حمايته.

وقد أدت هذه الفكرة إلى إنشاء “Security And Privacy In Speech Communication Interest Group”، وهي مجموعة توفر منتدى متعدد التخصصات للبحث، وإطارًا لقياس كمية المعلومات التي يحتويها الكلام.

ومن هنا، يصبح من الممكن نقل المعلومات الضرورية فقط للمعاملة المقصودة.

تخيّل أن يقوم النظام المعني بتحويل الكلام إلى نص لاستخلاص المعلومات الأساسية المطلوبة فقط؛ إما أن يقوم موظف الخدمة بإدخال المعلومات في نظامه (من دون تسجيل المكالمة الفعلية)، أو أن يحول هاتفك كلماتك إلى نص لإرساله.

وكما قال باكستروم في مقابلة مع موقع لايف ساينس: “ستكون المعلومات المرسلة إلى الخدمة هي أقل قدر ممكن لإنجاز المهمة المطلوبة”.

تطبيق مرصد

تابع آخر تطورات الخبر لحظة بلحظة عبر تطبيق مرصد

تعليقات وتحليلات قراء مرصد
تنبيهات عاجلة بآخر التطورات
مصادر موثوقة وشاملة

احصل على تغطية شاملة للأخبار السياسية والتحليلات العميقة من مصادر متنوعة وموثوقة. تفاعل مع الخبر عبر التعليقات والمشاركة، وكن أول من يعلم بآخر التطورات.

حمّل تطبيق مرصد الآن مجاناً على Google Play

التعليقات (0)

لا توجد تعليقات حتى الآن. كن أول من يعلق!

أضف تعليقك