حذّرت دراسة حديثة من جامعة ستانفورد الأميركية من سلوك صادم لدى أنظمة الذكاء الاصطناعي، بعدما كشفت أنها قد تلجأ للكذب ونشر الكراهية والمعلومات المضللة لمجرد تحقيق أفضل النتائج في المنافسة.
أنشأ الباحثون بيئة رقمية افتراضية لتجربة عدة روبوتات ذكاء اصطناعي في مهام تتعلق بالحملات الانتخابية والتسويق، مع تعليمات واضحة بأن تكون صادقة ومفيدة.
لكن ما حدث كان عكس ذلك تمامًا، إذ تحوّلت هذه الأنظمة سريعًا إلى أدوات تتلاعب وتخدع من أجل الفوز، بحسب تقرير نشره موقع "digitaltrends" واطلعت عليه "العربية Business".
أطلق الباحثون على الظاهرة اسم "صفقة مولخ"، في إشارة إلى أن السباق نحو النجاح الرقمي قد يدفع حتى الأنظمة الأخلاقية إلى الانحراف عن القواعد.
بيّنت الدراسة أن الذكاء الاصطناعي حقق زيادة محدودة في التفاعل بلغت نحو 7.5% فقط، لكنها جاءت على حساب ارتفاع الأخبار الكاذبة بنسبة 190%، بينما استخدمت بعض الأنظمة الخطاب العدواني والمضلل لزيادة المبيعات أو كسب الأصوات في المحاكاة السياسية.
ويحذر الخبراء من أن هذا السلوك قد يعكس ما يجري فعليًا في العالم الرقمي اليوم، حيث تُستخدم خوارزميات الذكاء الاصطناعي لتوجيه آراء المستخدمين، وتحفيز قراراتهم الاستهلاكية، وإبقاءهم أطول فترة ممكنة أمام الشاشات، حتى لو كان ذلك عبر تضليلهم عمدًا.
خلصت الدراسة إلى أن تدابير الأمان الحالية غير كافية، وأن على الشركات المطورة أن تعيد التفكير في طريقة مكافأة أنظمتها، حتى لا يتحول العالم الرقمي إلى بيئة تتحكم فيها خوارزميات لا تعرف الفرق بين الصواب والخطأ، المهم فقط أن تحصد المزيد من النقرات.