الشبكة العربية للأنباء
الرئيسية - تكنولوجيا و صحة - تحذيرات من الذكاء الاصطناعي الفائق.. قد يؤذي البشر!

تحذيرات من الذكاء الاصطناعي الفائق.. قد يؤذي البشر!

الساعة 09:39 صباحاً (Ann)

 

من الممكن أن تبدو فكرة انتفاضة الذكاء الاصطناعي وكأنها حبكة فيلم خيال علمي، لكن بشكل واقعي هي موضوع دراسة جديدة تكشف أنه من الممكن أن تحدث في العالم بالمستقبل وعندئذ لن يتمكن أحد من إيقافها، وفقًا لما نشرته "ديلي ميل" البريطانية.

 

خوارزمية نظرية

صمم فريق من العلماء الدوليين خوارزمية نظرية للاحتواء بهدف التأكد من أن نظامًا فائق الذكاء لا يمكن أن يؤذي البشر تحت أي ظرف من الظروف، عن طريق محاكاة الذكاء الاصطناعي ومنعه من تدمير البشرية.

 

 

لكن أظهرت نتائج الدراسة أن الخوارزميات الحالية لا تملك القدرة على إيقاف الذكاء الاصطناعي، لأن توجيه النظام فائق الذكاء لعدم تدمير العالم من شأنه أن يوقف عمليات الخوارزمية نفسها عن غير قصد.

 

وقال إياد رهوان، مدير مركز البشر والآلات في معهد ماكس بلانك للتنمية البشرية: "إذا حدث هذا [قيام نظام فائق الذكاء بإيذاء البشر]، فلن يمكن معرفة ما إذا كانت خوارزمية الاحتواء لا تزال تقوم بتحليل التهديد، أو ما إذا ستكون قد توقفت [عن محاولة] احتواء الذكاء الاصطناعي الضار. في الواقع، إن هذا [التهديد المُحتمل] يجعل خوارزمية الاحتواء غير قابلة للاستخدام".

 

انبهار عالمي وقلق العلماء

لطالما أذهل الذكاء الاصطناعي البشر لسنوات، حيث يشعر الجميع بالانبهار من النظام الآلي الذي يتحكم في السيارات دون الحاجة لسائق، أو البرامج التي تقوم بتلحين سيمفونيات أو تهزم أفضل لاعب شطرنج في العالم.

 

ولكن يبقى بالأخير أنه مع وجود تلك القوة العظمى تكون هناك مسؤولية أكبر، حيث يساور العلماء في جميع أنحاء العالم القلق بشأن الأخطار التي ربما يجلبها ظهور واستخدام الأنظمة فائقة الذكاء.

 

نظرية مؤسس علم الحاسوب

باستخدام خوارزمية الاحتواء النظرية، توصل فريق دولي من الباحثين، من بينهم علماء من مركز البشر والآلات في معهد ماكس بلانك للتنمية البشرية، إلى أنه لن يكون من الممكن التحكم في نظام فائق الذكاء الاصطناعي.

 

استخدم فريق الباحثين نظرية مشكلة التوقف، التي طرحها مؤسس علم الحاسوب الحديث آلان تورنغ في عام 1936، والتي تركز على مسألة ما إذا كان برنامج الكمبيوتر سيصل إلى نتيجة وسيجيب على المشكلة، والتي تكون في هذه الحالة هي التوقف، أم أنه سيستمر في البحث عن إجابة إلى ما لا نهاية.

 

وفي دراستهم، صمم الباحثون خوارزمية احتواء نظرية تضمن أن الذكاء الاصطناعي الفائق لا يمكن أن يؤذي البشر تحت أي ظرف من الظروف، من خلال محاكاة سلوك الذكاء الاصطناعي أولاً ووقفه إذا اعتبر ضارًا. لكن التحليل الدقيق يُظهر أنه في النموذج الحالي للحوسبة، لا يمكن بناء مثل هذه الخوارزمية.

 

مرحلة الذكاء الفائق

بناءً على هذه الحسابات، فإن مشكلة الاحتواء غير قابلة للتنفيذ من خلال الكمبيوتر، وأنه لا يمكن لأي خوارزمية واحدة إيجاد حل لتحديد ما إذا كان الذكاء الاصطناعي سيؤدي إلى ضرر للعالم.

 

واكتشف الباحثون أيضًا أن العالم ربما لا يعرف حتى متى وصلت أنظمة الذكاء الاصطناعي إلى مرحلة الذكاء الفائق، لأن تحديد ما إذا كانت الآلة تُظهر ذكاءً متفوقًا على البشر هو في نفس مجال مشكلة الاحتواء، التي لم تتمكن الخوارزمية من تحليلها.