في شهر مايو الماضي، كشف المسؤولون في «غوغل» النقاب عن نوع جديد من الذكاء الاصطناعي التجريبي الذي تم تدريبه على النصوص والصور معاً، وقالوا إنه سيجعل عمليات البحث عبر الإنترنت أكثر سهولة، وخلال الأسبوع الماضي قدمت الشركة لمحة للتعرف على التكنولوجيا الجديدة التي بمقدورها أن تغير الطريقة التي يبحث بها الناس عبر الإنترنت.
وخلال فترة قريبة، سوف يمكّن ما يسمى «النموذج الموحد متعدد المهام» أو MUM مستخدمي غوغل من الجمع بين عمليات البحث عن النص والصورة معاً، عن طريق تطبيق «لنس» الذي يعمل مع الهواتف الذكية، أو من خلال دمج هذه التقنية ضمن بحث غوغل التقليدي والعديد من منتجات الشركة الأخرى.
ومن خلال استخدام هذا الأسلوب، سوف يتمكن المستخدم من التقاط صورة لقميص باستخدام التطبيق ثم البحث عن «جوارب بنفس النمط»، أما البحث بكلمة «كيف تصلحها؟» مع صورة لدراجة على سبيل المثال فسوف يأتي في النتائج بمقاطع فيديو إرشادية أو مواد مكتوبة تشرح كيفية الإصلاح.
سوف تقوم غوغل أيضاً بدمج هذا النموذج الموحد ضمن نتائج البحث لاقتراح طرق إضافية يمكن أن يستكشفها المستخدمون. فمثلاً، إذا سألت غوغل عن كيفية الرسم، يمكن لهذا النموذج أن يعطي إرشادات خطوة بخطوة، أو البرامج التعليمية المتوافرة الخاصة بأساليب الرسم، أو كيفية استخدام مواد الرسم محلية الصنع. وتخطط غوغل أيضاً لتوفير هذه الخاصية المتقدمة من البحث في «يوتيوب» حيث سيعرض الذكاء الاصطناعي اقتراحات البحث أسفل مقاطع الفيديو بناء على النصوص أو الترجمات المصاحبة له.
تم تدريب «النموذج الموحد متعدد المهام» أيضاً على التوصل لاستدلالات حول النص والصور، ويمثل دمج هذا النموذج في نتائج بحث غوغل مسيرة مستمرة نحو استخدام نماذج اللغة التي تعتمد على كميات هائلة من النصوص المقتبسة من الويب، ونوع من بنية «الشبكات العصبية» التي تسمى «المحول»، وجاء أحد أول هذه الجهود في عام 2019 عندما قامت غوغل بحقن نموذج لغة يسمى BERT في نتائج البحث لتغيير تصنيف النتائج التي تظهر، وتلخيص النصوص تحت النتائج التي تظهر.
وتعليقاً على هذا التطور، قال «باندو ناياك» نائب رئيس غوغل، إن BERT يمثل أكبر تغيير إلى الأفضل في نتائج البحث منذ ما يقرب من عقد، ولكن ما يحدث مع النموذج الموحد ينقل فهم الذكاء الاصطناعي للغة المطبق ضمن بحث غوغل إلى المستوى التالي في سلم التطور.
على سبيل المثال، يستخدم النموذج الموحد بيانات من 75 لغة بدلاً من الإنجليزية وحدها، ويتم تدريبه على الصور والنصوص معاً بدلاً من النص فقط. ومن ناحية الحجم فهو أكبر 1000 مرة من نظام BERT عند قياسه بعدد المتغيرات أو الروابط بين الخلايا العصبية الاصطناعية في نظام التعلم العميق الذي يرتكز عليه. وبينما يصف «ناياك» النموذج الموحد بأنه مرحلة شديدة الأهمية في فهم اللغة، فإنه يعترف أيضاً بأن النماذج اللغوية الكبيرة تأتي مع تحديات ومخاطر معروفة.
مثلاً، ثبت بالدليل أن نظام BERT والنماذج الأخرى المستندة إلى فكرة «المحول»، تمتص التحيزات الموجودة في البيانات المستخدمة لتدريبها. وقد وجد الباحثون في بعض الحالات أنه كلما كان نموذج اللغة أكبر، كان تضخيم الانحيازات أسوأ. ويقول الخبراء الذين يعملون على اكتشاف واستبدال المخرجات العنصرية والمتحيزة وغير ذلك من مشكلات النماذج اللغوية الكبيرة إن التدقيق في النصوص المستخدمة لتدريب النماذج أمر بالغ الأهمية لتقليل الضرر، وإن الطريقة التي يتم بها تصنيف البيانات يمكن أن يكون لها أثر سلبي.
في أبريل الماضي، قال معهد ألين للذكاء الاصطناعي، إن القوائم الكبيرة المستخدمة في مجموعة بيانات استخدمها غوغل لتدريب نموذج اللغة T5 الخاص بها يمكن أن تؤدي إلى استبعاد مجموعات كاملة من الأشخاص، مثل أولئك الذين يمكن اعتبارهم مثليين وغيرهم، ما يجعل من الصعب على نماذج اللغة الآلية أن تفهم نصوصاً قادمة من هذه المجموعات أو تتعلق بها.
والحقيقة أن هناك العديد من الانتقادات التي توجه لشركة غوغل حول التحيزات في الذكاء الاصطناعي، ففي العام الماضي قال العديد من باحثي الذكاء الاصطناعي في الشركة، بمن في ذلك موظفون سابقون في قسم «أخلاقيات الذكاء الاصطناعي»، إنهم واجهوا معارضة من المديرين التنفيذيين لعملهم، الأمر الذي يدل على أن النماذج اللغوية الكبيرة يمكن أن تكون ضارة في بعض الأحيان.
وأدت الإطاحة بالباحثة «تيمنت جيبرو» من الشركة بعد نزاع حول ورقة بحثية كتبها انتقدت الكُلفة البيئية والاجتماعية لنماذج اللغة الكبيرة، إلى اتهامات واسعة من موظفي الشركة لها بالعنصرية، كما انتشرت الدعوة لتكوين نقابة عمالية داخلها، والمطالبات بحماية أقوى للمبلغين عن الانتهاكات في أبحاث الذكاء الاصطناعي الكبيرة.
هذا الجدل المتصاعد، أدى إلى قيام خمسة من نواب مجلس الشيوخ الأمريكي، في مايو الماضي بالإشارة إلى مجموعة من وقائع «تحيز الخوارزميات» في شركة «ألفا بيت» المالكة لغوغل، بالإضافة إلى واقعة الإطاحة بجيبرو، ليتساءلوا ما إذا كانت منتجات غوغل مثل البحث أو غيرها من التطبيقات آمنة ومحايدة للمستخدمين ذوي البشرة السمراء. وكتب أعضاء الكونغرس رسالة إلى قيادات غوغل جاء فيها: «نحن قلقون من أن الخوارزميات ستعتمد على البيانات التي تعزز الصورة النمطية السلبية، والتي تستبعد بعض الناس من مشاهدة إعلانات الإسكان والتوظيف والقروض والتعليم، أو عرض الفرص غير الجيدة فقط».
ولكن في مواجهة هذه الانتقادات وغيرها، قال متحدث باسم غوغل إن «النموذج الموحد متعدد المهام» تم تدريبه على البيانات التي تعتبر عالية الجودة بناء على معايير جودة البحث في غوغل، والمعروف أن مواقع الويب يمكن أن تتلقى تقييمات منخفضة الجودة بسبب المحتوى المضلل أو المبالغ فيه أو الإعلانات المشتتة للانتباه، كما يتم منح تصنيفات منخفضة للمواقع التي تروج للكراهية أو العنف. ورغم ذلك لم تقدم غوغل أي توضيحات تفصيلية بخصوص البيانات التي تم تدريب النظام عليها، ولا أي دليل على أن هذه المجموعة من البيانات التدريبية لنموذج اللغة لا تضخم التحيزات أو تستبعد مجموعات معينة.
وتقول غوغل إنه قبل تقديم نظام البحث الجديد على نطاق واسع للمستخدمين، فإنها تقوم باختباره في عمليات بحث مختلفة ضمن بيئة محمية، كما تجري العديد من الاختبارات لتقييم جودة البحث داخلياً للتأكد من أن كل شيء يتم بأفضل صورة.