جوجل تعترف بأن ميزة البحث الجديدة الخاصة بنظرة عامة على الذكاء الاصطناعي قد أخفقت
عندما انتشرت الإجابات الغريبة والمضللة لاستفسارات البحث التي تم إنشاؤها بواسطة ميزة AI Overview الجديدة من Google على وسائل التواصل الاجتماعي الأسبوع الماضي، أصدرت الشركة بيانات قللت بشكل عام من فكرة وجود مشاكل في التكنولوجيا. وفي وقت متأخر من يوم الخميس، اعترفت رئيسة قسم البحث في الشركة، ليز ريد، بأن الأخطاء سلطت الضوء على المجالات التي تحتاج إلى تحسين، وكتبت “أردنا شرح ما حدث والخطوات التي اتخذناها”.
أشار منشور ريد بشكل مباشر إلى اثنين من أكثر نتائج نظرة عامة على الذكاء الاصطناعي انتشارًا، وغير صحيحة إلى حد كبير. رأى أحدهم أن خوارزميات جوجل تؤيد تناول الصخور لأن القيام بذلك “يمكن أن يكون مفيدًا لك”، واقترح الآخر استخدام غراء غير سام لتكثيف صلصة البيتزا.
إن تناول الصخور ليس موضوعًا يكتبه الكثير من الأشخاص أو يطرحون أسئلة عنه عبر الإنترنت، لذلك لا يوجد العديد من المصادر التي يمكن لمحرك البحث الاعتماد عليها. وفقًا لريد، عثرت أداة الذكاء الاصطناعي على مقال من موقع The Onion، وهو موقع ويب ساخر، أعادت شركة برمجيات نشره، وأساءت تفسير المعلومات على أنها واقعية.
أما بالنسبة لجوجل التي طلبت من مستخدميها وضع الغراء على البيتزا، فقد أرجع ريد الخطأ فعليًا إلى فشل حس الفكاهة. وكتبت: “لقد رأينا نظرة عامة على الذكاء الاصطناعي تتضمن محتوى ساخرًا أو متصيدًا من منتديات المناقشة”. “غالبًا ما تكون المنتديات مصدرًا رائعًا للمعلومات الحقيقية والمباشرة، ولكن في بعض الحالات يمكن أن تؤدي إلى نصائح أقل من مفيدة، مثل استخدام الغراء لجعل الجبن يلتصق بالبيتزا.”
ربما يكون من الأفضل عدم إعداد أي نوع من قائمة العشاء التي يتم إنشاؤها بواسطة الذكاء الاصطناعي دون قراءتها بعناية أولاً.
واقترح ريد أيضًا أن الحكم على جودة أسلوب Google الجديد في البحث بناءً على لقطات الشاشة واسعة الانتشار سيكون أمرًا غير عادل. وزعمت أن الشركة أجرت اختبارات مكثفة قبل إطلاقها وأن بيانات الشركة تظهر أن الأشخاص يقدرون نظرة عامة على الذكاء الاصطناعي، بما في ذلك الإشارة إلى أنه من المرجح أن يظل الأشخاص على الصفحة المكتشفة بهذه الطريقة.
لماذا الإخفاقات المحرجة؟ وصف ريد الأخطاء التي حظيت بالاهتمام بأنها نتيجة لعملية تدقيق على مستوى الإنترنت لم تكن مقصودة دائمًا بشكل جيد. “لا يوجد شيء يضاهي استخدام الملايين من الأشخاص لهذه الميزة في العديد من عمليات البحث الجديدة. لقد رأينا أيضًا عمليات بحث جديدة لا معنى لها، ويبدو أنها تهدف إلى الحصول على نتائج خاطئة.
تدعي جوجل أن بعض لقطات الشاشة الموزعة على نطاق واسع لـ AI Overviews التي حدثت بشكل خاطئ كانت مزيفة، وهو ما يبدو أنه صحيح بناءً على اختبار WIRED الخاص. على سبيل المثال، نشر مستخدم على X لقطة شاشة تبدو وكأنها نظرة عامة على الذكاء الاصطناعي تجيب على السؤال “هل يمكن أن يعيش الصرصور في قضيبك؟” مع تأكيد متحمس من محرك البحث بأن هذا أمر طبيعي. تمت مشاهدة المنشور أكثر من خمسة ملايين مرة. ومع ذلك، بعد مزيد من الفحص، لا يتوافق تنسيق لقطة الشاشة مع كيفية تقديم نظرة عامة على الذكاء الاصطناعي للمستخدمين فعليًا. لم تكن WIRED قادرة على إعادة إنشاء أي شيء قريب من هذه النتيجة.
ولا يقتصر الأمر على مستخدمي وسائل التواصل الاجتماعي الذين تم خداعهم من خلال لقطات شاشة مضللة لنظرات عامة مزيفة للذكاء الاصطناعي. أصدرت صحيفة نيويورك تايمز تصحيحًا لتقاريرها حول هذه الميزة وأوضحت أن AI Overviews لم تقترح أبدًا على المستخدمين القفز من جسر البوابة الذهبية إذا كانوا يعانون من الاكتئاب، وكان ذلك مجرد ميم مظلم على وسائل التواصل الاجتماعي. وكتب ريد يوم الخميس: “ألمح آخرون إلى أننا قدمنا نتائج خطيرة لموضوعات مثل ترك الكلاب في السيارات، والتدخين أثناء الحمل، والاكتئاب”. “نظرات الذكاء الاصطناعي تلك لم تظهر أبدًا.”
ومع ذلك، يوضح مقال ريد أيضًا أنه لم يكن كل شيء على ما يرام فيما يتعلق بالشكل الأصلي لترقية البحث الجديدة الكبيرة من Google. وكتبت أن الشركة أجرت “أكثر من عشرة تحسينات تقنية” على AI Overviews.
تم وصف أربعة فقط: الكشف بشكل أفضل عن “الاستعلامات غير المنطقية” التي لا تستحق نظرة عامة على الذكاء الاصطناعي؛ جعل الميزة تعتمد بشكل أقل على المحتوى الذي ينشئه المستخدمون من مواقع مثل Reddit؛ تقديم نظرة عامة على الذكاء الاصطناعي بشكل أقل في المواقف التي لا يجدها المستخدمون مفيدة؛ وتعزيز الحواجز التي تعطل ملخصات الذكاء الاصطناعي حول موضوعات مهمة مثل الصحة.
لم يكن هناك أي ذكر في منشور مدونة ريد للتراجع بشكل كبير عن ملخصات الذكاء الاصطناعي. تقول Google إنها ستواصل مراقبة تعليقات المستخدمين وتعديل الميزات حسب الحاجة.