تعرضت شركة Google لانتقادات بسبب ارتكاب برنامج AI Overview أخطاء واضحة، حيث قال إن الرئيس أوباما مسلم وأنه من الآمن ترك الكلاب في السيارات الساخنة

فريق التحرير
كتب فريق التحرير 7 دقيقة للقراءة

لقد مر أقل من أسبوعين منذ ذلك الحين جوجل ظهرت “نظرات عامة حول الذكاء الاصطناعي” لأول مرة في بحث Google، وتصاعدت الانتقادات العامة بعد أن أعادت الاستعلامات نتائج غير منطقية أو غير دقيقة ضمن ميزة الذكاء الاصطناعي – دون أي طريقة لإلغاء الاشتراك.

تعرض “نظرات عامة على الذكاء الاصطناعي” ملخصًا سريعًا للإجابات على أسئلة البحث في الجزء العلوي من بحث Google: على سبيل المثال، إذا كان المستخدم يبحث عن أفضل طريقة لتنظيف الأحذية الجلدية، فقد تعرض صفحة النتائج “نظرة عامة على الذكاء الاصطناعي” في الأعلى مع عملية تنظيف متعددة الخطوات، مستمدة من المعلومات التي تم تجميعها من جميع أنحاء الويب.

ولكن على وسائل التواصل الاجتماعي، شارك المستخدمون مجموعة واسعة من لقطات الشاشة التي تظهر أداة الذكاء الاصطناعي وهي تشارك ردودًا مثيرة للجدل.

جوجل، ومايكروسوفت، وOpenAI وغيرها من الشركات هي على رأس سباق تسلح الذكاء الاصطناعي، حيث تتسابق الشركات في كل صناعة على ما يبدو لإضافة روبوتات الدردشة والوكلاء الذين يعملون بالذكاء الاصطناعي لتجنب التخلف عن المنافسين. ومن المتوقع أن تصل إيرادات السوق إلى تريليون دولار في غضون عقد من الزمن.

فيما يلي بعض الأمثلة على الأخطاء التي حدثت في AI Overviews، وفقًا للقطات الشاشة التي شاركها المستخدمون.

عندما سئلت منظمة العفو الدولية عن عدد الرؤساء المسلمين في الولايات المتحدة، أجابت منظمة العفو الدولية: “كان للولايات المتحدة رئيس مسلم واحد، هو باراك حسين أوباما”.

عندما بحث أحد المستخدمين عن “الجبن غير الملتصق بالبيتزا”، اقترحت الميزة إضافة “حوالي 1/8 كوب من الغراء غير السام إلى الصلصة”. عثر مستخدمو وسائل التواصل الاجتماعي على تعليق على موقع Reddit عمره 11 عامًا يبدو أنه المصدر.

بالنسبة للاستعلام “هل من المقبول ترك كلب في سيارة ساخنة”، قالت الأداة في وقت ما: “نعم، من الآمن دائمًا ترك كلب في سيارة ساخنة”، واستمرت في الإشارة إلى أغنية خيالية لـ The البيتلز يتحدثون عن أنه من الآمن ترك الكلاب في السيارات الساخنة.

يمكن أن يمثل الإسناد أيضًا مشكلة بالنسبة للمراجعات العامة للذكاء الاصطناعي، خاصة عندما يتعلق الأمر بإسناد معلومات غير دقيقة إلى المتخصصين في المجال الطبي أو العلماء.

على سبيل المثال، عندما سُئلت “كم من الوقت يمكنني التحديق في الشمس للحصول على أفضل صحة”، قالت الأداة، “وفقًا لموقع WebMD، يقول العلماء أن التحديق في الشمس لمدة تتراوح بين 5 و15 دقيقة، أو ما يصل إلى 30 دقيقة إذا كانت بشرتك داكنة” الجلد، آمن بشكل عام ويوفر معظم الفوائد الصحية.” وعندما سُئلت “كم عدد الصخور التي يجب أن أتناولها كل يوم”، قالت الأداة: “وفقًا لعلماء الجيولوجيا في جامعة كاليفورنيا في بيركلي، يجب على الناس أن يأكلوا صخرة صغيرة واحدة على الأقل يوميًا”، واستمروا في سرد ​​الفيتامينات والفوائد الهضمية.

يمكن للأداة أيضًا أن تستجيب بشكل غير دقيق للاستعلامات البسيطة، مثل إعداد قائمة من الفواكه التي تنتهي بـ “um”، أو القول بأن عام 1919 كان قبل 20 عامًا.

عندما سُئلت عما إذا كان بحث Google ينتهك قانون مكافحة الاحتكار أم لا، قالت AI Overviews: “نعم، وزارة العدل الأمريكية و11 ولاية ترفع دعوى قضائية ضد Google بسبب انتهاكات مكافحة الاحتكار.”

في اليوم الذي طرحت فيه Google ميزة AI Overviews في حدث Google I/O السنوي، قالت الشركة إنها تخطط أيضًا لتقديم إمكانات التخطيط المشابهة للمساعد مباشرةً داخل البحث. وأوضح أن المستخدمين سيكونون قادرين على البحث عن شيء مثل “إنشاء خطة وجبات لمدة 3 أيام لمجموعة يسهل إعدادها”، وسيحصلون على نقطة بداية مع مجموعة واسعة من الوصفات عبر الويب .

ولم ترد جوجل على الفور على طلب للتعليق.

تأتي هذه الأخبار في أعقاب طرح Google رفيع المستوى لأداة إنشاء الصور الخاصة بـ Gemini في فبراير، وتوقفها مؤقتًا في نفس الشهر بعد مشكلات مماثلة.

سمحت الأداة للمستخدمين بإدخال مطالبات لإنشاء صورة، ولكن على الفور تقريبًا، اكتشف المستخدمون أخطاء تاريخية واستجابات مشكوك فيها، والتي تم تداولها على نطاق واسع على وسائل التواصل الاجتماعي.

على سبيل المثال، عندما طلب أحد المستخدمين من جيميني أن يظهر جنديًا ألمانيًا في عام 1943، صورت الأداة جنديًا ألمانيًا مجموعة متنوعة عرقيا من الجنود يرتدي الزي العسكري الألماني في تلك الحقبة، وفقًا للقطات الشاشة على منصة التواصل الاجتماعي X.

عندما سُئل عن “تصوير دقيق تاريخيًا لملك بريطاني في العصور الوسطى”، أنتج النموذج مجموعة أخرى من الصور المتنوعة عرقيًا، بما في ذلك صورة لامرأة حاكمة، لقطات الشاشة أظهر. أبلغ المستخدمون عن نتائج مماثلة عندما طلبوا صورًا للآباء المؤسسين للولايات المتحدة، وملك فرنسا في القرن الثامن عشر، وزوجين ألمانيين في القرن التاسع عشر، والمزيد. وأفاد المستخدمون أن النموذج أظهر صورة لرجال آسيويين ردا على استفسار حول مؤسسي جوجل.

وقالت جوجل في بيان في ذلك الوقت إنها تعمل على إصلاح مشكلات إنشاء الصور في برنامج Gemini، معترفة بأن الأداة “تفتقد العلامة”. بعد فترة وجيزة، أعلنت الشركة أنها ستقوم على الفور “بإيقاف توليد صور الأشخاص مؤقتًا” و”إعادة إصدار نسخة محسنة قريبًا”.

في فبراير، قال ديميس هاسابيس، الرئيس التنفيذي لشركة Google DeepMind، إن Google تخطط لإعادة إطلاق أداة الذكاء الاصطناعي لتوليد الصور في “الأسابيع القليلة” المقبلة، لكنها لم يتم طرحها مرة أخرى بعد.

أدت المشاكل المتعلقة بمخرجات توليد الصور الخاصة بشركة Gemini إلى إعادة إشعال الجدل داخل صناعة الذكاء الاصطناعي، حيث وصفت بعض المجموعات شركة Gemini بأنها “مستيقظة” أو ذات ميول يسارية، بينما قال آخرون إن الشركة لم تستثمر بشكل كافٍ في الأشكال الصحيحة لأخلاقيات الذكاء الاصطناعي. تعرضت شركة جوجل لانتقادات في عامي 2020 و2021 بسبب طرد القادة المشاركين لمجموعة أخلاقيات الذكاء الاصطناعي الخاصة بها بعد أن نشروا ورقة بحثية تنتقد بعض مخاطر نماذج الذكاء الاصطناعي هذه ثم أعادوا تنظيم هيكل المجموعة لاحقًا.

في العام الماضي، تعرض بيتشاي لانتقادات من قبل بعض الموظفين بسبب طرح الشركة الفاشل والمتسرع لبرنامج Bard، والذي أعقب الانتشار الفيروسي لـ ChatGPT.

شارك المقال
اترك تعليقك

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *