يحدث الذكاء الاصطناعي تحوّلاً تدريجياً في حياة الناس اليومية، إذ يُسهّل المهام البسيطة أو المعقدة، لكنّ الأحكام البشرية المسبقة تكثر في الكمّ الكبير من المعلومات التي يقوم عليها، مما ينذر بانتقال عدوى التمييز إلى العقل الآلي، فهل يمكن جعلُه محايداً؟
في رأي الخبراء الذين تحدثوا لوكالة فرانس برس فإن هذا الأمر غير ممكن في الوقت الراهن، ملخصّين وجهة نظرهم بأن “الخميرة لا يمكن أن تُزال من قالب الحلوى بعد خَبزِه”.
وهذا الاستنتاج يصحّ خصوصاً على الذكاء الاصطناعي التوليدي، إذ أن برامجه تنهل معلوماتها من الإنترنت، فتتغذى من المواقع الإلكترونية وشبكات التواصل الاجتماعي ومقاطع الفيديو، وسوى ذلك، لتُنتِج في المقابل كل أنواع المحتوى، على الطلب.
إلاّ أن الانطباع الذي تتركه قدرات الذكاء الاصطناعي التوليدي قد يكون خادعاً، إذ أن برامجه على غرار “تشات جي بي تي” تبقى مجرّد آلات قائمة على منطق الرياضيات، تتنبأ بالكلمات أو وحدات البكسل الأكثر احتمالاً واحدة تلو الأخرى.
وقال مدير المنتجات في شركة “المبيك” الناشئة للذكاء الاصطناعي جايدن زيغلر إن النماذج اللغوية لبرامج الذكاء الاصطناعي التوليدي “لا تُدرك ما تعرفه، أو لماذا تعرفه”. وشرح أنها “لا تستطيع تمييز ما هو متحيز أم لا، وما يتسم بالشمول أم لا، لذلك لا يمكنها فعل أي شيء حيال ذلك”.
وفي غياب الإعدادات الإضافية، إذا طلب المستخدم صورة لمدير شركة، يحصل على صور لرجال بيض أربعينيين يرتدون بدلات.
ولاحظ جوشوا ويفر الذي يدير منظمات غير حكومية في تكساس تُعنى بحقوق الإنسان في القضاء أن “هذه النماذج بمثابة مرايا لتاريخ البشر وثقافتهم”. وأكّد أنها “لن تتوصل إلى نتائج تختلف جوهرياً عن المعلومات المخزّنة”.
“المُرشِّح الاجتماعي”
ورأى هذا المحامي أن الخطر يتمثل في انتقال أحكام البشر المسبقة إلى برامج الذكاء الاصطناعي “الذي يعزز بدوره أفكارهم المسبقة”، واصفاً هذا الوضع بـ”حلقة جهنمية”.
وتبدو الحلول التكنولوجية لهذا الخطر محدودة، إذ أن إعادة التدريب الكاملة لبرامج الذكاء الاصطناعي التوليدي التأسيسية وتلقينها بيانات غير متحيزة ستستغرق وقتاً طويلاً، وترتّب تكلفة باهظة، ولا توجد أصلاً مجموعة محددة من المعلومات “المحايدة”.
من هذا المنطلق، تحاول الشركات “مواءمة” نماذج الذكاء الاصطناعي مع القيم المنشودة، من خلال فرض القواعد عليها. وبالتالي، توقفت معظم برامج الدردشة الآلية عن التعبير عن المشاعر التي لا تتمتع بها، واصبحت تنتج نتائج أكثر تنوعاً.
وقال المؤسِس المشارك لشركة “ألمبيك” توماس بويغ “نضع لهذه النماذج مُرشِّحات اجتماعية” فتصبح أشبه “بالأشخاص ذوي الآراء الحادّة الذين تعلموا ألا يجاهروا بما يفكرون فيه”.
ولكن تبيّن في فبراير الفائت أن ثغرات ونقاط ضعف تشوب طريقة “الفلاتر”، عندما استجاب برنامج الذكاء الاصطناعي التوليدي “جيميناي” (من “غوغل”) طلبات لإدراج رجل أسود وامرأة آسيوية ضمن صور عن جنود ألمان من الحرب العالمية الثانية.
وتحت ضغط المنافسة، تستعجل شركات التكنولوجيا العملاقة ابتكار أدوات مساعدة قائمة على الذكاء الاصطناعي وتوفيرها للمستخدمين بسرعة كبيرة.
ولاحظت الباحثة في منصة الذكاء الاصطناعي التعاونية “هاغينغ فايس”، ساشا لوتشيوني، إن هذه الشركات ترغب كثيراً في أن تكون قادرة على مَحو ما تعلمته النماذج اللغوية آلياً.
لكنها اعتبرت أن “السعي إلى أيجاد حل تكنولوجي هو خيار في الاتجاه الخاطئ”.
“علاج”
وشدّد جوشوا ويفر على أن الأكثر إلحاحاً هو تثقيف البشر في شأن هذه الأدوات الجديدة، وهي آلات توحي أن لديها وعياً. وتمنى لو يتوافر “القليل من الفطرة السليمة”.
ونصح بالحرص على التنوّع في فرق المهندسين المسؤولين عن هذه البرامج، إذ غالباً ما يكون أعضاؤها شديدي التجانس، من الشباب المنتمين إلى خلفيات متشابهة، وليس بينهم الكثير من وجهات النظر المختلفة”.
ومع أن “تشات جي بي تي” أظهر خلال أحدث عرض توضيحي للشركة التي صممته “أوبن إيه آي” قدرة على “قراءة” مشاعر مستخدميه على وجوههم، يبقى السؤال هل سيكون في وسعه تفسير تعابير وجوه الأشخاص المنتمين إلى كل الثقافات بشكل صحيح؟
إلاّ أن الخبراء ذكّروا بأن الذكاء الاصطناعي التوليدي لا يزال في مراحله الأولى. وتستكشف شركات ناشئة عدة طرقاً مختلفة.
فشركة “بينيكون” مثلاً تخصصت في “التوليد المعزز بالاسترداد” أو ما يُعرف اختصاراً بـ”راغ” RAG، وهو عبارة عن إنشاء قواعد بيانات موثوق بها ومضبوطة بصرامة، تغرف منها أداة المساعدة القائمة على الذكاء الاصطناعي العناصر.
وأعطى كبير مسؤولي التكنولوجيا في الشركة، رام سريهارشا، مثالا تطبيقاً في إحدى شركات المحاماة: “أداة المساعدة القائمة على الذكاء الاصطناعي – نموذج اللغة – خبيرة في اللغة الإنكليزية، وليس في القانون. فلنتخيل لو كان يستطيع الوصول إلى محامٍ يعرف كل الملفات. سيتمكن في هذه الحالة من الإجابة عن أي سؤال قانوني!”.
على المدى البعيد، يأمل المهندسون في أن يتيحوا للآلات القدرة على أن تقدّر عواقب سلوكها.
وقال جايدن زيغلر “في الوقت الراهن، هي مجرّد صناديق سوداء لا يمكن فهمها (…) ولكن ربما يمكننا في المستقبل تصميم مستوى أعلى يستطيع فيه النموذج فرز المعلومات الجيدة من تلك السيئة، مع نظام مكافآت”.
وقال توماس بويغ مازحاً “باختصار، ستتمكن نماذج الذكاء الاصطناعي من الخضوع للعلاج”.