مايكروسوفت وجوجل وأمازون وأقرانهم في مجال التكنولوجيا يوقعون اتفاقية لمكافحة المعلومات الخاطئة المتعلقة بالانتخابات

فريق التحرير
كتب فريق التحرير 5 دقيقة للقراءة

أعلنت مجموعة من 20 شركة تكنولوجية رائدة يوم الجمعة عن التزام مشترك بمكافحة المعلومات المضللة المتعلقة بالذكاء الاصطناعي في انتخابات هذا العام.

تستهدف الصناعة على وجه التحديد التزييف العميق، الذي يمكن أن يستخدم الصوت والفيديو والصور الخادعة لتقليد أصحاب المصلحة الرئيسيين في الانتخابات الديمقراطية أو لتقديم معلومات تصويت كاذبة.

مايكروسوفت, ميتا, جوجل, أمازون, آي بي إم, أدوبي ومصمم الرقائق ذراع وقع الجميع على الاتفاق. وانضمت أيضًا شركات الذكاء الاصطناعي الناشئة OpenAI وAnthropic وStability AI إلى المجموعة، إلى جانب شركات التواصل الاجتماعي مثل فرقعةوتيك توك وإكس.

تستعد منصات التكنولوجيا لعام ضخم من الانتخابات في جميع أنحاء العالم والتي تؤثر على ما يصل إلى أربعة مليارات شخص في أكثر من 40 دولة. أدى ظهور المحتوى الناتج عن الذكاء الاصطناعي إلى مخاوف خطيرة بشأن المعلومات المضللة المتعلقة بالانتخابات، مع زيادة عدد التزييف العميق الذي تم إنشاؤه بنسبة 900% على أساس سنوي، وفقًا لبيانات من شركة Clarity للتعلم الآلي.

كانت المعلومات المضللة في الانتخابات مشكلة كبيرة يعود تاريخها إلى الحملة الرئاسية لعام 2016، عندما وجد الممثلون الروس طرقًا رخيصة وسهلة لنشر محتوى غير دقيق عبر منصات التواصل الاجتماعي. ويشعر المشرعون اليوم بقلق أكبر إزاء الصعود السريع للذكاء الاصطناعي.

وقال جوش بيكر، السيناتور الديمقراطي عن ولاية كاليفورنيا، في مقابلة: “هناك سبب للقلق الشديد بشأن كيفية استخدام الذكاء الاصطناعي لتضليل الناخبين في الحملات الانتخابية”. “من المشجع أن نرى بعض الشركات تجلس على طاولة المفاوضات، لكن في الوقت الحالي لا أرى ما يكفي من التفاصيل، لذلك سنحتاج على الأرجح إلى تشريع يضع معايير واضحة”.

وفي الوقت نفسه، لم تتقدم تقنيات الكشف والعلامة المائية المستخدمة لتحديد التزييف العميق بالسرعة الكافية لمواكبة ذلك. في الوقت الحالي، تتفق الشركات فقط على ما يرقى إلى مجموعة من المعايير الفنية وآليات الكشف.

ولا يزال أمامهم طريق طويل ليقطعوه لمكافحة المشكلة ذات الطبقات العديدة بشكل فعال. لقد ثبت أن الخدمات التي تدعي تحديد النصوص التي تم إنشاؤها بواسطة الذكاء الاصطناعي، مثل المقالات، على سبيل المثال، تظهر تحيزًا ضد المتحدثين باللغة الإنجليزية غير الأصليين. وليس الأمر أسهل بكثير بالنسبة للصور ومقاطع الفيديو.

حتى لو وافقت المنصات التي تقف وراء الصور ومقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي على دمج أشياء مثل العلامات المائية غير المرئية وأنواع معينة من البيانات الوصفية، فهناك طرق للالتفاف حول تلك التدابير الوقائية. يمكن أن يؤدي التقاط لقطة الشاشة في بعض الأحيان إلى خداع الكاشف.

بالإضافة إلى ذلك، فإن الإشارات غير المرئية التي تدرجها بعض الشركات في الصور التي ينشئها الذكاء الاصطناعي لم تصل بعد إلى العديد من مولدات الصوت والفيديو.

وتأتي أخبار الاتفاق بعد يوم واحد من إعلان شركة OpenAI، منشئ ChatGPT، عن Sora، نموذجها الجديد للفيديو المولد بواسطة الذكاء الاصطناعي. يعمل Sora بشكل مشابه لأداة الذكاء الاصطناعي لإنشاء الصور من OpenAI، DALL-E. يقوم المستخدم بكتابة المشهد المطلوب وسيقوم Sora بإرجاع مقطع فيديو عالي الدقة. يستطيع Sora أيضًا إنشاء مقاطع فيديو مستوحاة من الصور الثابتة، وتوسيع مقاطع الفيديو الموجودة أو ملء الإطارات المفقودة.

وافقت الشركات المشاركة في الاتفاق على ثمانية التزامات رفيعة المستوى، بما في ذلك تقييم المخاطر النموذجية، و”السعي لاكتشاف” ومعالجة توزيع هذا المحتوى على منصاتها وتوفير الشفافية في تلك العمليات للجمهور. كما هو الحال مع معظم الالتزامات الطوعية في صناعة التكنولوجيا وخارجها، حدد الإصدار أن الالتزامات تنطبق فقط “عندما تكون ذات صلة بالخدمات التي تقدمها كل شركة”.

وقال كينت ووكر، رئيس الشؤون العالمية في جوجل، في بيان له: “الديمقراطية تعتمد على انتخابات آمنة ومأمونة”. وقال إن الاتفاق يعكس جهود الصناعة للتعامل مع “المعلومات الخاطئة المتعلقة بالانتخابات الصادرة عن الذكاء الاصطناعي والتي تؤدي إلى تآكل الثقة”.

وقالت كريستينا مونتغمري، كبيرة مسؤولي الخصوصية والثقة في شركة IBM، في البيان إنه في هذا العام الانتخابي الرئيسي، “هناك حاجة إلى تدابير تعاونية ملموسة لحماية الناس والمجتمعات من المخاطر المتضخمة للمحتوى المخادع الناتج عن الذكاء الاصطناعي”.

يشاهد: OpenAI تكشف النقاب عن Sora

شارك المقال
اترك تعليقك

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *