مع استعداد أكثر من نصف سكان العالم للتصويت في الانتخابات حول العالم هذا العام، يشعر قادة التكنولوجيا والمشرعون وجماعات المجتمع المدني بقلق متزايد من أن الذكاء الاصطناعي يمكن أن يسبب الارتباك والفوضى للناخبين. والآن، تقول مجموعة من شركات التكنولوجيا الرائدة إنها تتعاون لمواجهة هذا التهديد.
تعهدت أكثر من اثنتي عشرة شركة تقنية تشارك في بناء أو استخدام تقنيات الذكاء الاصطناعي، يوم الجمعة، بالعمل معًا لاكتشاف ومكافحة محتوى الذكاء الاصطناعي الضار في الانتخابات، بما في ذلك التزييف العميق للمرشحين السياسيين. يشمل الموقعون OpenAI وGoogle وMeta وMicrosoft وTikTok وAdobe وغيرها.
تتضمن الاتفاقية، التي تسمى “الاتفاق الفني لمكافحة الاستخدام الخادع للذكاء الاصطناعي في انتخابات 2024″، التزامات بالتعاون في مجال التكنولوجيا لاكتشاف المحتوى المضلل الناتج عن الذكاء الاصطناعي والتحلي بالشفافية مع الجمهور بشأن الجهود المبذولة لمعالجة محتوى الذكاء الاصطناعي الذي قد يكون ضارًا.
وقال رئيس مايكروسوفت براد سميث في بيان في مؤتمر ميونيخ للأمن يوم الجمعة: “لم يخلق الذكاء الاصطناعي خداعًا انتخابيًا، لكن يجب علينا التأكد من أنه لا يساعد في ازدهار الخداع”.
تتمتع شركات التكنولوجيا بشكل عام بسجل أقل من ممتاز فيما يتعلق بالتنظيم الذاتي وإنفاذ سياساتها الخاصة. لكن الاتفاق يأتي في الوقت الذي تستمر فيه الهيئات التنظيمية في التخلف عن إنشاء حواجز حماية لتقنيات الذكاء الاصطناعي سريعة التقدم.
توفر مجموعة جديدة ومتنامية من أدوات الذكاء الاصطناعي القدرة على إنشاء نصوص وصور واقعية مقنعة بسرعة وسهولة – وعلى نحو متزايد، مقاطع الفيديو والصوت التي يقول الخبراء إنه يمكن استخدامها لنشر معلومات كاذبة لتضليل الناخبين. ويأتي الإعلان عن الاتفاقية بعد أن كشفت OpenAI يوم الخميس عن أداة جديدة واقعية بشكل مذهل لتحويل النص إلى فيديو تعمل بالذكاء الاصطناعي تسمى Sora.
قال سام ألتمان، الرئيس التنفيذي لشركة OpenAI، أمام الكونجرس في جلسة استماع في شهر مايو/أيار، حث خلالها المشرعين على تنظيم الذكاء الاصطناعي: “إن أسوأ مخاوفي هي أننا نتسبب في ضرر كبير للعالم، نحن، المجال، والتكنولوجيا، والصناعة.
وقد عقدت بعض الشركات شراكة بالفعل لتطوير معايير الصناعة لإضافة البيانات الوصفية إلى الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي والتي من شأنها أن تسمح لأنظمة الشركات الأخرى باكتشاف أن الصور تم إنشاؤها بواسطة الكمبيوتر تلقائيًا.
يأخذ اتفاق يوم الجمعة تلك الجهود المشتركة بين الصناعات خطوة أخرى إلى الأمام – حيث يتعهد الموقعون بالعمل معًا في جهود مثل إيجاد طرق لربط إشارات يمكن قراءتها آليًا بأجزاء من المحتوى الناتج عن الذكاء الاصطناعي والتي تشير إلى مكان نشأتها وتقييم نماذج الذكاء الاصطناعي الخاصة بها لمعرفة مخاطرها. إنشاء محتوى ذكاء اصطناعي خادع ومتعلق بالانتخابات.
وقالت الشركتان أيضًا إنهما ستعملان معًا في حملات تثقيفية لتعليم الجمهور كيفية “حماية أنفسهم من التلاعب أو الخداع بهذا المحتوى”.
ومع ذلك، فإن بعض جماعات المجتمع المدني تشعر بالقلق من أن التعهد لا يذهب إلى المدى الكافي.
وقالت نورا بينافيديز، كبيرة المستشارين ومديرة العدالة الرقمية والحقوق المدنية في منظمة فري برس لمراقبة التكنولوجيا والإعلام، في بيان: “إن الوعود الطوعية مثل تلك التي تم الإعلان عنها اليوم ليست جيدة بما يكفي لمواجهة التحديات العالمية التي تواجه الديمقراطية”. “في كل دورة انتخابية، تتعهد شركات التكنولوجيا بمجموعة غامضة من المعايير الديمقراطية ثم تفشل في الوفاء بهذه الوعود بشكل كامل. ولمعالجة الأضرار الحقيقية التي يشكلها الذكاء الاصطناعي في عام انتخابي مزدحم … نحن بحاجة إلى إشراف قوي على المحتوى يتضمن المراجعة البشرية ووضع العلامات والتنفيذ.