تضع OpenAI قواعد لمكافحة المعلومات الخاطئة المتعلقة بالانتخابات. لقد تم تجربتها من قبل

فريق التحرير
كتب فريق التحرير 4 دقيقة للقراءة

مع تصاعد المخاوف بشأن الاضطراب الذي قد يسببه الذكاء الاصطناعي في انتخابات 2024، أعلنت شركة OpenAI يوم الاثنين أنه لا يُسمح للسياسيين وحملاتهم باستخدام أدوات الذكاء الاصطناعي الخاصة بالشركة.

تمتد القيود أيضًا إلى انتحال الشخصية. وقالت OpenAI في تدوينة، إنه بموجب سياساتها، لا يجوز للمستخدمين إنشاء روبوتات دردشة تتظاهر بأنهم مرشحين سياسيين أو وكالات حكومية ومسؤولين، مثل وزراء الخارجية الذين يديرون الانتخابات الأمريكية.

يُظهر هذا الإعلان كيف تحاول OpenAI استباق الانتقادات القائلة بأن الذكاء الاصطناعي – الذي تم استخدامه بالفعل في هذه الدورة الانتخابية لنشر صور مزيفة – يمكن أن يقوض العملية الديمقراطية من خلال المعلومات المضللة التي يتم إنشاؤها بواسطة الكمبيوتر.

تعكس سياسات OpenAI تلك التي تنفذها منصات التكنولوجيا الكبيرة الأخرى. ولكن حتى شركات وسائل التواصل الاجتماعي الأكبر كثيرا من أوبن إيه آي، والتي تكرس فرقا ضخمة لنزاهة الانتخابات والإشراف على المحتوى، غالبا ما أظهرت أنها تناضل من أجل فرض قواعدها الخاصة. ومن المرجح ألا يكون نظام OpenAI مختلفًا، كما أن الافتقار إلى التنظيم الفيدرالي يجبر الجمهور على مجرد تصديق الشركات بكلمتها.

تظهر ببطء مجموعة من السياسات المرقعة بين منصات شركات التكنولوجيا الكبرى عندما يتعلق الأمر بما يسمى “التزييف العميق”، أو المحتوى المضلل الذي أنشأه الذكاء الاصطناعي التوليدي.

وقالت ميتا العام الماضي إنها ستمنع الحملات السياسية من استخدام أدوات الذكاء الاصطناعي التوليدية في إعلاناتها وتطلب من السياسيين الكشف عن استخدام أي ذكاء اصطناعي في إعلاناتهم. وأعلن يوتيوب أنه سيطلب من جميع منشئي المحتوى الكشف عما إذا كانت مقاطع الفيديو الخاصة بهم تحتوي على وسائط “واقعية” ولكن تم التلاعب بها، بما في ذلك من خلال استخدام الذكاء الاصطناعي.

تؤكد المجموعات المختلفة من القواعد، التي تغطي أنواعًا مختلفة من منشئي المحتوى في ظل سيناريوهات مختلفة، على أنه لا يوجد معيار موحد يحكم كيفية استخدام الذكاء الاصطناعي في السياسة.

تدرس لجنة الانتخابات الفيدرالية حاليًا ما إذا كانت اللوائح الأمريكية ضد “تحريف تمثيل المرشحين أو الأحزاب السياسية الأخرى عن طريق الاحتيال” تمتد إلى المحتوى الناتج عن الذكاء الاصطناعي، لكنها لم تصدر بعد قرارًا بشأن هذه المسألة.

وفي الكونجرس، اقترح بعض المشرعين فرض حظر وطني على الاستخدام الخادع للذكاء الاصطناعي في جميع الحملات السياسية، لكن هذا التشريع لم يتقدم. وفي مسعى منفصل لإنشاء حواجز حماية للذكاء الاصطناعي، قال زعيم الأغلبية في مجلس الشيوخ تشاك شومر إن الذكاء الاصطناعي في الانتخابات يمثل أولوية ملحة، لكنه قضى معظم العام الماضي في عقد جلسات إحاطة مغلقة لحث أعضاء مجلس الشيوخ على تسريع وتيرة التكنولوجيا استعدادًا لسن القوانين.

أدى الافتقار إلى الوضوح المحيط بتنظيم التزييف العميق للذكاء الاصطناعي إلى تدافع بعض مسؤولي الحملة. على سبيل المثال، تعمل حملة إعادة انتخاب الرئيس جو بايدن على تطوير دليل قانوني لكيفية الرد على وسائل الإعلام الملفقة.

وقال أربيت جارج، نائب المستشار العام لحملة بايدن: “الفكرة هي أنه سيكون لدينا ما يكفي في جعبتنا، اعتمادًا على الوضع الافتراضي الذي نتعامل معه، يمكننا سحب قطع مختلفة للتعامل مع المواقف المختلفة”. صرح سابقًا لشبكة CNN، مضيفًا أن الحملة تهدف إلى أن يكون لديها “نماذج ومسودات مرافعات جاهزة” يمكن تقديمها في المحاكم الأمريكية أو حتى مع الجهات التنظيمية خارج البلاد لمكافحة الجهات الأجنبية المضللة.

تسلط الجهود مثل حملة بايدن الضوء على أنه على الرغم من ادعاء منصات التكنولوجيا أنها مستعدة لتأثير الذكاء الاصطناعي على الانتخابات، إلا أن هناك القليل من الثقة في أن الشركات قادرة تمامًا على المتابعة.

شارك المقال
اترك تعليقك

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *