بين التلاعب والشفافية.. هل يغير الذكاء الاصطناعي مسار الانتخابات الأميركية؟

فريق التحرير
كتب فريق التحرير 17 دقيقة للقراءة

تقرع الانتخابات الأميركية طبولها، وتشتعل المنافسة بين المرشحين في صراع محموم للفوز بكرسي البيت الأبيض مطبخ القرار الأميركي، والذي أصبح يتطلب مع الثورة التكنولوجية أكثر من مجرد خطاب سياسي، بل إستراتيجية متقدمة تعتمد على الذكاء الاصطناعي كواجهة للسوق الدعائي.

وعلى الرغم من فوائد التقدم التكنولوجي السريع، يثير شبح الذكاء الاصطناعي الذعر في مسار الانتخابات، حيث تتجلى مخاطر التلاعب ونشر المعلومات المضللة بشكل يهدد نزاهة العملية الانتخابية، وهو ما يولد قلقا حقيقيا بشأن الديمقراطية الأميركية.

هل المخاوف بشأن تهديدات الذكاء الاصطناعي لنزاهة الانتخابات مبررة أم مبالغ فيها؟

في وقت مبكر من هذا العام، حذر المراقبون والتقنيون من أن الذكاء الاصطناعي يمكن أن يسبب الفوضى في الانتخابات الأميركية لعام 2024، وذلك من خلال نشر المعلومات المضللة عبر الصور المزيفة والإعلانات السياسية المخصصة.

وقد انتشرت هذه المخاوف بين الجمهور، حيث أظهر استطلاع رأي حديث من مؤسسة “بيو” (Pew Research Center) أن 39% يقولون إن الذكاء الاصطناعي سيستخدم على الأغلب لأغراض سيئة خلال الحملة الرئاسية، مقارنة بـ5% فقط قالوا إنه سيتم استخدامه غالبا لأغراض جيدة. وقال 27% آخرون إنه سيتم استخدامه على قدم المساواة بين الخير والشر.

وتقول أغلبية 57% من البالغين في الولايات المتحدة -بما في ذلك حصص متطابقة تقريبا من الجمهوريين والديمقراطيين- إنهم “قلقون للغاية أو قلقون جدا” من أن الأشخاص أو المنظمات التي تسعى للتأثير على الانتخابات ستستخدم الذكاء الاصطناعي لإنشاء وتوزيع معلومات مزيفة أو مضللة حول المرشحين والحملات.

ومع بدء العدّ التنازلي ليومين يفصلاننا عن موعد الانتخابات الأميركية، يبدو أن المخاوف من أن يتمّ إفساد الانتخابات أو تحديدها بواسطة الذكاء الاصطناعي قد كانت مبالغا فيها.

حيث كتبت مجتمع الاستخبارات الأميركية (U.S Intelligence Community) في شهر سبتمبر/أيلول الماضي أنه بينما كانت الجهات الأجنبية مثل روسيا تستخدم الذكاء الاصطناعي التوليدي لتحسين وتسريع محاولاتها للتأثير على الناخبين، فإن هذه الأدوات لم تحدث ثورة في مثل هذه العمليات.

وفي سياق مماثل، يعترف المطلعون على التكنولوجيا أن عام 2024 لم يكن عاما متميزا في استخدام الذكاء الاصطناعي التوليدي في السياسة، إذ تقول بيتسي هوفر مؤسسة مختبرات “هايير غراوند” (Higher Ground Labs)، وهي صندوق استثماري يستثمر في تكنولوجيا السياسية، “هناك الكثير من الحملات والمنظمات التي تستخدم الذكاء الاصطناعي بطريقة أو بأخرى. لكن برأيي لم تصل إلى مستوى التأثير الذي توقعه الناس أو خافوا منه”.

من جهة أخرى، ووفقا لتقرير صادر عن مجلة “تايم” (TIME) الأميركية، يحذر الباحثون من أن تأثيرات الذكاء الاصطناعي التوليدي على هذه الدورة الانتخابية لم تُفهم بعد، خاصة بسبب استخدامها على منصات المراسلة الخاصة.

وأكدوا أنه حتى لو بدا تأثير الذكاء الاصطناعي على هذه الحملة غير ملحوظ، فمن المحتمل أن يتضخم في الانتخابات القادمة مع تحسن التكنولوجيا وزيادة استخدامها بين الجمهور العام والعاملين في السياسة.

ويقول سوني غاندي -نائب رئيس الشؤون السياسية في “إنكود جاستس” (Encode Justice)- “أنا متأكد أنه في سنة أو سنتين ستتحسن نماذج الذكاء الاصطناعي”. وأضاف “أنا قلق جدا بشأن كيف ستبدو الأمور في عام 2026 وبالتأكيد في عام 2028”.

وفي وقت مبكر من هذا العام، أنشأ مجموعة من الباحثين في جامعة “بوردو” (Purdue) مشروع قاعدة بيانات للحوادث المتعلقة بالتزييف العميق السياسي، والتي سجلت منذ ذلك الحين أكثر من 500 حادثة.

ومن المثير للدهشة، أن الغالبية العظمى من تلك الفيديوهات لم تصنع لخداع الناس، بل هي في الغالب سخرية، أو تعليم، أو تعليق سياسي، كما تقول الباحثة في المشروع كريستينا ووكر.

وبحسب ووكر، فإن معاني هذه الفيديوهات للمشاهدين غالبا ما تتغير مع انتشارها عبر دوائر سياسية مختلفة، حيث قالت “ينشر شخص ما تزييفا عميقا ويكتب ‘هذا تزييف عميق أنشأته لإظهار إيكس ويو وزاد’. وبعد 20 إعادة تغريد يشاركه شخص آخر كما لو كان حقيقيا”.

ويقول دانييل شيف، باحث آخر في المشروع، إن العديد من التزييفات العميقة من المحتمل أن تكون مصممة لتعزيز آراء الأشخاص الذين كانوا بالفعل يميلون للاعتقاد برسائلها.

وأفادت شركة ميتا في أغسطس/آب أن التكتيكات المدفوعة بالذكاء الاصطناعي التوليدي قد قدمت فقط مكاسب طفيفة في الإنتاجية وتوليد المحتوى للتأثير على الحملات، وخلصت إلى أن إستراتيجيات صناعة التكنولوجيا للتقليل من انتشارها تبدو فعالة في الوقت الحالي.

وفي السياق نفسه، يبدو أن الباحثين غير واثقين من مدى تأثير الذكاء الاصطناعي على العملية الانتخابية، حيث قالت ميا هوفمان، زميلة بحث في مركز الأمن والتكنولوجيا الناشئة بجامعة جورجتاون (Georgetown’s Center for Security and Emerging Technology)، إنه من الصعب تحديد تأثير الذكاء الاصطناعي على الناخبين لعدة أسباب، أحدها هو أن الشركات التكنولوجية الكبرى قد حدّت من كمية البيانات التي تشاركها حول المنشورات.

حيث أنهت شركة “إيكس” الوصول المجاني إلى واجهة برمجة التطبيقات الخاصة بها، وأغلقت ميتا مؤخرا خدمة “كراودتانجل” (Crowd tangle) على فيسبوك وإنستغرام، وهو ما يجعل من الصعب على الباحثين تتبع خطاب الكراهية والمعلومات المضللة عبر تلك المنصات.

وتقول هوفمان “نحن تحت رحمة ما تشاركه هذه الشركات معنا”.

وتشعر هوفمان بالقلق من أن المعلومات المضللة التي يتم إنشاؤها بواسطة الذكاء الاصطناعي تتزايد على منصات المراسلة المغلقة مثل واتساب، التي تحظى بشعبية خاصة بين المجتمعات المهاجرة في الولايات المتحدة.

وتقول إنه من الممكن أن تكون هناك جهود قوية للذكاء الاصطناعي تستخدم للتأثير على الناخبين في الولايات المتأرجحة، ولكن من الصعب معرفة فعاليتها إلا بعد الانتخابات.

وتضيف “مع تزايد الأهمية الانتخابية لهذه المجموعات، يتم استهدافها بشكل متزايد بحملات تأثير مخصصة تهدف إلى تقليل أصواتهم وتغيير آرائهم. وبسبب تشفير التطبيقات، فإن المعلومات المضللة تكون أكثر خفاء عن جهود التحقق من الحقائق”.

تصاعد عمليات التزييف العميق السياسي

تقول مجلة “تايم” (TIME) الأميركية إن الذكاء الاصطناعي كان له تأثير واضح على السياسة العالمية، فمثلا في دول جنوب آسيا استخدم المرشحون الذكاء الاصطناعي لإغراق الجمهور بمقالات وصور ومقاطع فيديو مزيفة.

وفي فبراير/شباط تم نشر مقطع فيديو مزيف يظهر عمدة لندن صادق خان وهو يدلي بتعليقات تحريضية قبل مسيرة كبيرة مؤيدة لفلسطين، وقال خان وقتها إن المقطع الصوتي أشعل اشتباكات عنيفة بين المتظاهرين المؤيدين والمتظاهرين المعارضين.

ونذكر العملية التي حدثت في الولايات المتحدة أيضا في شهر فبراير/شباط، حيث تلقى سكان نيوهامشير رسائل صوتية مزيفة للرئيس الأميركي جو بايدن وهو يحثهم على عدم التصويت، وقامت لجنة الاتصالات الفدرالية بسرعة بحظر المكالمات الآلية التي تحتوي على أصوات مولدة بالذكاء الاصطناعي.

وتم توجيه اتهامات جنائية للمستشار السياسي الديمقراطي الذي أنشأ الرسائل الصوتية، وكانت هذه الاتهامات بمثابة رسالة تحذيرية قوية للآخرين الذين قد يحاولون استخدام تكتيكات مماثلة.

حيث قال المدعي العام في نيوهامشير جون فورميلا في بيان أعلن فيه التهم: “آمل أن ترسل إجراءات التنفيذ الخاصة بنا إشارة رادعة قوية لأي شخص قد يفكر في التدخل في الانتخابات، سواء من خلال استخدام الذكاء الاصطناعي أو غيره”.

ولم تردع هذه الاتهامات والتحذيرات السياسيين الذين صعّدوا أكثر في عمليات التزييف العميق، بمن فيهم الرئيس السابق دونالد ترامب، الذي قام في شهر أغسطس/آب الماضي بنشر صور باستخدام الذكاء الاصطناعي لتايلور سويفت تؤيد ترشحه. بالإضافة إلى صور لكامالا هاريس وهي ترتدي ملابس شيوعية.

وفي سبتمبر/أيلول الماضي تم تداول مقطع فيديو مرتبط بحملة معلومات مضللة روسية يتهم هاريس بالتورط في حادث اصطدام وهروب، حيث تمت مشاهدته ملايين المرات على وسائل التواصل الاجتماعي.

وفي سياق متصل، أشار تقرير مجلة “تايم” أن روسيا كانت معقلا للاستخدامات الخبيثة للذكاء الاصطناعي، حيث يقوم الفاعلون من الدولة بإنشاء نصوص، وصور، وصوتيات، ومقاطع فيديو تم استخدامها في الولايات المتحدة، وغالبا ما تهدف إلى تضخيم المخاوف المتعلقة بالهجرة.

ولم يبد واضحا إن كانت هذه الحملات قد أثرت كثيرا على الناخبين، حيث قالت وزارة العدل الأميركية في سبتمبر/أيلول إنها قامت بتعطيل واحدة من تلك الحملات، المعروفة باسم “دوبلغانغر” (Doppelganger) والتي سعت إلى نشر دعاية الحكومة الروسية.

وقالت وزارة العدل إن الهدف من هذا الجهد هو تقليل الدعم الدولي لأوكرانيا، وتعزيز السياسات الموالية لروسيا، والتأثير على الناخبين في الولايات المتحدة وأماكن أخرى.

وكتبت مجتمع الاستخبارات الأميركي في الشهر نفسه أن هؤلاء الفاعلين الأجانب قد واجهوا عدة تحديات في نشر هذه الفيديوهات، بما في ذلك الحاجة إلى تجاوز القيود المدمجة في العديد من أدوات الذكاء الاصطناعي.

ما الذكاء الاصطناعي التوليدي وكيف يمكن استخدامه بشكل خبيث؟

وفقا لوكالة “سيزا” (Cisa) الأميركية، فإن الذكاء الاصطناعي التوليدي هو نوع من البرمجيات يستخدم نماذج إحصائية تعمم الأنماط والهياكل الموجودة في البيانات الحالية، لإعادة تنظيم البيانات الموجودة أو إنشاء محتوى جديد، حيث يمكن أن يتراوح هذا المحتوى من كتابة رموز الحاسوب إلى تأليف نصوص جديدة، وتطوير وسائط تركيبية مثل ملفات الفيديو، والصور، والصوت.

وتقول “سيزا” إن القدرات المولدة للذكاء الاصطناعي أصبحت معتمدة على نطاق واسع، ومن الضروري أن يفهم مسؤولو الانتخابات كيف يمكن لهذه القدرات أن تؤثر على أمن ونزاهة البنية التحتية للانتخابات.

وبالرغم من أن قدرات الذكاء الاصطناعي توفر فرصا لزيادة الإنتاجية، وهو ما يعزز أمن وإدارة الانتخابات، فإن هذه القدرات أيضا تستطيع أن تلحق ضررا أكبر، حيث يمكن للجهات الفاعلة الخبيثة بما في ذلك الجهات الفاعلة في الدولة القومية الأجنبية ومجرمي الإنترنت، الاستفادة من هذه القدرات نفسها لأغراض شائنة.

وأشار المصدر نفسه إلى أنه بالنسبة لدورة انتخابات 2024، من المرجح ألا تؤدي قدرات الذكاء الاصطناعي التوليدية إلى مخاطر جديدة، لكنها قد تضخم المخاطر الحالية على البنية التحتية للانتخابات.

وطرحت وكالة “سيزا” أمثلة عن كيفية استخدام الجهات الخبيثة قدرات الذكاء الاصطناعي التوليدية، حيث تشمل:

١- الذكاء الاصطناعي لتوليد الفيديو

  • من النص إلى الفيديو: يمكن أن تستخدم جهة فاعلة من دولة أجنبية برنامج تحويل النص إلى فيديو، لإنشاء مقاطع فيديو مزيفة لمذيعين حقيقيين يقدمون أخبارا مزيفة لنشر المعلومات المضللة كجزء من عملية تأثير أجنبية.
  • فيديوهات التزييف العميق: يستخدم مجرمو الإنترنت مقاطع الفيديو المزيفة العميقة لأشخاص مشهورين لإقناع الجمهور بالوقوع في فخ الاحتيال.

٢- الذكاء الاصطناعي لتوليد الصورة

  • من النص إلى الصورة: تستخدم الجهات الفاعلة من دول أجنبية مولدات النص إلى صورة لإنشاء صور زائفة ومضللة لتغيير تصور الجمهور للحقائق خلال الأزمات.
  • صور معدلة بواسطة الذكاء الاصطناعي: تقوم الجهات الفاعلة من دول أجنبية بإنشاء صور تركيبية لملفات تعريف حسابات مزيفة تستخدم في عمليات التأثير. إضافة إلى تعديل الصور أو الفيديوهات الأصلية لدعم سرد هذه العمليات.

٣-  الذكاء الاصطناعي لتوليد الصوت

  • من النص إلى الصوت: يستخدم مجرمو الإنترنت الصوت الناتج عن الذكاء الاصطناعي لانتحال شخصية الموظفين والوصول إلى المعلومات الحساسة، أو إقناع المنظمات باتخاذ إجراءات محددة.
  • استنساخ الصوت: يستخدم مجرمو الإنترنت أدوات الذكاء الاصطناعي المولدة لاستنساخ صوت الضحايا غير المشككين، كجزء من عملية الاحتيال الصوتية أو حملات التضليل.

٤- الذكاء الاصطناعي لتوليد النص:

  • من النص إلى النص (نماذج اللغة الكبيرة): تستخدم الجهات الفاعلة في الدولة الأجنبية نصوصا تم إنشاؤها بواسطة الذكاء الاصطناعي، لتعزيز عمليات التأثير الأجنبي السرية بمحتوى باللغة الإنجليزية، حيث يكون صحيحا من الناحية النحوية بتكاليف هامشية أقل.
  • يستخدم مجرمو الإنترنت أيضا روبوتات الدردشة المعززة بالذكاء الاصطناعي في حملات الهندسة الاجتماعية المتطورة والتصيد الاحتيالي.

ووفقا للمركز الوطني للأمن السيبراني، يحدث التصيد الاحتيالي عندما يرسل مهاجمون سيبرانيون رسائل بريد إلكتروني احتيالية تحتوي على روابط لمواقع ويب ضارة، وقد تحتوي هذه المواقع على برامج ضارة مثل برامج الفدية التي يمكنها تخريب الأنظمة.

وتُعرّف شركة “كاسبرسكي” (Kaspersky) الهندسة الاجتماعية على أنها تقنية تلاعب تستغل الخطأ البشري للحصول على معلومات خاصة، أو الوصول إلى ممتلكات قيمة، إذ تستند إلى كيفية تفكير الناس وتصرفهم.

وتعمل هجمات الهندسة الاجتماعية بشكل خاص للتلاعب بسلوك المستخدم، فعندما يتعرف المهاجم على العوامل التي تحفز أفعال المستخدم، يمكنه خداعه والتلاعب به بفعالية، حيث يسعى القراصنة إلى استغلال نقص المعرفة لدى المستخدمين الذين لا يدركون القيمة الكاملة لبياناتهم الشخصية.

الأهداف المحتملة للاستخدام الضار للذكاء الاصطناعي المتعلقة بالانتخابات

تشير وكالة “سيزا” (CISA) إلى أن الجهات الفاعلة الخبيثة تستطيع استخدام أدوات الذكاء الاصطناعي التوليدي لتقليل التكاليف وزيادة حجم الحوادث الإلكترونية، وعمليات التأثير الأجنبي، وذلك عن طريق خلق سلالات من البرامج الضارة التي يمكن أن تتهرب من دفاعات الأمن السيبراني.

كما يمكنها أن تزيد من فعالية هجمات حجب الخدمة الموزعة “دي دي أو س” (DDoS)، والتي يمكن أن تقضي على مواقع الويب، بما في ذلك مواقع الويب المتعلقة بالانتخابات، عن طريق إغراقها بكميات هائلة من البيانات.

A map of China is seen through a magnifying glass on a computer screen showing binary digits in Singapore, in this January 2, 2014 file illustration photo. Security researchers have many names for the hacking group that is one of the suspects for the cyberattack on the U.S. government's Office of Personnel Management: PinkPanther, KungFu Kittens, Group 72 and, most famously, Deep Panda. But to Jared Myers and colleagues at cybersecurity company RSA, it is called Shell Crew, and Myers' team is one of the few who has watched it mid-assault — and eventually repulsed it. Myers' account of a months-long battle with the group illustrates the challenges governments and companies face in defending against hackers that researchers believe are linked to the Chinese government - a charge Beijing denies. To match story CYBERSECURITY-USA/DEEP-PANDA REUTERS/Edgar Su/Files

إليكم أمثلة محتملة عن الاستهداف الخبيث للانتخابات باستخدام الذكاء الاصطناعي:

١- العمليات الانتخابية

  • يمكن استخدام روبوتات الدردشة، أو الصوت، أو مقاطع الفيديو التي يتم إنشاؤها بواسطة الذكاء الاصطناعي لنشر معلومات مضللة حول الوقت، أو الطريقة ، أو مكان التصويت عبر الرسائل النصية، أو البريد الإلكتروني، أو قنوات وسائل التواصل الاجتماعي، أو الطباعة.
  • يمكن أن يزيد استخدام المحتوى والأدوات التي ينتجها الذكاء الاصطناعي من نطاق وفاعلية عمليات التأثير الأجنبية، وحملات المعلومات المضللة التي تستهدف عمليات الانتخابات.
  • يمكن استخدام قدرات الذكاء الاصطناعي لتوليد سجلات انتخابية مزيفة مقنعة.

٢- مكاتب الانتخابات

  • يمكن استخدام أدوات استنساخ الصوت لانتحال شخصيات موظفي مكاتب الانتخابات للوصول إلى إدارة الانتخابات الحساسة أو المعلومات الأمنية.
  • يمكن أن تستخدم أدوات الذكاء الاصطناعي لتنفيذ هجمات تصيّدية عالية الجودة ضد مسؤولي الانتخابات أو الموظفين للوصول إلى المعلومات الحساسة.
  • يمكن استخدام أدوات برمجة الذكاء الاصطناعي لتطوير برمجيات ضارة، وربما حتى برمجيات خبيثة محسنة يمكنها التهرب بشكل أكبر من أنظمة الكشف.
  • يمكن استخدام النصوص التي تم إنشاؤها بواسطة الذكاء الاصطناعي والاستنساخ الصوتي لتوليد مكالمات مزيفة للناخبين وإرباك مراكز الاتصال.

٣- المسؤولون الانتخابيون

  • يمكن استخدام المحتوى الناتج عن الذكاء الاصطناعي، مثل المساومة على مقاطع الفيديو المزيفة العميقة، بهدف مضايقة مسؤولي الانتخابات أو انتحال شخصياتهم، أو نزع الشرعية عنهم.
  • يمكن استخدام أدوات الذكاء الاصطناعي لإنشاء ملفات صوتية، أو مقاطع فيديو تنتحل صفة مسؤولي الانتخابات، والتي تنشر معلومات خاطئة للجمهور حول أمن أو نزاهة عملية الانتخابات.
  • يمكن عن طريق الذكاء الاصطناعي تعزيز تجميع بيانات المعلومات العامة لتمكين هجمات التعقب (Doxing Attacks) ضد المسؤولين الانتخابيين. ومصطلح “دوكينغ” (doxing) حسب شركة “كاسبرسكي” هو اختصار لعبارة “دروبينغ دوكس” (dropping dox)، حيث تعني “دوكس” (dox) في اللغة العامية “الوثائق”. وعادة ما يعتبر الـ”دوكينغ” فعلا خبيثا، حيث يستخدم ضد الأشخاص الذين يختلف معهم المتسلل ويكرههم.

والـ”دوكينغ” ويكتب أحيانا (doxxing) هو فعل للكشف عن معلومات التعريف لشخص ما عبر الإنترنت، مثل اسمه الحقيقي، وعنوان المنزل، ومكان العمل، والهاتف والمعلومات المالية وغيرها من المعلومات الشخصية، ثم يتم تعميم هذه المعلومات وسط الجمهور دون إذن الضحية.

٤- الموردون الانتخابيون

  • يمكن لتكنولوجيا الذكاء الاصطناعي أن تتيح استخداما متقدما لتقنيات التصيد الاحتيالي والهندسة الاجتماعية.
  • يمكن استخدام أدوات الذكاء الاصطناعي لإنشاء فيديو مزيف لمورد انتخابي يدلي ببيان كاذب يثير تساؤلات عن أمان تقنيات الانتخابات.

ووضحت وكالة “سيزا” أنه وعلى الرغم من أن التطورات والاستخدامات الخبيثة لقدرات الذكاء الاصطناعي التوليدي تؤثر على مشهد المخاطر، فإن المسؤولين عن الانتخابات في وضع جيد للتخفيف من هذه التهديدات المحتملة بشكل فعال.

وأشارت إلى أن هؤلاء المسؤولين معتادون على المخاطر مثل الاحتيال الإلكتروني، وعمليات التأثير الأجنبية التي يمكن أن تضخمها تقنيات الذكاء الاصطناعي التوليدي.

أمام كل هذه التحديات، هل سيتمكن المترشح الفائز في الانتخابات الأميركية من الجلوس على الكرسي الأبيض دون تهديدات عالم الآلة؟ وهل ستكون هناك تدابير فعالة تضمن ديمقراطية محصنة ضد تهديدات الذكاء الاصطناعي؟

شارك المقال
اترك تعليقك

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *