يحذر تقرير بتكليف من وزارة الخارجية من أن الذكاء الاصطناعي قد يشكل تهديدًا “على مستوى الانقراض” للبشر ويجب على الولايات المتحدة التدخل

فريق التحرير
كتب فريق التحرير 8 دقيقة للقراءة

يرسم تقرير جديد بتكليف من وزارة الخارجية الأمريكية صورة مثيرة للقلق لمخاطر الأمن القومي “الكارثية” التي يفرضها الذكاء الاصطناعي سريع التطور، محذرا من أن الوقت ينفد أمام الحكومة الفيدرالية لتجنب الكارثة.

واستندت النتائج إلى مقابلات مع أكثر من 200 شخص على مدار أكثر من عام، بما في ذلك كبار المسؤولين التنفيذيين من شركات الذكاء الاصطناعي الرائدة، وباحثين في مجال الأمن السيبراني، وخبراء أسلحة الدمار الشامل، ومسؤولي الأمن القومي داخل الحكومة.

ويشير التقرير، الذي صدر هذا الأسبوع من قبل جلادستون للذكاء الاصطناعي، بشكل قاطع إلى أن أنظمة الذكاء الاصطناعي الأكثر تقدما يمكن، في أسوأ الحالات، “أن تشكل تهديدا على مستوى الانقراض للجنس البشري”.

وأكد مسؤول بوزارة الخارجية الأمريكية لشبكة CNN أن الوكالة كلفت بإعداد التقرير لأنها تقوم باستمرار بتقييم مدى توافق الذكاء الاصطناعي مع هدفه المتمثل في حماية المصالح الأمريكية في الداخل والخارج. ومع ذلك، أكد المسؤول أن التقرير لا يمثل آراء الحكومة الأمريكية.

يعد التحذير الوارد في التقرير بمثابة تذكير آخر بأنه على الرغم من أن إمكانات الذكاء الاصطناعي لا تزال تأسر المستثمرين والجمهور، إلا أن هناك مخاطر حقيقية أيضًا.

“إن الذكاء الاصطناعي هو بالفعل تكنولوجيا تحويلية اقتصاديًا. وقال جيريمي هاريس، الرئيس التنفيذي والمؤسس المشارك لشركة جلادستون للذكاء الاصطناعي، لشبكة سي إن إن يوم الثلاثاء: “يمكن أن يسمح لنا بشفاء الأمراض، وتحقيق الاكتشافات العلمية، والتغلب على التحديات التي اعتقدنا ذات يوم أنه لا يمكن التغلب عليها”.

وقال هاريس: “لكنه قد يجلب أيضًا مخاطر جسيمة، بما في ذلك المخاطر الكارثية، التي يجب أن نكون على دراية بها”. “وتشير مجموعة متزايدة من الأدلة – بما في ذلك الأبحاث والتحليلات التجريبية المنشورة في أهم مؤتمرات الذكاء الاصطناعي في العالم – إلى أنه فوق عتبة معينة من القدرة، من المحتمل أن تصبح أنظمة الذكاء الاصطناعي خارجة عن السيطرة.”

وقالت المتحدثة باسم البيت الأبيض، روبين باترسون، إن الأمر التنفيذي الذي أصدره الرئيس جو بايدن بشأن الذكاء الاصطناعي هو “الإجراء الأكثر أهمية الذي اتخذته أي حكومة في العالم للوفاء بالوعد وإدارة مخاطر الذكاء الاصطناعي”.

وقال باترسون: “سيواصل الرئيس ونائب الرئيس العمل مع شركائنا الدوليين ويحثون الكونجرس على إقرار تشريع من الحزبين لإدارة المخاطر المرتبطة بهذه التقنيات الناشئة”.

“حاجة واضحة وعاجلة” للتدخل

يحذر الباحثون من خطرين رئيسيين يشكلهما الذكاء الاصطناعي على نطاق واسع.

أولاً، قال جلادستون للذكاء الاصطناعي، إن أنظمة الذكاء الاصطناعي الأكثر تقدماً يمكن تسليحها لإحداث أضرار لا يمكن إصلاحها. ثانياً، ذكر التقرير أن هناك مخاوف خاصة داخل مختبرات الذكاء الاصطناعي من أنها قد “تفقد السيطرة” في مرحلة ما على الأنظمة ذاتها التي تقوم بتطويرها، مع “عواقب مدمرة محتملة على الأمن العالمي”.

وقال التقرير إن “صعود الذكاء الاصطناعي والذكاء الاصطناعي العام من شأنه أن يؤدي إلى زعزعة استقرار الأمن العالمي بطرق تذكرنا بإدخال الأسلحة النووية”، مضيفا أن هناك خطر حدوث “سباق تسلح” وصراع وصراع في مجال الذكاء الاصطناعي. حوادث مميتة بحجم أسلحة الدمار الشامل”.

ويدعو تقرير جلادستون للذكاء الاصطناعي إلى اتخاذ خطوات جديدة جذرية تهدف إلى مواجهة هذا التهديد، بما في ذلك إطلاق وكالة جديدة للذكاء الاصطناعي، وفرض ضمانات تنظيمية “طارئة” وقيود على مقدار قوة الكمبيوتر التي يمكن استخدامها لتدريب نماذج الذكاء الاصطناعي.

وكتب المؤلفون في التقرير: “هناك حاجة واضحة وعاجلة لتدخل حكومة الولايات المتحدة”.

قال هاريس، المدير التنفيذي لشركة جلادستون للذكاء الاصطناعي، إن “المستوى غير المسبوق من الوصول” الذي تمتع به فريقه للمسؤولين في القطاعين العام والخاص أدى إلى استنتاجات مذهلة. قالت شركة Gladstone AI إنها تحدثت إلى الفرق الفنية والقيادية من مالك ChatGPT OpenAI، وGoogle DeepMind، والشركة الأم لفيسبوك Meta وAnthropic.

وقال هاريس في مقطع فيديو نُشر على الموقع الإلكتروني لشركة Gladstone AI للإعلان عن التقرير: “على طول الطريق، تعلمنا بعض الأشياء المثيرة للقلق”. “وراء الكواليس، يبدو وضع السلامة والأمن في الذكاء الاصطناعي المتقدم غير مناسب إلى حد كبير مقارنة بالمخاطر الأمنية الوطنية التي قد يطرحها الذكاء الاصطناعي قريبًا إلى حد ما.”

وقال تقرير جلادستون للذكاء الاصطناعي إن الضغوط التنافسية تدفع الشركات إلى تسريع تطوير الذكاء الاصطناعي “على حساب السلامة والأمن”، مما يزيد من احتمال “سرقة” أنظمة الذكاء الاصطناعي الأكثر تقدما و”تسليحها” ضد الولايات المتحدة.

وتضاف هذه الاستنتاجات إلى قائمة متزايدة من التحذيرات بشأن المخاطر الوجودية التي يفرضها الذكاء الاصطناعي – بما في ذلك حتى من بعض أقوى الشخصيات في الصناعة.

منذ ما يقرب من عام، استقال جيفري هينتون، المعروف باسم “الأب الروحي للذكاء الاصطناعي”، من وظيفته في شركة جوجل وأطلق صافرة الإنذار بشأن التكنولوجيا التي ساعد في تطويرها. وقال هينتون إن هناك فرصة بنسبة 10% أن يؤدي الذكاء الاصطناعي إلى انقراض الإنسان خلال العقود الثلاثة المقبلة.

وقع هينتون وعشرات من قادة صناعة الذكاء الاصطناعي والأكاديميين وغيرهم على بيان في يونيو الماضي جاء فيه أن “التخفيف من خطر الانقراض بسبب الذكاء الاصطناعي يجب أن يكون أولوية عالمية”.

ويشعر قادة الأعمال بقلق متزايد إزاء هذه المخاطر ــ حتى وهم يضخون مليارات الدولارات في الاستثمار في الذكاء الاصطناعي. في العام الماضي، قال 42% من الرؤساء التنفيذيين الذين شملهم الاستطلاع في قمة الرؤساء التنفيذيين بجامعة ييل العام الماضي إن الذكاء الاصطناعي لديه القدرة على تدمير البشرية بعد خمس إلى عشر سنوات من الآن.

أشارت شركة جلادستون للذكاء الاصطناعي في تقريرها إلى بعض الأفراد البارزين الذين حذروا من المخاطر الوجودية التي يشكلها الذكاء الاصطناعي، بما في ذلك إيلون ماسك، رئيس لجنة التجارة الفيدرالية. لينا خان والمديرة التنفيذية السابقة في OpenAI.

ويشارك بعض الموظفين في شركات الذكاء الاصطناعي مخاوف مماثلة على انفراد، وفقًا لـ Gladstone AI.

قال التقرير: “أعرب أحد الأفراد في أحد مختبرات الذكاء الاصطناعي المعروفة عن وجهة نظر مفادها أنه إذا تم إطلاق نموذج محدد من الجيل التالي للذكاء الاصطناعي باعتباره مفتوح الوصول، فسيكون ذلك” سيئًا للغاية “، لأن القدرة المقنعة المحتملة للنموذج يمكن للقدرات “كسر الديمقراطية” إذا تم الاستفادة منها في مجالات مثل التدخل في الانتخابات أو التلاعب بالناخبين.

وقالت جلادستون إنها طلبت من خبراء الذكاء الاصطناعي في المختبرات الحدودية مشاركة تقديراتهم الشخصية بشكل خاص حول احتمال أن يؤدي حادث الذكاء الاصطناعي إلى “آثار عالمية لا رجعة فيها” في عام 2024. وتراوحت التقديرات بين 4% وما يصل إلى 20%، وفقًا لـ “جلادستون”. التقرير، الذي يشير إلى أن التقديرات كانت غير رسمية ومن المحتمل أن تخضع لتحيز كبير.

واحدة من أكبر المفاجآت هي مدى سرعة تطور الذكاء الاصطناعي – وتحديداً الذكاء الاصطناعي العام (AGI)، وهو شكل افتراضي من الذكاء الاصطناعي يتمتع بقدرة على التعلم تشبه قدرة الإنسان أو حتى قدرة فوق طاقة البشر.

يقول التقرير إن الذكاء الاصطناعي العام يُنظر إليه على أنه “المحرك الرئيسي للمخاطر الكارثية الناجمة عن فقدان السيطرة”، ويشير إلى أن OpenAI وGoogle DeepMind وAnthropic وNvidia جميعهم صرحوا علنًا بإمكانية الوصول إلى الذكاء الاصطناعي العام بحلول عام 2028 – على الرغم من أن آخرين يعتقدون أن الأمر أبعد بكثير. .

تشير Gladstone AI إلى أن الخلافات حول الجداول الزمنية للذكاء الاصطناعي العام تجعل من الصعب تطوير السياسات والضمانات، وهناك خطر من أنه إذا تطورت التكنولوجيا، فإن التنظيم بشكل أبطأ من المتوقع قد “يثبت أنه ضار”.

شارك المقال
اترك تعليقك

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *