تخطط حكومة الولايات المتحدة للمضي قدماً في استخدام الذكاء الاصطناعي. لكنها تفتقر إلى خطة، كما تقول هيئة رقابية حكومية

فريق التحرير
كتب فريق التحرير 9 دقيقة للقراءة

تخطط حكومة الولايات المتحدة لتوسيع اعتمادها على الذكاء الاصطناعي بشكل كبير، لكنها متأخرة سنوات في سياسات الحصول على التكنولوجيا واستخدامها بشكل مسؤول من القطاع الخاص، وفقًا لتقرير الرقابة الفيدرالية الجديد.

إن عدم وجود معيار على مستوى الحكومة بشأن مشتريات الذكاء الاصطناعي يمكن أن يقوض الأمن الأمريكي، حسبما كتب مكتب المحاسبة الحكومية (GAO) في مراجعة طال انتظارها لما يقرب من عشرين استخدامًا حاليًا ومخططًا للوكالات للذكاء الاصطناعي. مكتب محاسبة الحكومة هو أعلى هيئة مراقبة للمساءلة في الحكومة.

يمثل التقرير المكون من 96 صفحة والذي صدر يوم الثلاثاء الجهد الأكثر شمولاً الذي بذلته الحكومة الأمريكية حتى الآن لفهرسة أكثر من 200 طريقة تستخدم بها الوكالات غير العسكرية بالفعل الذكاء الاصطناعي أو التعلم الآلي، وأكثر من 500 تطبيق مخطط للذكاء الاصطناعي قيد التنفيذ.

يأتي ذلك في الوقت الذي أصدر فيه مطورو الذكاء الاصطناعي نماذج ذكاء اصطناعي أكثر تطورًا من أي وقت مضى، وبينما يتدافع صناع السياسات لتطوير لوائح صناعة الذكاء الاصطناعي في حالات الاستخدام الأكثر حساسية. وقد أكدت الحكومات في جميع أنحاء العالم على فوائد الذكاء الاصطناعي، مثل قدرته على إيجاد علاجات للأمراض أو تعزيز الإنتاجية. لكنهم يشعرون بالقلق أيضًا بشأن مخاطرها، بما في ذلك خطر تشريد العمال، أو نشر معلومات مضللة عن الانتخابات، أو إيذاء الفئات السكانية الضعيفة من خلال التحيزات الخوارزمية. وحذر الخبراء من أن الذكاء الاصطناعي قد يؤدي إلى تهديدات جديدة للأمن القومي، من خلال منح الجهات الفاعلة الخبيثة طرقًا جديدة لتطوير هجمات إلكترونية أو أسلحة بيولوجية.

سعى الاستطلاع الواسع الذي أجراه مكتب محاسبة الحكومة إلى الحصول على إجابات من 23 وكالة تتراوح بين وزارتي العدل والأمن الداخلي وإدارة الضمان الاجتماعي واللجنة التنظيمية النووية. وبالفعل، تستخدم الحكومة الفيدرالية الذكاء الاصطناعي بـ 228 طريقة مختلفة، مع إطلاق ما يقرب من نصف هذه الاستخدامات خلال العام الماضي، وفقًا للتقرير، مما يعكس الإقبال السريع على الذكاء الاصطناعي في جميع أنحاء الحكومة الأمريكية.

إن الغالبية العظمى من الاستخدامات الحكومية الحالية والمخططة للذكاء الاصطناعي التي حددها مكتب محاسبة الحكومة في تقريره، ما يقرب من سبعة من كل 10، إما مرتبطة بالعلم أو تهدف إلى تحسين الإدارة الداخلية للوكالة. على سبيل المثال، قالت الإدارة الوطنية للملاحة الجوية والفضاء (ناسا) لمكتب محاسبة الحكومة إنها تستخدم الذكاء الاصطناعي لرصد نشاط البراكين في جميع أنحاء العالم، في حين قالت وزارة التجارة إنها تستخدم الذكاء الاصطناعي لتتبع حرائق الغابات ولعد الطيور البحرية والفقمات أو حيوانات الفظ الموجودة في الصورة تلقائيًا. صور بدون طيار.

وعلى مقربة من الوطن، قالت وزارة الأمن الداخلي إنها تستخدم الذكاء الاصطناعي “لتحديد الأنشطة الحدودية ذات الاهتمام” من خلال تطبيق تقنيات التعلم الآلي ضد بيانات الكاميرا والرادار، وفقًا لتقرير مكتب محاسبة الحكومة.

ويسلط التقرير الضوء أيضًا على مئات الطرق التي تستخدم بها الوكالات الفيدرالية الذكاء الاصطناعي سرًا. وقال التقرير إن الوكالات الفيدرالية كانت على استعداد للكشف علنًا عن حوالي 70% من إجمالي 1241 حالة استخدام نشطة ومخطط لها للذكاء الاصطناعي، لكنها رفضت تحديد أكثر من 350 تطبيقًا للتكنولوجيا لأنها “تعتبر حساسة”.

كانت بعض الوكالات متشددة للغاية بشأن استخدامها للذكاء الاصطناعي: فقد أدرجت وزارة الخارجية 71 حالة استخدام مختلفة للتكنولوجيا، لكنها أخبرت مكتب محاسبة الحكومة أنها لا تستطيع سوى تحديد 10 منها علنًا.

على الرغم من أن بعض الوكالات أبلغت عن استخدامات قليلة نسبيًا للذكاء الاصطناعي، إلا أن هذه المجموعة القليلة من التطبيقات اجتذبت بعضًا من أكبر قدر من التدقيق من قبل هيئات الرقابة الحكومية ومجموعات الحريات المدنية وخبراء الذكاء الاصطناعي الذين حذروا من نتائج الذكاء الاصطناعي الضارة المحتملة.

على سبيل المثال، أبلغت وزارتا العدل والأمن الداخلي عن إجمالي 25 حالة استخدام حالية أو مخطط لها للذكاء الاصطناعي في تقرير مكتب محاسبة الحكومة يوم الثلاثاء، وهو جزء صغير من 390 حالة لوكالة ناسا أو 285 حالة لوزارة التجارة. لكن هذا العدد الصغير يكذب مدى حساسية وزارة العدل ووزارة الأمن الداخلي. حالات الاستخدام يمكن أن تكون.

في شهر سبتمبر الماضي، حذر مكتب محاسبة الحكومة من أن وكالات إنفاذ القانون الفيدرالية أجرت الآلاف من عمليات البحث للتعرف على الوجه المدعومة بالذكاء الاصطناعي – والتي تصل إلى 95٪ من عمليات البحث هذه في ست وكالات أمريكية من عام 2019 إلى عام 2022 – دون الحاجة إلى متطلبات التدريب المناسبة للمسؤولين الذين يقومون بهذه العمليات. عمليات البحث، وتسليط الضوء على احتمالية إساءة استخدام الذكاء الاصطناعي. حذر خبراء الخصوصية والأمن بشكل روتيني من أن الاعتماد بشكل كبير على الذكاء الاصطناعي في عمل الشرطة يمكن أن يؤدي إلى حالات خطأ في تحديد الهوية واعتقالات غير مشروعة، أو التمييز ضد الأقليات.

(تزامن تقرير مكتب محاسبة الحكومة في سبتمبر حول التعرف على الوجه مع تقرير المفتش العام لوزارة الأمن الداخلي الذي وجد أن العديد من الوكالات، بما في ذلك الجمارك ودوريات الحدود، والخدمة السرية الأمريكية وهيئة الهجرة والجمارك من المحتمل أن تنتهك القانون عندما اشترى المسؤولون تاريخ تحديد الموقع الجغرافي للأمريكيين من وسطاء البيانات التجاريين دون إجراء تقييمات تأثير الخصوصية المطلوبة.)

في حين يتجه المسؤولون بشكل متزايد إلى الذكاء الاصطناعي والتحليل الآلي للبيانات لحل المشكلات المهمة، فإن مكتب الإدارة والميزانية، المسؤول عن تنسيق نهج الوكالات الفيدرالية تجاه مجموعة من القضايا بما في ذلك مشتريات الذكاء الاصطناعي، لم يضع اللمسات الأخيرة على مسودة مذكرة تحدد كيفية يجب على الوكالات اكتساب الذكاء الاصطناعي واستخدامه بشكل صحيح.

وكتب مكتب محاسبة الحكومة: “لقد ساهم الافتقار إلى التوجيه في عدم تنفيذ الوكالات للممارسات الأساسية بشكل كامل في إدارة الذكاء الاصطناعي”. وأضاف: “إلى أن يصدر مكتب الإدارة والميزانية التوجيه المطلوب، فمن المرجح أن تقوم الوكالات الفيدرالية بتطوير سياسات غير متسقة بشأن استخدامها للذكاء الاصطناعي، والتي لن تتماشى مع الممارسات الرئيسية أو تكون مفيدة لرفاهية وأمن الجمهور الأمريكي”.

وبموجب القانون الفيدرالي لعام 2020 الذي يتعامل مع الذكاء الاصطناعي في الحكومة، كان ينبغي لمكتب الإدارة والميزانية أن يصدر مسودة مبادئ توجيهية للوكالات بحلول سبتمبر 2021، لكنه فاته الموعد النهائي ولم يصدر مسودة مذكرته إلا بعد عامين، في نوفمبر 2023، وفقًا للتقرير.

وقال مكتب الإدارة والميزانية إنه وافق على توصية الهيئة الرقابية بإصدار إرشادات بشأن الذكاء الاصطناعي، وقال إن مسودة التوجيه التي أصدرها في نوفمبر كانت ردًا على الأمر التنفيذي الذي أصدره الرئيس جو بايدن في أكتوبر بشأن سلامة الذكاء الاصطناعي.

ومن بين أحكامه، يتطلب الأمر التنفيذي الأخير للذكاء الاصطناعي الذي أصدره بايدن من مطوري “أقوى أنظمة الذكاء الاصطناعي” مشاركة نتائج اختبار نماذجهم مع الحكومة، وفقًا لملخص البيت الأبيض للتوجيه. هذا العام، وعد عدد من شركات الذكاء الاصطناعي الرائدة أيضًا إدارة بايدن بأنها ستسعى إلى إجراء اختبار خارجي لنماذج الذكاء الاصطناعي الخاصة بها قبل إطلاقها للجمهور.

يضيف أمر بايدن التنفيذي إلى مجموعة المتطلبات المتزايدة للوكالات الفيدرالية عندما يتعلق الأمر بسياسات الذكاء الاصطناعي، على سبيل المثال، تكليف وزارة الطاقة بتقييم إمكانية قيام الذكاء الاصطناعي بتفاقم التهديدات التي تنطوي على أسلحة كيميائية أو بيولوجية أو إشعاعية أو نووية.

حدد تقرير مكتب محاسبة الحكومة يوم الثلاثاء قائمة شاملة بالمتطلبات المتعلقة بالذكاء الاصطناعي التي فرضها الكونجرس أو البيت الأبيض على الوكالات الفيدرالية منذ عام 2019 وقام بتقييم أدائها. بالإضافة إلى إلقاء اللوم على مكتب الإدارة والميزانية لفشله في التوصل إلى خطة على مستوى الحكومة لشراء الذكاء الاصطناعي، وجد التقرير أوجه قصور في عدد قليل من الأساليب التي تتبعها الوكالات الأخرى تجاه الذكاء الاصطناعي. اعتبارًا من سبتمبر، على سبيل المثال، لم يكن مكتب إدارة شؤون الموظفين قد أعد بعد التوقعات المطلوبة لعدد الأدوار المرتبطة بالذكاء الاصطناعي التي قد تحتاج الحكومة الفيدرالية إلى شغلها في السنوات الخمس المقبلة. وقال التقرير إن 10 وكالات فيدرالية تتراوح من وزارة الخزانة إلى وزارة التعليم تفتقر إلى الخطط المطلوبة لتحديث قوائمها الخاصة بحالات استخدام الذكاء الاصطناعي بمرور الوقت، مما قد يعيق فهم الجمهور لكيفية استخدام الحكومة الأمريكية للذكاء الاصطناعي.

شارك المقال
اترك تعليقك

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *