اقترحت شركة مايكروسوفت في أكتوبر/تشرين الأول العام الماضي، استخدام أداة توليد الصور الشهيرة “دال-إي” (DALL-E)، التي تطورها شركة “أوبن إيه آي”، لمساعدة وزارة الدفاع الأميركية في تصميم برمجيات لتنفيذ العمليات العسكرية، وفقًا لمواد داخلية للعرض التقديمي التي اطلع عليها موقع “ذا إنترسبت” (The Intercept)، وأشار لها في تقريره الصادر في أبريل/نيسان الماضي.
جاء هذا الكشف بعد مرور أشهر قليلة على إنهاء حظر “أوبن إيه آي” استخدام تقنياتها في الأعمال العسكرية، وهو أمر حدث في صمت ولم تكشف عنه الشركة إعلاميًا وفقًا للتقرير.
كانت مايكروسوفت قد استثمرت أكثر من 10 مليارات دولار في شركة “أوبن إيه آي”، وارتبط اسمها باسم الشركة الناشئة خلال الفترة الماضية فيما يخص تقنيات الذكاء الاصطناعي التوليدي.
ندوة تدريبية للبنتاغون
توفر مواد العرض التقديمي الخاصة بشركة مايكروسوفت، بعنوان “الذكاء الاصطناعي التوليدي باستخدام بيانات وزارة الدفاع” والذي حصل عليه موقع ذا إنترسبت، تفاصيل عامة حول كيفية استفادة البنتاغون من أدوات وتقنيات تعلم الآلة الخاصة بشركة أوبن إيه آي، التي تشمل روبوت المحادثة الشهير “شات جي بي تي” ومولد الصور “دال-إي”، وذلك لمهام تتفاوت بين تحليل المستندات والمساعدة في صيانة الآلات.
تلك الوثائق التي قدمتها مايكروسوفت مستخرجة من مجموعة مواد كبيرة عُرضت في ندوة تدريبية لوزارة الدفاع الأميركية حول “الإلمام والتثقيف بتقنيات الذكاء الاصطناعي” نظمتها وحدة القوات الجوية الأميركية في لوس أنجلوس في أكتوبر/تشرين الأول 2023.
وتضمنت الندوة مجموعة مختلفة من العروض التقديمية من الشركات المتخصصة في مجال تعلم الآلة، بما فيها شركتا مايكروسوفت وأوبن إيه آي، حول ما يمكن أن تقدمه تلك الشركات للبنتاغون.
وقد ظهرت الملفات المتاحة للجمهور على الموقع الإلكتروني لشركة “أليثيا لابز” (Alethia Labs)، وهي شركة استشارات غير ربحية تساعد الحكومة الفدرالية في مجال الاستعانة بالتكنولوجيا، واكتشف تلك الملفات الصحفي بموقع “ذا إنترسبت” جاك بولسون.
عملت شركة “أليثيا لابز” بصورة مكثفة مع البنتاغون لمساعدته على دمج تقنيات الذكاء الاصطناعي بسرعة في ترسانة أسلحته، ومنذ العام الماضي تعاقدت الشركة مع مكتب الذكاء الاصطناعي المركزي في البنتاغون.
تدريب أنظمة إدارة القتال
إحدى صفحات العرض التقديمي من مايكروسوفت تبرز العديد من الاستخدامات الفدرالية “الشائعة” لتقنية أوبن إيه آي، بما في ذلك استخدامها للأغراض العسكرية.
وجاء في إحدى النقاط، تحت عنوان “تدريب رؤية الحاسوب المتطورة”: “أنظمة إدارة القتال: استخدام نماذج دال-إي لإنشاء صور لتدريب أنظمة إدارة القتال”.
وكما يبدو من الاسم، فإن نظام إدارة القتال هو مجموعة برمجيات للقيادة والتحكم تزود القيادات العسكرية برؤية عامة لسيناريو القتال في أرض المعركة، مما يتيح لهم تنسيق عناصر تخص المعارك مثل قذائف المدفعية وتحديد أهداف الضربات الجوية وتحركات الجنود على الأرض، وفقًا للتقرير.
تقترح الإشارة إلى تدريب الرؤية الحاسوبية أن بإمكان الصور التي يولدها نموذج “دال-إي” مساعدة حواسيب البنتاغون على “رؤية” الأوضاع في ساحة المعركة بصورة أفضل، وهي ميزة خاصة لتحديد الأهداف وتدميرها.
ولا توفر ملفات العرض التقديمي تفاصيل أخرى حول كيفية استخدام نموذج “دال-إي” بالضبط في أنظمة إدارة القتال في ساحة المعركة، إلا أن تدريب تلك الأنظمة قد يتضمن إمكانية استخدام “دال-إي” لتزويد البنتاغون بما يُسمى ببيانات التدريب الاصطناعية، وهي مشاهد تخيلية ومصطنعة تحاكي إلى حد كبير مشاهد العالم الحقيقي.
على سبيل المثال، يمكن عرض كمية هائلة من الصور الجوية المزيفة، لمدرجات هبوط الطائرات أو صفوف الدبابات، التي ينتجها نموذج “دال-إي” على البرمجيات العسكرية التي صُممت لاكتشاف أهداف العدو على الأرض، بهدف تحسين قدرة تلك البرمجيات على التعرف إلى مثل تلك الأهداف في العالم الحقيقي.
وفي مقابلة الشهر الماضي مع مركز الدراسات الإستراتيجية والدولية، تصور الكابتن م. كزافييه لوغو، من البحرية الأميركية، تطبيقا عسكريا للبيانات الاصطناعية مثل النوع الذي يمكن أن ينتجه “دال-إي” تمامًا، مقترِحًا إمكانية استخدام تلك الصور المزيفة لتدريب الطائرات دون طيار على رؤية العالم تحتها والتعرف إليه بصورة أفضل.
وقد أُدرج اسم لوغو، وهو قائد مهام فريق عمل الذكاء الاصطناعي التوليدي في البنتاغون وعضو في مكتب رئيس الذكاء الرقمي والاصطناعي في وزارة الدفاع، كجهة اتصال في نهاية ملف العرض التقديمي من مايكروسوفت.
تعمل القوات الجوية الأميركية حاليًا على إنشاء نظام إدارة القتال المتطور، وهو الجزء الخاص بها من مشروع البنتاغون الأكبر الذي تبلغ تكلفته عدة مليارات من الدولارات والمسمى “نظام القيادة والتحكم المشترك لجميع المجالات” (JADC2)، الذي يهدف إلى ربط الجيش الأميركي بأكمله معًا لتوسيع نطاق التواصل بين الفروع العسكرية الأميركية وتحليل البيانات المدعومة بالذكاء الاصطناعي، وتحسين القدرة على القتال في نهاية المطاف.
يتصور البنتاغون من خلال هذا المشروع مستقبلًا وشيكًا تتبادل فيه كاميرات الطائرات المسيّرة التابعة للقوات الجوية، ورادارات السفن الحربية التابعة للبحرية، ودبابات الجيش، وقوات المارينز على الأرض، البيانات حول العدو بسلاسة لتدميره بطريقة أفضل.
وفي 3 أبريل/نيسان الماضي، كشفت القيادة المركزية الأميركية أنها بدأت فعلا في استخدام عناصر من هذا المشروع في الشرق الأوسط.
لكن حتى في حال تنحية أوجه الاعتراضات الأخلاقية جانبًا، فإن فعالية هذا الأسلوب قابلة للنقاش، إذ تقول هايدي خلاف، مهندسة سلامة تعلم الآلة التي عملت سابقًا مع أوبن إيه آي: “من المعروف أن دقة النموذج وقدرته على معالجة البيانات بصورة صحيحة تتراجع في كل مرة يتدرب فيها على محتوى من إنتاج الذكاء الاصطناعي”.
وتضيف “الصور المولدة من دال-إي أبعد ما تكون عن الدقة ولا تنتج صورًا تعكس واقعنا الفعلي حتى لو جرى ضبطها على مدخلات نظام إدارة القتال في ساحة المعركة. لا تستطيع نماذج توليد الصور إنتاج عدد صحيح من الأطراف أو الأصابع البشرية بدقة، فكيف نعتمد عليها لتكون دقيقة فيما يتعلق بتفاصيل الوجود الميداني الحقيقي”.
تحول جذري
قالت مايكروسوفت في تصريح لموقع “ذا إنترسبت”، عبر البريد الإلكتروني، إنه بالرغم من عرضها على البنتاغون استخدام “دال-إي” لتدريب برمجياتها في ساحة المعركة، فإنها لم تبدأ في تنفيذ الأمر.
وذكرت: “هذا مثال على حالات الاستخدام المحتملة التي استندت إلى محادثات مع العملاء حول ما يمكن أن يقدمه الذكاء الاصطناعي التوليدي”.
لم تشرح مايكروسوفت، التي رفضت أن تنسب هذا التصريح إلى شخص محدد داخلها، سبب تصنيف حالة استخدام “محتملة” على أنها ضمن الاستخدامات “الشائعة” في عرضها التقديمي لوزارة الدفاع الأميركية.
وصرحت ليز بورجوس، المتحدثة باسم أوبن إيه آي، بأنه لم يكن لشركتها أي دور في عرض مايكروسوفت، وبأنها لم تبرم أي صفقات بيع لأدوات أو تقنيات لصالح وزارة الدفاع.
وأضافت: “تحظر سياسات أوبن إيه آي استخدام أدواتنا لتطوير أو استخدام الأسلحة، أو إلحاق الضرر بالآخرين أو تدمير الممتلكات”.
وتابعت “لم نشارك في هذا العرض التقديمي ولم نجرِ محادثات مع وكالات الدفاع الأميركية فيما يتعلق بحالات الاستخدام الافتراضية التي يصفها العرض”.
في توقيت هذا العرض التقديمي، يبدو أن سياسات شركة أوبن إيه آي كانت ستحظر استخدام نموذج “دال-إي” عسكريًا.
وقد ذكرت مايكروسوفت لموقع “ذا إنترسبت” أنه في حال استخدم البنتاغون أداة “دال-إي”، أو أي أداة أخرى من أدوات أوبن إيه آي، بموجب تعاقد مع مايكروسوفت، سيخضع ذلك لسياسات الاستخدام الخاصة بشركة أوبن إيه آي.
لكن مع هذا، فإن أي استخدام تقنيات الشركة لمساعدة البنتاغون على القتل والتدمير بفعالية أكبر سيشكل تحولا جذريا بالنسبة لأوبن إيه آي، التي وصفت مهمتها بأنها “تطوير ذكاء اصطناعي يركز على السلامة ويستهدف تحقيق الفائدة للبشرية بأكملها”.
تقول بريانا روزين، وهي باحثة بجامعة أكسفورد تركز على أخلاقيات التكنولوجيا: “ليس من الممكن إنشاء نظام لإدارة القتال بأسلوب لا يسهم في إلحاق الضرر بالمدنيين، على الأقل بصورة غير مباشرة”.
وأوضحت روزين، التي عملت في مجلس الأمن القومي في عهد إدارة أوباما، أن تقنيات أوبن إيه آي قد تستخدم بسهولة لمساعدة الناس كما يمكن استخدامها لإلحاق الضرر بهم، واستخدامها في هذا الخيار الأخير بواسطة أي حكومة هو خيار سياسي.
وأكدت “ما لم تحصل شركات مثل أوبن إيه آي على ضمانات مكتوبة من الحكومات بأنها لن تستخدم التقنية لإلحاق الضرر بالمدنيين، وهو أمر غير ملزم قانونًا على الأرجح، لا أرى أي وسيلة تمكن الشركات من الإعلان بثقة أن هذه التقنية لن تُستخدم (أو يُساء استخدامها) بأساليب لها آثار عدائية”.
وقالت آنا ماكانجو، نائبة رئيس قسم الشؤون العالمية في “أوبن إيه آي” في يناير/كانون الثاني الماضي، إن عمل الشركة العسكري يركز على تطبيقات مثل مبادرات الأمن السيبراني ومنع انتحار المحاربين القدامى، وإن أدوات الشركة الرائدة في مجال تعلم الآلة تظل بعيدة عن التسبب في الأذى أو التدمير.
غير أن المساهمة في تطوير أنظمة إدارة القتال سيضع أعمال أوبن إيه آي العسكرية أقرب ما تكون إلى الحرب نفسها، ففي حين أن ادعاء أوبن إيه آي بتجنب الأذى المباشر قد يكون صحيحًا من الناحية التقنية، في حال لم تكن برمجياتها تشغّل أنظمة الأسلحة بصورة مباشرة، فإن استخدامها في أنظمة أخرى، كتخطيط العمليات العسكرية أو تقييم الأوضاع في ساحة المعركة، سيؤثر في النهاية على مواقع انتشار تلك الأسلحة أو تنفيذ المهام العسكرية.