نظام “أين أبي؟” الإسرائيلي أباد عائلات بأكملها في غزة بمساعدة الذكاء الاصطناعي

فريق التحرير
كتب فريق التحرير 13 دقيقة للقراءة

تؤكد التقارير الصادمة التي تتوالى من غزة أن جيش الاحتلال الإسرائيلي يستخدم تكنولوجيا الذكاء الاصطناعي في ارتكاب مجازر وعمليات إبادة ممنهجة في مخالفة لجميع المواثيق والأعراف، ويشكل هذا منعطفا خطيرا في مجال حقوق الإنسان واستخدام التكنولوجيا في القتل، وتكشف أيضا لغز اختفاء عائلات بأكملها من السجل المدني.

استخدام التكنولوجيا للقتل

كشف موقعا “+972” ولوكال كول (Local Call) الإسرائيليان  كيف استخدم الجيش الإسرائيلي برنامج ذكاء اصطناعي يعرف باسم لافندر لتطوير “قائمة قتل” في غزة تضم ما يصل إلى 37 ألف فلسطيني تم استهدافهم بالاغتيال دون أن يكون هناك أي إشراف بشري يذكر للتحقق من دقة المعلومات.

وليس نظام لافندر فحسب الذي استخدم الذكاء الاصطناعي بل كان هناك نظام ثانٍ يعرف باسم “أين أبي؟” (Where’s Daddy) أخطر من لافندر وصمم  لمساعدة إسرائيل على استهداف الأفراد عندما يكونون في المنزل ليلا مع عائلاتهم.

أدى استخدام نظام “أين أبي؟”، بالإضافة إلى سياسة القصف “المتسامحة للغاية” في الجيش الإسرائيلي، إلى “إبادة عائلات فلسطينية بأكملها داخل منازلها”، كما يقول يوفال أبراهام، وهو صحفي إسرائيلي كشف القصة بعد أن تحدث مع 6 من ضباط المخابرات الإسرائيلية الذين شاركوا بشكل مباشر في نظام الذكاء الاصطناعي.

واستضافت إيمي غودمان من موقع ديموكراسي ناو (democracynow) أبراهام في مقابلة تحدث من خلالها عن بعض ما وجد في تقريره حول التكنولوجيا المستخدمة في الحرب على غزة، وكيف أن استخدام أنظمة الذكاء الاصطناعي العسكرية تشكل “خطراً على الإنسانية”، وأن “الحرب القائمة على الذكاء الاصطناعي تسمح للناس بالهروب من المساءلة.”

فنظام الذكاء الاصطناعي الذي يُعرف باسم “أين أبي؟” مصمم لتعقب الرجال الفلسطينيين. وقد تم تصميمه عمدا لمساعدة إسرائيل على استهداف الأفراد عندما يكونون في منازلهم ليلا مع عائلاتهم كما ذكر إبراهام في المقابلة.

وقال أحد ضباط المخابرات لأبراهام: “لم نكن مهتمين بقتل العناصر فقط عندما يكونون في مبنى عسكري أو حين يشاركون في نشاط عسكري. على العكس من ذلك، قصَف الجيش الإسرائيلي بيوتهم دون تردد، كخيار أول. من الأسهل بكثير قصف منزل العائلة. وقالوا إن النظام مصمم للبحث عنهم في هذه المواقف”.

يقول يوفال أبراهام حول بحثه عن هذا النظام الذي يعمل بالذكاء الاصطناعي إن الغرض منه، عندما تم تصميمه، هو تمييز الناشطين ذوي الرتب الدنيا في الجناح العسكري لحماس والجهاد الإسلامي.

وبحسب إبراهام كان هذا هو القصد، فإسرائيل قدرت أن هناك ما بين 30 إلى 40 ألفا من نشطاء حماس، وهو عدد كبير جدا. وقد أدركوا أن الطريقة الوحيدة بالنسبة لهم لتحديد هؤلاء الأشخاص هي الاعتماد على الذكاء الاصطناعي. وكان هذا هو المقصود من استخدام “أين أبي؟”.

ويتابع أبراهام أن ما أخبرتني به المصادر هو أنه بعد السابع من أكتوبر/تشرين الأول، اتخذ الجيش قرارا بالموافقة على أن يتم السماح باستهداف كل هؤلاء الآلاف من الأشخاص داخل منازلهم، مما لا يعني قتلهم فقط ولكن قتل كل من معهم في المبنى بما فيهم الأطفال والعائلات.

وقد فهموا أنه من أجل محاولة القيام بذلك، سيتعين عليهم الاعتماد على آلة الذكاء الاصطناعي مع الحد الأدنى من الإشراف البشري. يقول أبراهام إن أحد المصادر قال إنه شعر أن ذلك كان بمثابة ختم بالموافقة المسبقة على قرارات الآلة.

كيف يعمل “أين أبي؟”

يشرح أبراهام كيفية عمل برنامج “أين أبي؟” والذي يقوم بمسح معلومات عن 90% من سكان غزة على الأرجح. لذلك نحن نتحدث عن أكثر من مليون شخص. ويمنح كل فرد تقييما يتراوح بين واحد إلى 100، وهو تقييم يستند على طريقة تفكير الآلة وهو عبارة عن احتمالات قائمة على معلومات صغيرة تتجمع لتكون احتمالية بأن ذلك الفرد هو عضو في الأجنحة العسكرية لحماس أو الجهاد الإسلامي.

ويقول أبراهام إن مصادره أخبروه أن الجيش كان يعلم أن ما يقرب من 10٪ من الأشخاص الذين حددتهم الآلة على أنهم سيُقتلون ليسوا من مقاتلي حماس. ولم يكونوا كذلك، فبعضهم كان على علاقة بعيدة بحماس، والبعض الآخر لم يكن له أي صلة على الإطلاق بحماس.

شخص يتعرف عليه الذكاء الاصطناعي بأنه مقاتل من حماس بالخطأ

فعلى سبيل المثال قال أحد المصادر إن الآلة كانت تجلب أشخاصا لديهم نفس الاسم واللقب وتصنفهم كعنصر في حماس، أوالأشخاص الذين لديهم ملفات تعريف اتصالات مماثلة.

مثلا، يمكن أن يكون هؤلاء عمال الدفاع المدني، أوضباط شرطة في غزة، وقال أحد المصادر إنه قضى 20 ثانية من وقته لكل هدف للتأكد منه قبل أن يأذن بقصف مقاتل حماس ذي الرتبة المنخفضة -وغالباً ما كان من الممكن أن يكون مدنيا- مما أسفر عن مقتل هؤلاء الأشخاص داخل منازلهم، بحسب أبراهام.

ويقول أبراهام إن الطريقة التي تم بها تصميم النظام هي أن هناك مفهوما في أنظمة المراقبة الجماعية يسمى “الارتباط”.

فعندما تريد أتمتة -الأتمتة هي التشغيل الآلي- هذه الأنظمة، فأنت تريد أن تقوم هذه الآلة بعمل المهام بسرعة كبيرة دون النظر لاعتبارات أخرى، ولهذا تحتاج لمعرف ارتباط  معين وفي هذه الحالة، المعرف هو “العلاقة مع حماس” وجهاز حاسوب وخوارزمية قادرة بسرعة كبيرة على ربط هذا المعرف بأشياء أخرى بحسب أبراهام.

هذا النظام يتغلب على مشاكل العنصر البشري التي تحتاج أن تتحقق في هويات الأهداف للتأكد قبل ضربها حتى لا يتم ملاحقتهم كمجرمي حرب في حالة حدوث خطأ في تعريف الهدف، لذلك فالأسهل أن تجعل الآلة المسؤولة عن هذه الأخطاء.

وللتأكيد على أن هذه العقلية هي وراء استخدام هذا النظام ذكر أبراهام حادثة ألقى فيها مسؤول عسكري إسرائيلي رفيع المستوى، وهو رئيس مركز الذكاء الاصطناعي التابع للوحدة 8200، محاضرة في جامعة تل أبيب العام الماضي، حيث قال في تلك المحاضرة: “إن نظام الذكاء الاصطناعي الذي استخدمه الجيش الإسرائيلي في عام 2021 للعثور على الإرهابيين، يساعد الجيش على الخروج من عنق الزجاجة” والمراد بعنق الزجاجة هنا كمية المعلومات التي تحتاج التأكد منها والوقت الذي يحتاجه متخذ القرار البشرى لإصدار أمر القتل.

هل يمكن اعتبار هذه التكنولوجيا مسؤولة عن ظاهرة محو العائلات من السجل المدني؟

يعتقد أبراهام أن الاعتماد على الذكاء الاصطناعي هنا لتحديد تلك الأهداف، والطريقة المميتة التي تحدث بها الضباط عن كيفية استخدامهم للآلة، يمكن أن يكون جزءا من أسباب أنه بعد 6 أسابيع من السابع من أكتوبر/تشرين الأول، كانت إحدى السمات الرئيسية للحرب على غزة هي ظاهرة إبادة عائلات فلسطينية بأكملها داخل منازلها.

ويقول أبراهام في لقائه مع أيمي: “إذا نظرت إلى إحصائيات الأمم المتحدة، فإن أكثر من 50% من الضحايا، أكثر من 6 آلاف شخص في ذلك الوقت، كانوا عبارة عن مجموعة عائلات صغيرة قتلوا في قصف مركز، إنه شكل من أشكال تدمير وحدة الأسرة. وأعتقد أن تلك الآلة وطريقة استخدامها أدت إلى ذلك وقد اعتبروا “أضرارا جانبية”.

كم يجب أن يقتل من عوائل من تصنفهم الآلة بمنتسبي حماس والجهاد الإسلامي؟

يقول يوفال أبراهام ردا على سؤال حول طريقة استهداف منتسبي حماس والجهاد:” ما أخبرتني به المصادر هو أنه خلال تلك الأسابيع الأولى بعد شهر أكتوبر/تشرين الأول، بالنسبة للمسلحين ذوي الرتب المنخفضة في حماس، والذين تم تمييز الكثير منهم بعلامة خاصة تصنفهم على أنهم “المسلحون المزعومون” الذين تم تمييزهم بواسطة الآلة فإن أقسام القانون الدولي بالجيش أخبرت ضباط المخابرات، أنه مقابل كل هدف منخفض الرتبة تحدده الآلة، يسمح لهم بقتل ما يصل إلى 20 مدنيا، مقابل أي ناشط في حماس، وذلك بغض النظر عن رتبته أو أهميته”.

وقال أحد المصادر لأبراهام إن هناك أيضا قاصرين تم وضع علامة عليهم –ليس الكثير منهم، لكنه قال إن هذا احتمال، وإنه لا يوجد حد أقصى للعمر. وقال مصدر آخر إن الحد الأقصى يصل إلى 15 مدنيا للمسلحين ذوي الرتب المنخفضة.

أما بالنسبة لكبار قادة حماس، مثل قادة الألوية أو الفرق أو الكتائب فقد كانت الأرقام، ولأول مرة في تاريخ الجيش الإسرائيلي، في خانة الـ3 أرقام، وفقا للمصادر.

لذلك، على سبيل المثال، أيمن نوفل، الذي كان قائد اللواء المركزي في حماس، قال مصدر شارك في الضربة ضد ذلك الشخص إن الجيش سمح بقتل 300 مدني فلسطيني إلى جانب ذلك الشخص.

صور للشهيد أيمن نوفل

ويقول أبراهام إنهم في موقع “+972” ولوكال كول تحدثوا مع فلسطينيين كانوا شهودا على تلك الغارة، وتحدث الشهود عن 4 مبانٍ سكنية كبيرة جدا تم قصفها في ذلك اليوم، وقصفت شقق بأكملها مليئة بالعائلات.

ويأكد أبراهام لموقع “ديموكراسي ناو” أن المصدر أكد له أن عدد المدنيين الـ300 كان معروفا مسبقا للجيش الإسرائيلي، وقال أحد المصادر له إنه خلال تلك الأسابيع في البداية، لم يكن مبدأ التناسب بين القيمة لعنصر حماس مع الأضرار الجانبية، كما يسمونها بموجب القانون الدولي،”موجودًا”.

هل الجيش الأميركي أو التكنولوجيا الأميركية لديهما دور في هذه الأنظمة المصممة للقتل؟

يقول يوفال أبراهام في إجابته عنما إذا كان للجيش الأميركي أو التكنولوجيا الأميركية يد في هذه المجازر: “لا أعرف. وهناك بعض المعلومات التي لا أستطيع مشاركتها بشكل كامل، مثل هذه اللحظة. أنا أحقق، كما تعلمون، فيمن يشارك في تطوير هذه الأنظمة”.

ويتابع أبراهام:”ما يمكنني قوله لكم هو، بناء على الخبرة السابقة لحرب 2014 وحرب 2021، عندما تنتهي الحروب، يتم بعد ذلك بيع هذه الأنظمة للجيوش في جميع أنحاء العالم. وأعتقد، بغض النظر عن النتائج والعواقب المروعة لهذه الأنظمة في غزة، أعتقد حقا أن هناك خطرا على الإنسانية”.

ويضيف: “فمثل هذه الحرب القائمة على الذكاء الاصطناعي تسمح للناس بالهروب من المساءلة. إنه يسمح بتحديد أهداف، في الواقع، على نطاق واسع – كما تعلمون، تم تحديد الآلاف، 37 ألف شخص لاحتمال اغتيالهم. وهو يسمح بفعل ذلك والحفاظ على نوع من حدود القانون الدولي، لأن لديك آلة تجعلك هدفا مع أضرار جانبية مقبولة لكن هذا يفقد القانون كل معنى”.

كيفية تفاعل أنظمة الذكاء الاصطناعي مع الطائرات الهجومية المسيرة؟

يوفال أبراهام تحدث عن تكامل الأنظمة والأسلحة العسكرية مع الذكاء الاصطناعي: “كما تعلمون، لا أستطيع أن أتحدث عن كل شيء، لأننا نوعا ما –علينا دائما أن نفكر في الرقابة العسكرية في إسرائيل. كصحفيين إسرائيليين، نحن ملتزمون جدًا بذلك”.

وتابع: “لكن الأنظمة تتكامل مع بعضها. وكما تعلمون، إذا تم وضع علامة على شخص ما بأنه سيُقتل بواسطة الذكاء الاصطناعي، فيمكن أن يُقتل هذا الشخص بواسطة طائرة حربية، ويمكن أن يُقتل بواسطة طائرة مسيرة، ويمكن أن يقتل بواسطة دبابة على الأرض. هناك نوع من سياسة تبادل المعلومات الاستخبارية بين مختلف الوحدات. نعم، وحدات مختلفة ومشغلو أسلحة مختلفون”.

Israeli officials say there is wider consternation about armed factions operating inside Gaza (AP)

” أين أبي؟” تفوق على “الرجل البدين” في الغباء

يظهر التحقيق الذي قام به يوفال أبراهام أن الحرب الجارية في غزة ربما تشكل منعطفا خطيرا في استخدام الذكاء الاصطناعي بشكل غير أخلاقي في الوقت الذي تثار حول هذه التقنية واستخداماتها الكثير من المخاوف عالميا.

إن استخدام هذه التكنولوجيا في حرب غزة كحقل تجارب غير خاضع لسلطة القانون يجب أن يجعل العالم يقف على أرجله، خصوصا أنها تستحضر حادثة إلقاء قنبلة “الرجل البدين” على هيروشيما وناغازاكي في منتصف القرن الماضي والتي تسببت بقتل آلاف اليابانيين دون تمييز.

ومع تشابه أهداف قنبلة “الرجل البدين” الأميركية ونظام “أين أبي؟” الإسرائيلي وهو القتل دون تمييز إلا أن هناك اختلافا واضحا يجعل الجيش الإسرائيلي بحربه على غزة يفوز بجائزة أقذر إبادة جماعية عرفتها البشرية، ويجعل نظام “أين أبي؟” يفوز بجائزة أغبى سلاح عسكري.

فالرجل البدين من اسمه قنبلة غبية لم تستخدم أي تقنية سوى تقنية التدمير العشوائي وإلحاق الضرر بأكبر عدد من المدنيين بغض النظر عن انتماءاتهم، أما “أين أبي؟” ومن اسمِه أيضا فيظهر هدف مخفي قذر يقوم على إلحاق الأذى النفسي واستهداف الأسرة وليس الفرد، وكل ذلك باستخدام الذكاء الاصطناعي الذي من المفترض أن يُستخدم في تحديد أهدافه بدقة أكبر وهو مالم يحصل.

شارك المقال
اترك تعليقك

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *