أجرى فريق من الباحثين من البرازيل مراجعة منهجية وتحليلا للمبادئ التوجيهية العالمية لاستخدام الذكاء الاصطناعي، لدراسة الوضع العالمي لأخلاقيات هذه التقنية الحديثة.
وأشار الباحثون في الورقة التي نشرتها دورية “باترنز” الجمعة 13 أكتوبر/تشرين الأول 2023، إلى أنهم وجدوا أنه في حين أن معظم المبادئ التوجيهية لتقنيات الذكاء الاصطناعي تقدر الخصوصية والشفافية والمساءلة، فإن القليل جدا منها يقدر الصدق أو الملكية الفكرية أو حقوق الأطفال.
وفي الوقت الذي نجحت فيه معظم المبادئ التوجيهية للاستخدام الأخلاقي للذكاء الاصطناعي بتعريف المبادئ والقيم الأخلاقية، إلا أنها لم تقترح أساليب عملية لتنفيذها ولم تدفع باتجاه تنظيم ملزم قانونا.
يقول عالم الاجتماع في الجامعة البابوية الكاثوليكية في ريو غراندي دو سول بالبرازيل، والمؤلف المشارك جيمس ويليام سانتوس في البيان الصحفي المنشور على موقع “فيز دوت أورغ” إن “وضع مبادئ توجيهية أخلاقية وهياكل حوكمة واضحة لنشر الذكاء الاصطناعي في جميع أنحاء العالم هو الخطوة الأولى لتعزيز الثقة، والتخفيف من مخاطره، وضمان توزيع فوائده بشكل عادل”.
تحليل 200 وثيقة
ولتحديد إذا ما كان هناك إجماع عالمي في ما يتعلق بالاستخدام الأخلاقي للذكاء الاصطناعي، والمساعدة في توجيه هذا الإجماع، أجرى الباحثون مراجعة منهجية للسياسات والمبادئ التوجيهية الأخلاقية المنشورة بين عامي 2014 و2022.
وقد حددوا 200 وثيقة تتعلق بأخلاقيات الذكاء الاصطناعي وإدارته من 37 دولة و6 قارات مكتوبة أو مترجمة إلى 5 لغات مختلفة (الإنجليزية والبرتغالية والفرنسية والألمانية والإسبانية)، وتضمنت هذه الوثائق توصيات وأدلة عملية وأطر السياسات والمعالم القانونية ومدونات قواعد السلوك.
بعد ذلك، أجرى الفريق تحليلا لهذه الوثائق لتحديد المبادئ الأخلاقية الأكثر شيوعا، وفحص توزيعها العالمي، وتقييم التحيزات من حيث نوع المنظمات أو الأشخاص الذين أنتجوا هذه الوثائق.
ووجد الباحثون أن المبادئ الأكثر شيوعا التي نصت عليها الوثائق هي الشفافية، والأمن، والعدالة، والخصوصية، والمساءلة، والتي ظهرت في 82.5%، 78%، 75.5%، 68.5%، و67% من الوثائق، على التوالي.
وكانت المبادئ الأقل شيوعا هي حقوق العمل، والصدق، والملكية الفكرية، وحقوق الأطفال/ المراهقين، والتي ظهرت في 19.5%، و8.5%، و7%، و6% من الوثائق، ويؤكد المؤلفون أن هذه المبادئ تستحق مزيدا من الاهتمام.
مبادئ توجيهية طوعية
وكانت معظم المبادئ التوجيهية (96%) التي نصت عليها الوثائق “معيارية” -تصف القيم الأخلاقية التي تنبغي مراعاتها في أثناء تطوير الذكاء الاصطناعي واستخدامه- في حين أوصى 2% فقط بأساليب عملية لتنفيذ أخلاقيات الذكاء الاصطناعي، واقترح 4.5% فقط أشكالا ملزمة قانونا لتنظيم الذكاء الاصطناعي.
كما حدد الباحثون أيضا العديد من التحيزات فيما يتعلق بمكان إنتاج هذه المبادئ التوجيهية ومن قام بإنتاجها.
جغرافيًا، جاءت معظم المبادئ التوجيهية من دول في أوروبا الغربية (31.5%)، وأميركا الشمالية (34.5%)، وآسيا (11.5%)، في حين أن أقل من 4.5% من الوثائق نشأت في أميركا الجنوبية وأفريقيا وأوقيانوسيا مجتمعة. ويشير ذلك إلى أن أجزاء كثيرة من الجنوب العالمي ممثلة تمثيلا ناقصا في الخطاب العالمي حول أخلاقيات الذكاء الاصطناعي.
وفي بعض الحالات، يشمل ذلك البلدان التي تشارك بشكل كبير في أبحاث وتطوير الذكاء الاصطناعي، مثل الصين، التي زاد إنتاجها من الأبحاث المتعلقة بالذكاء الاصطناعي بنسبة تزيد عن 120% بين عامي 2016 و2019.
أصوات الجنوب والتطبيق العملي
تقول المؤلفة المشاركة كاميلا جالفاو من الجامعة البابوية الكاثوليكية في ريو غراندي دو سول، “يُظهر بحثنا ويعزز دعوتنا لجنوب الكرة الأرضية للاستيقاظ، ونداء لشمال الكرة الأرضية ليكون مستعدا للاستماع إلينا والترحيب بنا”.
ويقول الباحثون إن الجهود المستقبلية يجب أن تركز على كيفية التنفيذ العملي لمبادئ أخلاقيات الذكاء الاصطناعي. يقول سانتوس “الخطوة التالية هي بناء جسر بين المبادئ الأخلاقية المجردة والتطوير العملي لأنظمة وتطبيقات الذكاء الاصطناعي”.