اتفقت دول الاتحاد الأوروبي اليوم على التفاصيل الفنية لقانون الذكاء الاصطناعي، وهي أول محاولة في العالم لتنظيم التكنولوجيا وفقًا لنهج قائم على المخاطر، بعد اتفاق سياسي في ديسمبر. ويحتاج الآن إلى موافقة المشرعين في الاتحاد الأوروبي قبل أن تدخل القواعد حيز التنفيذ.
ما إذا كان سيتم التوصل إلى اتفاق اليوم أم لا ظل غير مؤكد حتى النهاية.
وكانت فرنسا على وجه الخصوص متشككة بشأن تنظيم ما يسمى بالنماذج الأساسية مثل ChatGPT؛ وعارضت الدولة أي التزام ملزم لمقدمي هذه النماذج. كما كانت لديها تحفظات بشأن متطلبات الشفافية والأسرار التجارية، ولكن في اجتماع اليوم لسفراء الاتحاد الأوروبي، تمت الموافقة على النص بالإجماع.
روبوتات الدردشة
تم استقبال نهج المفوضية الأوروبية القائم على المخاطر تجاه الذكاء الاصطناعي بشكل إيجابي بشكل عام في عام 2021، عندما تم تقديم كتاب القواعد لأول مرة، لكنه تعرض لضغوط في أواخر عام 2022، عندما أطلقت OpenAI ChatGPT وأثارت جدلاً عالميًا حول روبوتات الدردشة.
أضاف البرلمان الأوروبي مادة جديدة تتضمن قائمة واسعة من الالتزامات لضمان احترام هذه الأنظمة للحقوق الأساسية، حيث لم تتضمن خطة السلطة التنفيذية للاتحاد الأوروبي أي أحكام لنماذج المؤسسات.
ورداً على ذلك، تقدمت ألمانيا وفرنسا وإيطاليا باقتراح مضاد يفضل “التنظيم الذاتي الإلزامي من خلال مدونات قواعد السلوك” لنماذج المؤسسات.
وبعد موافقة اليوم، من المرجح أن يصوت البرلمان الأوروبي في لجنتي السوق الداخلية والحريات المدنية في منتصف فبراير/شباط، وفي الجلسة العامة في مارس/آذار أو إبريل/نيسان. وبعد ذلك، من المتوقع أن يدخل القانون حيز التنفيذ في وقت لاحق من هذا العام، ويتضمن فترة تنفيذ تصل إلى 36 شهرًا. سيبدأ تطبيق متطلبات نماذج الذكاء الاصطناعي بالفعل بعد عام واحد.
ويقسم القانون أنظمة الذكاء الاصطناعي إلى أربع فئات رئيسية حسب المخاطر المحتملة التي تشكلها على المجتمع.
ستخضع الأنظمة التي تعتبر عالية المخاطر لقواعد صارمة سيتم تطبيقها قبل دخولها إلى سوق الاتحاد الأوروبي. وبمجرد توفرها، ستكون تحت إشراف السلطات الوطنية، بدعم من مكتب منظمة العفو الدولية داخل المفوضية الأوروبية.
وسيتم تحرير تلك التي تندرج تحت فئة الحد الأدنى من المخاطر من قواعد إضافية، في حين أن تلك التي تم تصنيفها على أنها ذات مخاطر محدودة سيتعين عليها اتباع التزامات الشفافية الأساسية.