تحدد هيئة مراقبة البيانات في الاتحاد الأوروبي شروط الاستخدام المشروع لنموذج الذكاء الاصطناعي للبيانات الشخصية

فريق التحرير
كتب فريق التحرير 4 دقيقة للقراءة

استجاب مجلس EDPB للسلطة الأيرلندية، موضحًا نموذج إخفاء الهوية للذكاء الاصطناعي، وشرعية استخدام البيانات الشخصية لتطويرها مع ترك المجال لسلطات حماية البيانات الوطنية.

إعلان

أوضحت وكالة حماية البيانات التابعة للاتحاد الأوروبي الظروف التي قد تسمح لتطوير نماذج الذكاء الاصطناعي بالوصول إلى البيانات الشخصية في رأي يحدد اختبارًا من ثلاث مراحل للمصلحة المشروعة لهذا الاستخدام.

الرأي الذي نشره هذا الأسبوع المجلس الأوروبي لحماية البيانات (EDPB) – الهيئة التنسيقية لمنظمي الخصوصية الوطنيين عبر الاتحاد الأوروبي – جاء في أعقاب طلب من هيئة حماية البيانات الأيرلندية في نوفمبر، للحصول على توضيح حول ما إذا كان من الممكن استخدام البيانات الشخصية في التدريب على الذكاء الاصطناعي. دون خرق قانون الاتحاد الأوروبي. تعمل هيئة حماية البيانات الأيرلندية كهيئة رقابية للعديد من أكبر شركات التكنولوجيا الأمريكية، التي يقع مقرها الرئيسي في دبلن.

إعادة التأكيد على عدم الكشف عن هوية النماذج و”المصلحة المشروعة”

ويوضح الرأي أنه لكي يتم اعتبار نموذج الذكاء الاصطناعي مجهول الهوية حقًا، فإن احتمالية التعرف على الأفراد من خلال البيانات يجب أن تكون “ضئيلة”.

أنشأ EDPB أيضًا إطارًا لتحديد متى قد تعتبر الشركة أن لديها “مصلحة مشروعة” مما يمنحها أساسًا قانونيًا صالحًا لمعالجة البيانات الشخصية لتطوير نماذج الذكاء الاصطناعي ونشرها دون الحصول على موافقة صريحة من الأفراد.

يتطلب اختبار الخطوات الثلاث لتقييم المصلحة المشروعة تحديد المصلحة، وتقييم ما إذا كانت المعالجة ضرورية لتحقيقها، وضمان عدم تجاوز المصلحة للحقوق الأساسية للأفراد. وشدد مجلس EDPB أيضًا على أهمية الشفافية، وضمان إبلاغ الأفراد بكيفية جمع بياناتهم واستخدامها.

وشدد EDPB في رأيه على أنه في النهاية تقع على عاتق سلطات حماية البيانات الوطنية مسؤولية التقييم، على أساس كل حالة على حدة، ما إذا كان القانون العام لحماية البيانات قد تم انتهاكه أثناء معالجة البيانات الشخصية لتطوير الذكاء الاصطناعي.

وينص الرأي على أن النماذج التي تم تطويرها باستخدام البيانات المستخرجة ومعالجتها بشكل غير قانوني قد لا يتم نشرها.

ردود الفعل من المجتمع المدني والصناعة

وقد رحبت جمعية صناعة الكمبيوتر والاتصالات (CCIA) بالحكم، والتي تمثل شركات التكنولوجيا الكبرى، بما في ذلك تلك التي تعمل على تطوير نماذج الذكاء الاصطناعي. “وهذا يعني أنه يمكن تدريب نماذج الذكاء الاصطناعي بشكل صحيح باستخدام البيانات الشخصية. وفي الواقع، يعد الوصول إلى البيانات عالية الجودة أمرًا ضروريًا لضمان دقة مخرجات الذكاء الاصطناعي، وللتخفيف من التحيزات، ولإظهار تنوع المجتمع الأوروبي. ومع ذلك، دعت CCIA أيضًا إلى مزيد من الوضوح القانوني لتجنب عدم اليقين في المستقبل.

ومع ذلك، أثار المدافعون عن الحقوق الرقمية مخاوف، خاصة بشأن عدم الكشف عن هوية نماذج الذكاء الاصطناعي. وقال إيتكساسو دومينغيز دي أولازابال، مستشار السياسات في EDRi: “على الرغم من أن هذا قد يبدو معقولاً من الناحية النظرية، إلا أنه من غير الواقعي ضبط مثل هذا التمييز ليتوافق مع الحد المحدد مسبقًا، مما يخلق تحديات كبيرة في ضمان الحماية الفعالة للبيانات”.

وسلط دومينغيز دي أولازابال الضوء أيضًا على السلطة التقديرية الواسعة الممنوحة للسلطات الوطنية، محذرًا من أنها قد تؤدي إلى تنفيذ غير متسق. “لقد أثبت عدم التوافق هذا بالفعل أنه يمثل مشكلة بموجب اللائحة العامة لحماية البيانات، مما يهدد الحماية الفعالة للحقوق الأساسية. يعد التنسيق أمرًا أساسيًا لضمان دعم الحقوق الرقمية عالميًا.

التطلع إلى المستقبل: إرشادات تجريف الويب

ومن المتوقع أن يصدر EDPB المزيد من الإرشادات لمعالجة القضايا الناشئة، مثل استخراج البيانات من الويب – الاستخراج الآلي للبيانات من مواقع الويب، بما في ذلك النصوص والصور والروابط، لتدريب نماذج الذكاء الاصطناعي وتعزيز قدراتها. ستكون هذه التوضيحات الإضافية حاسمة حيث يستمر تطوير الذكاء الاصطناعي في الاعتماد بشكل كبير على كميات هائلة من البيانات.

شارك المقال
اترك تعليقك

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *