تقوم لجنة التجارة الفيدرالية (FTC) بتحديث القواعد لمعالجة تهديدات الذكاء الاصطناعي Deepfake لسلامة المستهلك

فريق التحرير
كتب فريق التحرير 6 دقيقة للقراءة

اقترحت لجنة التجارة الفيدرالية الأمريكية (FTC) إجراء تحديثات جديدة على قاعدة التزييف العميق للذكاء الاصطناعي (AI) في 16 فبراير. وقالت الوكالة الحكومية إن التغييرات المقترحة في القاعدة ستحمي المستخدمين من انتحال هوية الذكاء الاصطناعي.

وفقًا لوثيقة “قاعدة انتحال هوية الحكومة والشركات”، فإن التزييف العميق للذكاء الاصطناعي الذي ينتحل هوية الشركات والحكومات قد يواجه إجراءات قانونية.

لا يُسمح باستخدام تقنية Deepfakes التي تعتمد على الذكاء الاصطناعي للشركات والوكالات الحكومية


وقالت لجنة التجارة الفيدرالية إن التغييرات ضرورية بسبب انتشار انتحال شخصيات الشركات والمسؤولين الحكوميين والمؤسسات شبه الحكومية.

الهدف النهائي هو حماية العملاء من الضرر المحتمل الذي قد يحدث من منصات الذكاء الاصطناعي التوليدية.

ستدخل القاعدة المحدثة حيز التنفيذ بعد 30 يومًا من نشرها في السجل الفيدرالي.

في الوقت الحالي، نرحب بالتعليقات العامة لمدة 60 يومًا القادمة. بمجرد سن القاعدة، سيتم تمكين لجنة التجارة الفيدرالية (FTC) من ملاحقة المحتالين الذين يحتالون على المستخدمين من خلال انتحال صفة الشركات المشروعة أو الوكالات الحكومية.

لقد قطعت صناعة الذكاء الاصطناعي شوطًا طويلاً منذ الإطلاق الشهير لـ ChatGPT في نوفمبر 2022 من قبل فريق OpenAI. أطلقت الشركة، بقيادة سام ألتمان، مؤخرًا منتجًا جديدًا يسمى Sora.

يستخدم Sora مطالبات الذكاء الاصطناعي لإنشاء مقاطع فيديو واقعية تحتوي على مشاهد مفصلة للغاية وحركات كاميرا معقدة ومشاعر نابضة بالحياة.

أدت أدوات الذكاء الاصطناعي القوية مثل تلك التي تقدمها OpenAI وGoogle إلى زيادة الإنتاجية للعديد من الأشخاص والشركات.

ومع ذلك، فقد أصبحت أيضًا أداة فعالة في أيدي مجرمي الإنترنت. باستخدام هذه الأداة، يمكن للمجرمين بسهولة تغيير مظهر أو صوت شخص ما لخداع الجمهور المستهدف.

سيكون تغيير قاعدة لجنة التجارة الفيدرالية (FTC) قاسيًا على هؤلاء المجرمين لضمان مواجهتهم لثقل القانون الكامل.

على الرغم من عدم وجود قاعدة محددة تجعل الأنشطة الترفيهية التي ينتجها الذكاء الاصطناعي غير قانونية، فقد اتخذ أعضاء مجلس الشيوخ الأمريكي كريس كونز، ومارشا بلاكبيرن، وتوم تيليس خطوات لمعالجة هذه القضية.

سرقت عمليات الاحتيال المنتحلة 2.7 مليار دولار في عام 2023


تشكل عمليات الاحتيال التي تنتحل الشخصية، على الرغم من عدم ظهورها غالبًا في الصحف الشعبية، تهديدًا كبيرًا للولايات المتحدة.

وفي معرض حديثها عن هذه القضية، أشارت لينا خان، رئيسة لجنة التجارة الفيدرالية، إلى أن استنساخ الصوت وعمليات الاحتيال التي تعتمد على الذكاء الاصطناعي آخذة في الارتفاع.

واقترح خان أن تحديث القواعد من شأنه أن يعزز قدرة الوكالة على معالجة عمليات الاحتيال التي تدعم الذكاء الاصطناعي والتي تنتحل هوية الأفراد.

وفي معرض تحديد رقم للمخاطر المحتملة التي تنطوي عليها عمليات الاحتيال التي تنتحل الشخصية، أشار خان إلى أن المواطنين الأمريكيين خسروا ما يزيد عن 2.7 مليار دولار في عام 2023.

وستمكن القواعد الجديدة أيضًا الوكالة من إعادة الأموال المسروقة إلى الضحايا المتضررين.

وفي الوقت نفسه، اقترحت رئيسة لجنة الاتصالات الفيدرالية (FCC)، جيسيكا روزنورسيل، تصنيف جميع المكالمات ذات الأصوات الناتجة عن الذكاء الاصطناعي على أنها غير قانونية.

جاء هذا الإعلان بعد ظهور تقارير تفيد بأن المواطنين الأمريكيين يتلقون مكالمات آلية تقلد الرئيس جو بايدن.

ونصحت المكالمة الناخبين الأمريكيين بعدم التصويت في الانتخابات الرئاسية الأمريكية.

وفي الوقت نفسه، في صناعة العملات المشفرة، تشكل تقنية التزييف العميق للذكاء الاصطناعي تهديدًا.

وفقًا لمايكل سايلور، تتم إزالة حوالي 80 مقطع فيديو مزيفًا لنفسه يوميًا. تظهره معظم مقاطع الفيديو وهو يطلب من المستخدمين إرسال عملة البيتكوين الخاصة بهم إلى عنوان المحفظة المنشور.

ومع ذلك، تظهر حالات جديدة يوميًا. حذر سايلور، الذي يشغل منصب رئيس شركة Microstrategy، مستثمري العملات المشفرة من هذا الاتجاه.

شارك المقال
اترك تعليقك

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *