تحذر الرسالة المفتوحة للمطلعين على OpenAI من “المخاطر الجسيمة” وتدعو إلى حماية المبلغين عن المخالفات

فريق التحرير
كتب فريق التحرير 4 دقيقة للقراءة

تطالب مجموعة من المطلعين على OpenAI بأن تكون شركات الذكاء الاصطناعي أكثر شفافية بشأن “المخاطر الجسيمة” للذكاء الاصطناعي – وأن تحمي الموظفين الذين يعبرون عن مخاوفهم بشأن التكنولوجيا التي يبنونها.

“تمتلك شركات الذكاء الاصطناعي حوافز مالية قوية لتجنب الرقابة الفعالة”، كما جاء في الرسالة المفتوحة التي تم نشرها يوم الثلاثاء والتي وقعها موظفون حاليون وسابقون في شركات الذكاء الاصطناعي بما في ذلك OpenAI، مبتكر أداة ChatGPT الفيروسية.

كما دعوا شركات الذكاء الاصطناعي إلى تعزيز “ثقافة النقد المفتوح” التي ترحب بالأشخاص الذين يتحدثون عن مخاوفهم، بدلا من معاقبتهم، خاصة وأن القانون يكافح من أجل اللحاق بالتكنولوجيا سريعة التقدم.

لقد اعترفت الشركات بـ “المخاطر الجسيمة” التي يشكلها الذكاء الاصطناعي – بدءًا من التلاعب وحتى فقدان السيطرة، وهو ما يُعرف باسم “التفرد”، والذي قد يؤدي إلى وكتبت المجموعة أنه من المحتمل أن يؤدي ذلك إلى انقراض الإنسان، لكن ينبغي عليهم بذل المزيد من الجهد لتثقيف الجمهور حول المخاطر وإجراءات الحماية.

وكما هو القانون حاليا قال موظفو الذكاء الاصطناعي إنهم لا يعتقدون أن شركات الذكاء الاصطناعي ستشارك المعلومات المهمة حول التكنولوجيا طوعًا.

من الضروري إذن أن يتحدث الموظفون الحاليون والسابقون – وأن لا تقوم الشركات بفرض اتفاقيات “الاستخفاف” أو الانتقام بطريقة أخرى من أولئك الذين يعبرون عن آرائهم. المخاوف المتعلقة بالمخاطر. وكتبت المجموعة: “الحماية العادية للمبلغين عن المخالفات ليست كافية لأنها تركز على النشاط غير القانوني، في حين أن العديد من المخاطر التي نشعر بالقلق إزاءها لم يتم تنظيمها بعد”.

وتأتي رسالتهم في الوقت الذي تتحرك فيه الشركات بسرعة لتطبيق أدوات الذكاء الاصطناعي التوليدية في منتجاتها، بينما يتصارع المنظمون الحكوميون والشركات والمستهلكون مع الاستخدام المسؤول. وفي الوقت نفسه، دعا العديد من خبراء التكنولوجيا والباحثين والقادة إلى توقف مؤقت في سباق الذكاء الاصطناعي، أو إلى تدخل الحكومة وفرض وقف اختياري.

ردًا على الرسالة، قال المتحدث باسم OpenAI لشبكة CNN إنها “فخورة بسجلنا الحافل في توفير أنظمة الذكاء الاصطناعي الأكثر قدرة والأكثر أمانًا، ونؤمن بنهجنا العلمي في معالجة المخاطر، مضيفًا أن الشركة توافق على أن “النقاش الدقيق أمر بالغ الأهمية نظرًا لأهمية هذه التكنولوجيا.”

أشارت OpenAI إلى أن لديها خطًا ساخنًا مجهولًا للنزاهة ولجنة للسلامة والأمن يقودها أعضاء مجلس إدارتها وقادة السلامة من الشركة. لا تبيع الشركة معلومات شخصية أو تنشئ ملفات تعريف للمستخدمين أو تستخدم تلك البيانات لاستهداف أي شخص أو بيع أي شيء.

لكن دانييل زيغلر، أحد منظمي الرسالة ومهندس التعلم الآلي الأوائل الذي عمل في OpenAI بين عامي 2018 و2021، قال لشبكة CNN إنه من المهم أن تظل متشككًا في التزام الشركة بالشفافية.

وقال: “من الصعب حقاً أن نعرف من الخارج مدى جديتهم في أخذ التزاماتهم فيما يتعلق بتقييمات السلامة وتحديد الأضرار المجتمعية، خاصة وأن هناك ضغوطاً تجارية قوية للتحرك بسرعة كبيرة”. “من المهم حقًا أن يكون لديك الثقافة والعمليات الصحيحة حتى يتمكن الموظفون من التحدث بطرق مستهدفة عندما تكون لديهم مخاوف.”

ويأمل أن يعلن المزيد من المتخصصين في صناعة الذكاء الاصطناعي عن مخاوفهم نتيجة لهذه الرسالة.

وفي الوقت نفسه، من المتوقع على نطاق واسع أن تعلن شركة Apple عن شراكة مع OpenAI في مؤتمرها السنوي للمطورين العالميين لجلب الذكاء الاصطناعي التوليدي إلى iPhone.

وقال تيم كوك، الرئيس التنفيذي لشركة أبل، في أحدث مكالمة هاتفية لأرباح الشركة في أوائل شهر مايو: “إننا نعتبر الذكاء الاصطناعي المنتج فرصة رئيسية عبر منتجاتنا ونعتقد أن لدينا مزايا تميزنا هناك”.

شارك المقال
اترك تعليقك

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *