يشرح عضو مجلس إدارة OpenAI السابق سبب إقالة الرئيس التنفيذي سام ألتمان

فريق التحرير
كتب فريق التحرير 6 دقيقة للقراءة

خرجت عضوة مجلس إدارة OpenAI السابقة، هيلين تونر، التي ساعدت في الإطاحة بالرئيس التنفيذي سام ألتمان في نوفمبر، عن صمتها هذا الأسبوع عندما تحدثت في بث صوتي عن الأحداث داخل الشركة التي أدت إلى إقالة ألتمان.

أحد الأمثلة التي شاركتها: عندما أصدرت OpenAI ChatGPT في نوفمبر 2022، لم يتم إبلاغ مجلس الإدارة مسبقًا واكتشف ذلك على Twitter. وقال تونر أيضًا إن ألتمان لم يخبر مجلس الإدارة بأنه يمتلك صندوق OpenAI لبدء التشغيل.

تمت إعادة تسمية ألتمان كرئيس تنفيذي بعد أقل من أسبوع من إقالته، لكن تعليقات تونر تعطي نظرة ثاقبة للقرار للمرة الأولى.

قال تونر في برنامج TED AI Show: “إن مجلس الإدارة عبارة عن مجلس غير ربحي تم إنشاؤه بشكل صريح لغرض التأكد من أن مهمة الصالح العام للشركة كانت أساسية، وتأتي في المقام الأول – على الأرباح ومصالح المستثمرين وأشياء أخرى”. “البودكاست صدر يوم الثلاثاء.

وقالت: “لكن لسنوات، جعل سام من الصعب جدًا على مجلس الإدارة القيام بهذه المهمة فعليًا من خلال حجب المعلومات، وتحريف الأشياء التي كانت تحدث في الشركة، وفي بعض الحالات الكذب الصريح على مجلس الإدارة”.

وقال تونر إن ألتمان قدم لمجلس الإدارة “معلومات غير دقيقة حول العدد القليل من عمليات السلامة الرسمية التي طبقتها الشركة” في مناسبات متعددة.

وقال تونر: “في أي حالة فردية، كان بإمكان سام دائمًا التوصل إلى نوع من التفسير غير الضار لسبب عدم وجود مشكلة كبيرة، أو سوء تفسيرها، أو أي شيء آخر”. “لكن النتيجة النهائية هي أنه بعد سنوات من هذا النوع من الأشياء، توصلنا جميعًا نحن الأربعة الذين طردوه إلى نتيجة مفادها أننا لا نستطيع تصديق الأشياء التي كان سام يخبرنا بها، وهذا مجرد مكان غير عملي على الإطلاق للتواجد فيه”. كمجلس إدارة – وخاصة مجلس الإدارة الذي من المفترض أن يوفر إشرافًا مستقلاً على الشركة، وليس فقط مساعدة الرئيس التنفيذي على جمع المزيد من الأموال”.

وأوضح تونر أن مجلس الإدارة عمل على تحسين المشكلات. وقالت إنه في أكتوبر، أي قبل شهر من الإطاحة، أجرى مجلس الإدارة محادثات مع اثنين من المديرين التنفيذيين الذين نقلوا تجاربهم مع ألتمان لم يكونوا مرتاحين لمشاركتها من قبل، بما في ذلك لقطات الشاشة وتوثيق التفاعلات الإشكالية والأكاذيب.

وقال تونر: “بدأ الاثنان فجأة بإخبارنا… كيف أنهم لا يثقون به، وعن الأجواء السامة التي كان يخلقها”. “لقد استخدموا عبارة” الإساءة النفسية “، لإخبارنا أنهم لا يعتقدون أنه كان الشخص المناسب لقيادة الشركة إلى AGI، وأخبرونا أنهم ليس لديهم أي اعتقاد بأنه يستطيع أو سيتغير.”

الذكاء العام الاصطناعي، أو AGI، هو مصطلح واسع يشير إلى نوع من الذكاء الاصطناعي يتفوق على القدرات البشرية في مختلف المهام المعرفية.

ولم يكن المتحدث باسم OpenAI متاحًا على الفور للتعليق.

في وقت سابق من هذا الشهر، قامت شركة OpenAI بحل فريقها الذي ركز على المخاطر طويلة المدى للذكاء الاصطناعي بعد عام من إعلان الشركة عن المجموعة. جاءت هذه الأخبار بعد أيام من إعلان قائدي الفريق، المؤسس المشارك لـ OpenAI، إيليا سوتسكيفر وجان ليك، عن مغادرتهما الشركة الناشئة المدعومة من مايكروسوفت. كتب Leike، الذي أعلن منذ ذلك الحين انضمامه إلى منافس الذكاء الاصطناعي Anthropic، يوم الجمعة أن “ثقافة وعمليات السلامة في OpenAI قد أخذت المقعد الخلفي أمام المنتجات اللامعة”.

تأتي تعليقات تونر والمغادرة رفيعة المستوى في أعقاب أزمة القيادة العام الماضي.

في نوفمبر/تشرين الثاني، أقال مجلس إدارة OpenAI ألتمان، قائلاً إنه أجرى “عملية مراجعة تداولية” وأن ألتمان “لم يكن صريحاً باستمرار في اتصالاته مع مجلس الإدارة، مما أعاق قدرته على ممارسة مسؤولياته”.

وجاء في البيان: “لم يعد مجلس الإدارة يثق في قدرته على مواصلة قيادة OpenAI”.

وذكرت صحيفة وول ستريت جورنال ووسائل إعلام أخرى أنه في حين ركز سوتسكيفر تركيزه على ضمان أن الذكاء الاصطناعي لن يضر البشر، كان آخرون، بما في ذلك ألتمان، أكثر حرصا على المضي قدما في تقديم التكنولوجيا الجديدة.

أدت إزالة ألتمان إلى الاستقالات والتهديدات بالاستقالات، بما في ذلك رسالة مفتوحة موقعة من جميع موظفي OpenAI تقريبًا، وضجة من المستثمرين، بما في ذلك مايكروسوفت. في غضون أسبوع، عاد ألتمان وخرج عضوا مجلس الإدارة تونر وتاشا مكولي، اللذان صوتا لإقالة ألتمان. تخلى Sutskever عن مقعده في مجلس الإدارة وظل ضمن طاقم العمل حتى أعلن رحيله في 14 مايو. ولا يزال آدم دانجيلو، الذي صوت أيضًا لإقالة ألتمان، عضوًا في مجلس الإدارة.

في شهر مارس، أعلنت شركة OpenAI عن مجلس إدارتها الجديد، الذي يضم ألتمان، وعن اختتام تحقيق داخلي أجرته شركة المحاماة WilmerHale في الأحداث التي أدت إلى الإطاحة بألتمان.

لم تنشر OpenAI تقرير تحقيق WilmerHale ولكنها لخصت النتائج التي توصلت إليها.

وقال بريت تايلور رئيس مجلس إدارة OpenAI في ذلك الوقت، في إشارة إلى الرئيس والمؤسس المشارك جريج بروكمان: “خلصت المراجعة إلى وجود انهيار كبير في الثقة بين مجلس الإدارة السابق وسام وجريج”. وأضاف تايلور أن المراجعة “خلصت أيضًا إلى أن مجلس الإدارة تصرف بحسن نية… (و) لم يتوقع بعض عدم الاستقرار الذي أدى بعد ذلك”.

شارك المقال
اترك تعليقك

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *