يحذر سام ألتمان من أن الذكاء الاصطناعي قد يقتلنا جميعًا. لكنه لا يزال يريد أن يستخدمه العالم

فريق التحرير
كتب فريق التحرير 11 دقيقة للقراءة

يعتقد سام ألتمان أن التكنولوجيا التي يقوم عليها منتج شركته الأكثر شهرة يمكن أن تؤدي إلى نهاية الحضارة الإنسانية.

في مايو/أيار، قدم سام ألتمان، الرئيس التنفيذي لشركة OpenAI، إلى غرفة الاستماع للجنة الفرعية بمجلس الشيوخ في واشنطن العاصمة، مع نداء عاجل إلى المشرعين: إنشاء قواعد تنظيمية مدروسة تحتضن الوعد القوي للذكاء الاصطناعي – في حين تخفف من خطر تفوقه على البشرية. لقد كانت لحظة حاسمة بالنسبة له ولمستقبل الذكاء الاصطناعي.

مع إطلاق ChatGPT من OpenAI في أواخر العام الماضي، برز ألتمان، البالغ من العمر 38 عامًا، بين عشية وضحاها باعتباره الطفل المدلل لمجموعة جديدة من أدوات الذكاء الاصطناعي التي يمكنها إنشاء صور ونصوص استجابة لمطالبات المستخدم، وهي تقنية تسمى الذكاء الاصطناعي التوليدي. بعد وقت قصير من إطلاقه، أصبح ChatGPT اسمًا مألوفًا مرادفًا تقريبًا للذكاء الاصطناعي نفسه. استخدمه الرؤساء التنفيذيون لصياغة رسائل البريد الإلكتروني، وقام الأشخاص بإنشاء مواقع ويب دون أي خبرة سابقة في البرمجة، واجتاز اختبارات من كليات الحقوق وإدارة الأعمال. ولديها القدرة على إحداث ثورة في كل الصناعات تقريبًا، بما في ذلك التعليم والتمويل والزراعة والرعاية الصحية، بدءًا من العمليات الجراحية وحتى تطوير اللقاحات الطبية.

لكن هذه الأدوات نفسها أثارت المخاوف بشأن كل شيء، بدءاً من الغش في المدارس وتشريد العاملين من البشر – وحتى التهديد الوجودي للبشرية. على سبيل المثال، دفع صعود الذكاء الاصطناعي خبراء الاقتصاد إلى التحذير من تحول هائل في سوق العمل. ومن الممكن في نهاية المطاف أتمتة ما يصل إلى 300 مليون وظيفة بدوام كامل في جميع أنحاء العالم بطريقة أو بأخرى من خلال الذكاء الاصطناعي التوليدي، وفقا لتقديرات جولدمان ساكس. وقد تختفي حوالي 14 مليون وظيفة في السنوات الخمس المقبلة وحدها، وفقا لتقرير صدر في إبريل/نيسان عن المنتدى الاقتصادي العالمي.

وفي شهادته أمام الكونجرس، قال ألتمان إن إمكانية استخدام الذكاء الاصطناعي للتلاعب بالناخبين واستهداف المعلومات المضللة كانت من بين “المجالات التي تثير قلقي الأكبر”.

بعد أسبوعين من جلسة الاستماع، انضم ألتمان إلى المئات من كبار علماء الذكاء الاصطناعي والباحثين وقادة الأعمال في التوقيع على رسالة من جملة واحدة تنص على ما يلي: “يجب أن يكون التخفيف من خطر الانقراض بسبب الذكاء الاصطناعي أولوية عالمية إلى جانب المخاطر الأخرى على المستوى المجتمعي مثل الأوبئة والفيروسات”. حرب نووية.”

وقد حظي هذا التحذير الصارخ بتغطية واسعة النطاق في الصحافة، حيث أشار البعض إلى أنه أظهر الحاجة إلى أخذ مثل هذه السيناريوهات المروعة على محمل الجد. كما سلط الضوء على ديناميكية مهمة في وادي السيليكون: كبار المسؤولين التنفيذيين في بعض أكبر شركات التكنولوجيا يخبرون الجمهور في نفس الوقت أن الذكاء الاصطناعي لديه القدرة على إحداث انقراض البشرية بينما يتسابقون أيضًا للاستثمار في هذه التكنولوجيا ونشرها في منتجات تصل إلى مليارات البشر. الناس.

على الرغم من أن ألتمان، رجل الأعمال المخضرم والمستثمر في وادي السيليكون، بقي بعيدًا عن الأضواء إلى حد كبير في السنوات السابقة، إلا أن الأنظار تحولت إليه في الأشهر الأخيرة باعتباره الطفل المدلل لثورة الذكاء الاصطناعي. وقد عرّضه هذا أيضًا للتقاضي,التدقيق التنظيمي والثناء والإدانة في جميع أنحاء العالم.

ومع ذلك، في ذلك اليوم، وصف ألتمان، أمام اللجنة الفرعية بمجلس الشيوخ، الطفرة الحالية للتكنولوجيا بأنها لحظة محورية.

“هل سيصبح (الذكاء الاصطناعي) مثل المطبعة التي نشرت المعرفة والقوة والتعلم على نطاق واسع عبر المشهد الطبيعي والتي مكنت الأفراد العاديين الذين أدىوا إلى مزيد من الازدهار، والتي أدت قبل كل شيء إلى قدر أكبر من الحرية؟” هو قال. “أم أنها ستكون أشبه بالقنبلة الذرية – طفرة تكنولوجية هائلة، ولكن العواقب (الوخيمة، الرهيبة) لا تزال تطاردنا حتى يومنا هذا؟”

لقد قدم ألتمان نفسه منذ فترة طويلة كشخص يدرك المخاطر التي يفرضها الذكاء الاصطناعي، وقد تعهد بالمضي قدما بشكل مسؤول. وهو واحد من العديد من الرؤساء التنفيذيين للتكنولوجيا الذين التقوا بقادة البيت الأبيض، بما في ذلك نائب الرئيس كامالا هاريس والرئيس جو بايدن، للتأكيد على أهمية تطوير الذكاء الاصطناعي الأخلاقي والمسؤول.

ويريد آخرون أن يتحرك ألتمان وOpenAI بحذر أكبر. حث إيلون موسك، الذي ساعد في تأسيس OpenAI قبل الانفصال عن المجموعة، وعشرات من قادة التكنولوجيا والأساتذة والباحثين مختبرات الذكاء الاصطناعي مثل OpenAI على وقف تدريب أقوى أنظمة الذكاء الاصطناعي لمدة ستة أشهر على الأقل، مشيرين إلى “مخاطر عميقة على المجتمع والإنسانية.” (وفي الوقت نفسه، تساءل بعض الخبراء عما إذا كان أولئك الذين وقعوا على الرسالة يسعون إلى الحفاظ على قدرتهم التنافسية على الشركات الأخرى).

وقال ألتمان إنه يتفق مع أجزاء من الرسالة، بما في ذلك أنه “يجب زيادة شريط الأمان”، لكنه قال إن التوقف المؤقت لن يكون “الطريقة المثلى” لمواجهة التحديات.

ومع ذلك، فإن شركة OpenAI تضع قدمها بقوة على دواسة الوقود. في الآونة الأخيرة، أفادت التقارير أن OpenAI ومصمم iPhone Jony Ive يجريان محادثات لجمع مليار دولار من المجموعة اليابانية SoftBank لجهاز الذكاء الاصطناعي ليحل محل الهاتف الذكي.

أولئك الذين يعرفون ألتمان وصفوه بأنه شخص يضع رهانات واضحة، حتى أنه أطلق عليه لقب “شركة يودا الناشئة” أو “كيفن بيكون وادي السيليكون”، بعد أن عمل مع الجميع في هذه الصناعة على ما يبدو. قال آرون ليفي، الرئيس التنفيذي لشركة Box السحابية للمؤسسات وصديق ألتمان القديم الذي جاء معه في عالم الشركات الناشئة، لشبكة CNN إن ألتمان “متعمق” ويريد مناقشة الأفكار والحصول على وجهات نظر مختلفة ويشجع التعليقات على ما لا نهاية. مهما كان يعمل عليه.

قال ليفي: “لقد وجدته دائمًا ينتقد نفسه بشكل لا يصدق بشأن الأفكار وعلى استعداد لتلقي أي نوع من التعليقات حول أي موضوع شارك فيه على مر السنين”.

لكن بيرن إليوت، المحلل في مؤسسة جارتنر للأبحاث، أشار إلى العبارة المبتذلة الشهيرة: هناك خطر في وضع كل بيضك في سلة واحدة، بغض النظر عن مدى ثقتك بها.

وأضاف: “أشياء كثيرة يمكن أن تحدث لسلة واحدة”.

عند إطلاق OpenAI، قال ألتمان لشبكة CNN في عام 2015 إنه يريد توجيه مسار الذكاء الاصطناعي، بدلاً من القلق بشأن الأضرار المحتملة وعدم القيام بأي شيء. قال: “أنام بشكل أفضل عندما أعلم أنه يمكنني الحصول على بعض التأثير الآن”.

وعلى الرغم من مكانته القيادية، يقول ألتمان إنه لا يزال يشعر بالقلق بشأن هذه التكنولوجيا. وقال في ملف تعريفي نشره عام 2016 في مجلة نيويوركر: “أنا أستعد للبقاء على قيد الحياة”، مشيرًا إلى العديد من سيناريوهات الكوارث المحتملة، بما في ذلك “الذكاء الاصطناعي الذي يهاجمنا”.

وقال: “لدي أسلحة وذهب ويوديد البوتاسيوم ومضادات حيوية وبطاريات ومياه وأقنعة غاز من قوات الدفاع الإسرائيلية، وقطعة أرض كبيرة في بيج سور يمكنني السفر إليها”.

ومع ذلك، يقول بعض خبراء صناعة الذكاء الاصطناعي إن تركيز الاهتمام على السيناريوهات المروعة البعيدة قد يصرف الانتباه عن الأضرار الأكثر إلحاحا التي يمكن أن يسببها جيل جديد من أدوات الذكاء الاصطناعي القوية للناس والمجتمعات. واعترف روان كوران، المحلل في شركة أبحاث السوق فوريستر، بالمخاوف المشروعة حول التأكد من أن بيانات التدريب، وخاصة بالنسبة للنماذج الضخمة، لديها الحد الأدنى من التحيز – أو لديها تحيز مفهوم ويمكن تخفيفه.

وقال: “إن فكرة “نهاية العالم للذكاء الاصطناعي” كسيناريو واقعي يمثل أي نوع من الخطر على البشرية – خاصة على المدى القصير والمتوسط، هي مجرد أساطير تكنولوجية”. “إن التركيز المستمر على هذا باعتباره أحد المخاطر الكبيرة التي تأتي مع تقدم الذكاء الاصطناعي يصرف الانتباه عن التحديات الحقيقية التي نواجهها اليوم للحد من الأضرار الحالية والمستقبلية الناجمة عن البيانات والنماذج التي يتم تطبيقها بشكل غير عادل من قبل الجهات البشرية.”

في ربما يكون أكبر جهد شامل حتى الآن، كشف الرئيس بايدن عن أمر تنفيذي في وقت سابق من هذا الأسبوع يطلب من مطوري أنظمة الذكاء الاصطناعي القوية مشاركة نتائج اختبارات السلامة الخاصة بهم مع الحكومة الفيدرالية قبل نشرها للجمهور، إذا كانت تشكل الأمن القومي. أو مخاطر اقتصادية أو صحية.

بعد جلسة الاستماع في مجلس الشيوخ، أعربت إميلي بندر، الأستاذة في جامعة واشنطن ومديرة مختبر اللغويات الحاسوبية، عن مخاوفها بشأن الشكل الذي يبدو عليه المستقبل مع الذكاء الاصطناعي حتى لو كان يخضع لرقابة شديدة. “إذا كانوا يعتقدون بصدق أن هذا يمكن أن يؤدي إلى انقراض البشرية، فلماذا لا يتوقفون؟” قالت.

وقالت مارغريت أومارا، مؤرخة التكنولوجيا والأستاذة في جامعة واشنطن، إن صنع السياسات الجيدة يجب أن يعتمد على وجهات نظر ومصالح متعددة، وليس فقط من قبل شخص واحد أو عدد قليل من الأشخاص، ويجب أن يتم تشكيله مع وضع المصلحة العامة في الاعتبار.

قال أومارا: “إن التحدي الذي يواجه الذكاء الاصطناعي هو أن عددًا قليلاً جدًا من الأشخاص والشركات يفهمون حقًا كيفية عمله وما هي الآثار المترتبة على استخدامه”، مشيرًا إلى أوجه التشابه مع عالم الفيزياء النووية قبل وأثناء تطوير مشروع مانهاتن للذكاء الاصطناعي. القنبلة الذرية.

ومع ذلك، قال أومارا إن العديد من الأشخاص في صناعة التكنولوجيا يشجعون ألتمان ليكون القوة لإحداث ثورة في المجتمع باستخدام الذكاء الاصطناعي مع جعله آمنًا.

وقالت: “هذه المرة تشبه ما فعله جيتس وجوبز في لحظة الحوسبة الشخصية في أوائل الثمانينيات، ولحظة البرمجيات في التسعينيات”. “هناك أمل حقيقي في أن نتمكن من الحصول على التكنولوجيا التي تجعل الأمور أفضل، إذا كان الأشخاص الذين يصنعونها أناسًا طيبين وأذكياء ويهتمون بالأشياء الصحيحة. يجسد سام ذلك بالنسبة للذكاء الاصطناعي في الوقت الحالي.

يعتمد العالم على ألتمان للعمل بما يخدم مصلحة البشرية باستخدام تقنية باعترافه الشخصي يمكن أن تكون سلاحًا للدمار الشامل. على الرغم من أنه قد يكون قائدًا ذكيًا ومؤهلًا، إلا أنه لا يزال كذلك: شخص واحد.

شارك المقال
اترك تعليقك

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *