بين الانفتاح والسرية.. كيف ستشكل سياسات الذكاء الاصطناعي مستقبلنا؟

فريق التحرير
كتب فريق التحرير 16 دقيقة للقراءة

تخيّل عالما تكون فيه أبواب الإبداع والابتكار مفتوحة للجميع دون قيود، مقابل عالم آخر تتخفّى فيه الأسرار خلف أسوار مشدّدة. هذه ليست مجرد رؤية خيالية من أفلام الخيال العلمي، بل هي واقع يعيشه الذكاء الاصطناعي اليوم.

بين النماذج المفتوحة التي تشجع الشفافية والمشاركة، والمغلقة التي تحكمها السرية والسعي للسيطرة، تتشكل ملامح مستقبل التكنولوجيا.

لطالما كانت الشفافية معيارا رئيسيا في أبحاث الذكاء الاصطناعي، ولكن التطورات السريعة أثارت مخاوف بشأن المخاطر المحتملة لإطلاق النماذج الأكثر تقدما.

بعض الشركات مثل “أوبن إيه آي” تفضل إبقاء نماذجها مغلقة لأغراض تجارية، في حين تقدم شركات أخرى استجابات مختلفة، حيث إن بعض النماذج مثل “شن شيلا” (Chinchilla) من “غوغل ديب مايند” (Google DeepMind) لم تطرح بالكامل، وأخرى مثل “جي بي تي فور أو” (GPT-4o) تتيح وصولا محدودا، بينما تقدم “لاما” (Llama) من “ميتا” نموذجا مفتوحا مع قيود على الاستخدام.

ومع تزايد الاعتماد على الذكاء الاصطناعي في مختلف جوانب الحياة، تصبح الأسئلة عن الشفافية والتحكم والمخاطر المرتبطة بإطلاق هذه النماذج أكثر إلحاحا.

ما الفرق بين النماذج المغلقة والمفتوحة في الذكاء الاصطناعي؟

تعرّف منظمة “إيبوك إيه آي” (Epoch.ai) البحثية غير الربحية نماذج الذكاء الاصطناعي المفتوحة بأنها تلك التي تتيح تنزيل أوزان النماذج، بما في ذلك ذات التراخيص التقييدية.

أما النماذج المغلقة، فتعرّفها بأنها النماذج التي لم يتمّ إصدارها علنا، أو التي يمكن الوصول إليها فقط من خلال واجهة برمجة التطبيقات “إيه بي آي” (API) أو عبر خدمات مستضافة.

في السياق نفسه، يتفاوت مستوى الوصول إلى النماذج بناء على ما إذا كانت الأوزان مفتوحة أو مغلقة، أو إذا كانت تشمل الأكواد والبيانات.

وعادة ما تأتي النماذج التي تحتوي على أوزان قابلة للتنزيل مع تراخيص قد تكون مرنة للغاية، أو قد تتضمن قيودا على بعض الاستخدامات، مثل السلوك الضار، أو استخدام مخرجات النموذج لتدريب نماذج أخرى، أو حتى حظر الاستخدام التجاري بشكل كامل.

في المقابل، قد تكون النماذج المغلقة غير متاحة تماما، أو قد تتوفر من خلال منتجات أو واجهات برمجة تطبيقات محددة.

وتأتي أفضل نماذج الذكاء الاصطناعي اليوم، مثل “شات جي بي تي” من “أوبن إيه آي”، و”كلود” (Claude) من “أنثروبيك” (Anthropic) مع شروط محددة، حيث يتحكم منشئوها في كيفية الوصول إليها للحد من استخدامها بطرق ضارة.

وهذا يختلف تماما عن النماذج المفتوحة، التي يمكن تنزيلها وتعديلها واستخدامها من قبل أي شخص لأغراض متعددة تقريبا.

فجوة الأداء بين النماذج المفتوحة والمغلقة.. تأثيرات على السياسات والمخاطر الأمنية

وجدت دراسة جديدة أجرتها منظمة “إيبوك إيه آي” (Epoch AI) أن النماذج المفتوحة المتاحة اليوم متأخرة عن أفضل النماذج المغلقة بحوالي عام، وعلّق بن كوتير الباحث الرئيسي في التقرير بأن “أفضل نموذج مفتوح اليوم يعادل النماذج المغلقة بحوالي عام”.

فعلى سبيل المثال، نموذج “لاما 3.1 405 بي” (Llama 3.1 405B) من “ميتا” الذي تمّ إصداره في يوليو/تموز الماضي استغرق نحو 16 شهرا لمضاهاة قدرات النسخة الأولى من “جي بي تي 4” (GPT-4).

وإذا تم إصدار الجيل التالي من الذكاء الاصطناعي من ميتا “لاما 4” (Llama 4) كنموذج مفتوح كما هو متوقع على نطاق واسع، فإن الفارق قد يتقلص بشكل أكبر.

تأتي هذه النتائج في وقت يكافح فيه صانعو السياسات للتعامل مع أنظمة الذكاء الاصطناعي القوية بشكل متزايد، حيث يعرب الخبراء عن قلقهم من أن هذه الأنظمة قد تتطور لتكون يوما ما قادرة على هندسة الأوبئة، وتنفيذ هجمات إلكترونية معقدة، والتسبب في أضرار أخرى للبشر، بحسب ما جاء في ورقة الدراسة.

Woman use the power of AI on laptop and smartphone. Chat concept AI. Artificial Intelligence. Futuristic technology transformation. Write a prompt to generate images.

ماذا حدث داخل مختبر “إيبوك إيه آي”؟

في سياق دراستهم، قام الباحثون في منظمة “إيبوك إيه آي” (Epoch AI) بتحليل المئات من النماذج البارزة التي تمّ إصدارها منذ عام 2018.

وللتوصل إلى نتائجهم، قاسوا أداء النماذج الرائدة باستخدام معايير تقنية، وهي اختبارات معيارية تقيس قدرة الذكاء الاصطناعي على تنفيذ مهام مثل حل المشكلات الرياضية، والإجابة عن أسئلة المعرفة العامة، وإظهار التفكير المنطقي.

من جهة أخرى، درسوا كمية القدرة الحاسوبية، أو الحوسبة، التي استخدمت في تدريب هذه النماذج، حيث يعتبر هذا معيارا تقليديا موثوقا لقياس القدرات.

ومع ذلك، أظهرت بعض النماذج المفتوحة أنها قادرة على تحقيق أداء يعادل النماذج المغلقة مع استخدام حوسبة أقل، بفضل التقدم في كفاءة خوارزميات الذكاء الاصطناعي.

وكتب الباحثون في تقريرهم “يوفر الفارق الزمني بين النماذج المفتوحة والمغلقة نافذة لصانعي السياسات ومختبرات الذكاء الاصطناعي لتقييم القدرات المتقدمة قبل أن تصبح متاحة في النماذج المفتوحة”.

وهنا يطرح تساؤل عن حقيقة النماذج المفتوحة هل هي مفتوحة حقا؟ حيث إن التمييز بين نماذج الذكاء الاصطناعي المفتوحة والمغلقة ليس بسيطا كما قد يبدو.

فعلى الرغم من أن “ميتا” تصف نماذج “لاما” (Llama) الخاصة بها بأنها مفتوحة المصدر، فإنها لا تتوافق مع التعريف الجديد الذي نشرته مبادرة المصدر المفتوح (Open Source Initiative) في شهر أكتوبر/تشرين الأول الماضي، التي كانت تاريخيا تحدد المعيار الصناعي لما يعتبر مفتوح المصدر.

فوفقا للتعريف الجديد، يجب على الشركات مشاركة ليس فقط النموذج نفسه، ولكن أيضا البيانات والرموز المستخدمة في تدريبه.

في حالة “ميتا”، تصدر الشركة أوزان نموذجها، وهي قوائم طويلة من الأرقام التي تسمح للمستخدمين بتنزيل النموذج وتعديله، ولكنها لا تشارك البيانات التدريبية أو الأكواد المستخدمة في تدريب النماذج.

علاوة على ذلك، يتعين على المستخدمين قبل تنزيل النموذج الموافقة على سياسة الاستخدام المقبول التي تحظر الاستخدامات العسكرية، وغيرها من الأنشطة الضارة أو غير القانونية. ومع ذلك، بمجرد تنزيل النماذج، يصبح من الصعب عمليا تطبيق هذه القيود.

في هذا السياق، تقول “ميتا” إنها لا توافق على التعريف الجديد لمبادرة المصدر المفتوح “أو إس آي” (OSI). وصرح متحدث باسم الشركة لمجلة “تايم” (TIME) في بيان عبر البريد الإلكتروني بأنه “لا يوجد تعريف واحد للمصدر المفتوح في الذكاء الاصطناعي، وتعريفه يمثل تحديا نظرا لأن التعريفات السابقة للمصدر المفتوح لا تأخذ في الاعتبار التعقيدات التي تتميز بها النماذج الحديثة ذات التطور السريع.”

وأضاف “نحن نجعل نموذج “لاما” (Llama) مجانيا ومُتاحا للجميع بشكل مفتوح، وتساعد رخصتنا وسياسة الاستخدام المقبول في الحفاظ على سلامة المستخدمين من خلال وضع بعض القيود. سنواصل العمل مع مبادرة المصدر المفتوح ومجموعات صناعية أخرى لجعل الذكاء الاصطناعي أكثر إتاحة ومسؤولية، بغض النظر عن التعريفات التقنية”.

AI Command of the military forces on the tablet computer with augmented reality. Internet, Programming control with artificial intelligence, online coordination of the military team

نماذج الذكاء الاصطناعي المفتوحة بين الابتكار والشفافية وإساءة الاستخدام

في تقرير لها، تقول مجلة “تايم” (Time) إن فتح نماذج الذكاء الاصطناعي على نطاق واسع يعتبر أمرا مفيدا، لأنه يتيح للجميع الوصول إلى التكنولوجيا، ويحفز الابتكار والمنافسة.

وتقول إليزابيث سيغر، مديرة السياسات الرقمية في مؤسسة “ديموس” (Demos)، وهي مؤسسة فكرية مقرها المملكة المتحدة “أحد الأشياء الرئيسية التي تقوم بها المجتمعات المفتوحة هو أنها تجمع مجتمعا أوسع وأكثر تفرقا جغرافيا وأكثر تنوعا للمشاركة في تطوير الذكاء الاصطناعي”.

ووفقا للمصدر نفسه، تساهم المجتمعات المفتوحة، التي تشمل الباحثين الأكاديميين، والمطورين المستقلين، ومختبرات الذكاء الاصطناعي غير الربحية في تعزيز الابتكار من خلال التعاون، خاصة في تحسين كفاءة العمليات التقنية.

وتضيف سيغر “نظرا لأن هذه الجهات لا تمتلك الموارد نفسها التي تمتلكها الشركات التقنية الكبرى، فإن القدرة على تحقيق الكثير باستخدام القليل يعد أمرا بالغ الأهمية. على سبيل المثال في الهند، الذكاء الاصطناعي المستخدم في تقديم الخدمات العامة يعتمد تقريبا بشكل كامل على النماذج مفتوحة المصدر”.

في السياق نفسه، تتيح النماذج المفتوحة أيضا مستوى أكبر من الشفافية والمساءلة. يقول ياسين جرنيت، رئيس قسم تعلم الآلة والمجتمع في شركة “هاغينغ فيس” (Hugging Face)، التي تدير البنية التحتية الرقمية التي تستضيف العديد من النماذج المفتوحة: “يجب أن تكون هناك نسخة مفتوحة لأي نموذج يصبح جزءا أساسيا من البنية التحتية للمجتمع، لأننا بحاجة إلى معرفة مصدر المشكلات”.

وأشار جرنيت إلى مثال نموذج “ستيبل ديفيوجن 2” (Stable Diffusion 2)، وهو نموذج مفتوح لتوليد الصور، الذي أتاح للباحثين والنقاد فرصة فحص بيانات التدريب الخاصة به، والاعتراض على التحيزات المحتملة، أو انتهاكات حقوق الطبع والنشر.

وهو أمر مستحيل مع النماذج المغلقة مثل “دال إي” (DALL-E) من “أوبن إيه آي”. وأضاف معلقا “يمكنك القيام بذلك بسهولة أكبر عندما تكون هناك أدلة واضحة وآثار قابلة للتتبع”.

ومع ذلك، فإن حقيقة أن النماذج المفتوحة يمكن أن يستخدمها أي شخص تخلق مخاطر جوهرية، حيث يمكن للأشخاص ذوي النوايا الخبيثة استخدامها للإضرار، مثل إنتاج مواد متعلقة بالاستغلال الجنسي للأطفال، أو قد تستخدم حتى من قبل دول منافسة، بحسب ما أشارت إليه مجلة “تايم”.

وفي تقرير نشرته شهر نوفمبر/تشرين الثاني الماضي، أفادت وكالة رويترز بأن المؤسسات البحثية الصينية المرتبطة بالجيش الشعبي الصيني قد استخدمت نسخة قديمة من نموذج “لاما” الخاص بشركة “ميتا” لتطوير أداة ذكاء اصطناعي للاستخدام العسكري. وهو ما يبرز حقيقة أنه بمجرد إطلاق النموذج علنا، لا يمكن سحبه.

كما طورت شركات صينية مثل “علي بابا” نماذج مفتوحة خاصة بها، والتي يقال بأنها تنافس نظيراتها الأمريكية، بحسب ما جاء في تقرير مجلة “تايم”.

في السياق ذاته، أعلنت شركة “ميتا” في الرابع من نوفمبر/تشرين الثاني الماضي أنها ستجعل نماذج “لاما” متاحة للوكالات الحكومية الأمريكية، بما في ذلك تلك التي تعمل على تطبيقات الدفاع والأمن القومي، والشركات الخاصة التي تدعم العمل الحكومي مثل “لوكهيد مارتن” (Lockeed Martin)، و”أندريل” (Anduril)، و”بالانتير” (Palantir).

وتؤكد الشركة أن القيادة الأميركية في مجال الذكاء الاصطناعي مفتوح المصدر هي ميزة اقتصادية بالغة الأهمية، وأمر حيوي للأمن العالمي.

AI Artificial Intelligence 3d rendering, Computer mother board chip with AI sign and glowing circuit background, Central Computer Processors CPU, AI machine learning concept.; Shutterstock ID 1726993618; purchase_order: aljazeera ; job: ; client: ; other:

النماذج المغلقة.. أمان يفتقر إلى الشفافية

بحسب ما جاء في تقرير “تايم”، تقدم النماذج المغلقة المملوكة تحديات خاصة بها. فعلى الرغم من أنها أكثر أمانا لأن الوصول إليها يتم التحكم فيه من قبل مطوريها، فإنها أيضا أكثر غموضا.

حيث لا يمكن للأطراف الثلاثة فحص البيانات التي تمّ تدريب النماذج عليها للبحث عن التحيز، أو المواد المحمية بحقوق الطبع والنشر، أو القضايا الأخرى.

في سياق مماثل، قد تختار المنظمات التي تستخدم الذكاء الاصطناعي لمعالجة البيانات الحساسة تجنب النماذج المغلقة بسبب مخاوف الخصوصية.

وبالرغم من أن هذه النماذج تحتوي على حواجز أقوى لمنع سوء استخدامها، فقد وجد العديد من الأشخاص طرقا لكسر الحماية والتغلب فعليا على هذه الحواجز.

في الوقت الحالي تقع سلامة النماذج المغلقة بشكل أساسي في أيدي الشركات الخاصة، على الرغم من أن المؤسسات الحكومية مثل “معهد أمان الذكاء الاصطناعي الأميركي” (AISI)، تلعب دورا متزايدا في اختبار أمان النماذج قبل إصدارها.

ففي أغسطس/آب الماضي، وقع هذا المعهد اتفاقيات رسمية مع شركة “أنثروبيك” (Anthropic) لتمكين التعاون الرسمي في أبحاث أمان الذكاء الاصطناعي، والاختبار، والتقييم.

تحديات الحوكمة في عالم الذكاء الاصطناعي

يشير تقرير مجلة “تايم” (TIME) إلى أن النماذج المفتوحة تواجه تحديات حوكمة فريدة، خصوصا فيما يتعلق بالمخاطر القصوى التي قد تشكلها أنظمة الذكاء الاصطناعي المستقبلية، مثل تمكين الإرهابيين البيولوجيين، أو تعزيز الهجمات السيبرانية، وذلك بسبب نقص السيطرة المركزية.

من جهة مماثلة، تعتمد استجابة صانعي السياسات على ما إذا كان الفارق في القدرات بين النماذج المفتوحة والمغلقة يتقلص أو يتسع.

وتوضح سيغر “إذا استمر هذا الفارق في الاتساع، فلن نضطر إلى القلق كثيرا بشأن الأنظمة المفتوحة عند الحديث عن أمان الذكاء الاصطناعي المتقدم، لأن أي شيء يحدث سيكون مع النماذج المغلقة أولا، وهذه النماذج أسهل في التنظيم.”

وأضافت “لكن إذا بدأ هذا الفارق في التقلص، فسنحتاج إلى التفكير بجدية أكبر حول كيفية، ومتى تنظيم تطوير النماذج المفتوحة، وهو تحدٍّ كبير بحد ذاته، لأنه لا يوجد كيان مركزي يمكن تنظيمه.”

أما بالنسبة لشركات مثل “أوبن إيه آي” و “أنثروبيك” (Anthropic)، يعد بيع الوصول إلى نماذجها أساسا لنموذج أعمالها.

في المقابل، قال مارك زوكربيرغ، الرئيس التنفيذي لشركة “ميتا”، في رسالة مفتوحة في شهر يوليو/تموز الماضي: “يكمن الفارق الأساسي بين “ميتا” ومزودي النماذج المغلقة في أن بيع الوصول إلى نماذج الذكاء الاصطناعي ليس جزءا من نموذج أعمالنا. نتوقع أن تصبح نماذج “لاما” (Llama) المستقبلية الأكثر تقدما في المجال. ولكن حتى قبل ذلك فإن “لاما” تتفوق بالفعل في الانفتاح، وقابلية التعديل، وكفاءة التكلفة”.

ومع ذلك، فإن قياس قدرات أنظمة الذكاء الاصطناعي ليس أمرا بسيطا، حيث يقول جرنيت: “القدرات ليست مصطلحا محددا بأي شكل أو طريقة، مما يجعل مناقشتها أمرا صعبا دون وجود مفردات مشتركة”.

ويضيف: “هناك العديد من الأمور التي يمكن تحقيقها باستخدام النماذج المفتوحة، والتي لا يمكن تحقيقها باستخدام النماذج المغلقة”.

كما أشار إلى أن النماذج المفتوحة يمكن تكييفها لتلبية مجموعة متنوعة من الاستخدامات، وقد تتفوق على النماذج المغلقة عند تدريبها على مهام محددة.

Children using system AI Chatbot in computer or mobile application. Chatbot conversation, Ai Artificial Intelligence technology. OpenAI generate. Futuristic technology. Virtual assistant on internet.

استشراف المستقبل.. كيف سنواجه التعقيدات القادمة؟

يجادل إيثان موليك، وهو أستاذ في كلية “وارتون” (Wharton) لإدارة الأعمال ومعلق بارز على التكنولوجيا، بأنه حتى إذا توقف التقدم في مجال الذكاء الاصطناعي، فمن المحتمل أن يستغرق الأمر سنوات قبل أن يتم دمج هذه الأنظمة بالكامل في عالمنا.

ومع إضافة قدرات جديدة إلى أنظمة الذكاء الاصطناعي بوتيرة ثابتة، حيث قدمت مختبرات “أنثروبيك” في أكتوبر/تشرين الأول الماضي ميزة جديدة لنموذجها تسمح له بالتحكم المباشر في الحاسوب، وهي لا تزال في المرحلة التجريبية، فإن تعقيد حوكمة هذه التكنولوجيا سيزداد فقط.

وردّا على ذلك، يوضح سيغر إنه من الضروري تحديد المخاطر بدقة، وقال: “نحتاج إلى وضع نماذج تهديد واضحة للغاية تحدد ماهية الضرر، وكيف نتوقع أن يؤدي الانفتاح إلى تحقيق هذا الضرر، ثم تحقيق النقطة الأمثل ضمن تلك النماذج للتدخل”.

بالنهاية، لا يسعني أمام طوفان القدرة البشرية ورغبة الإنسان اللامتناهية في البحث والاكتشاف والإبداع إلا أن أتذكر مقولة الكاتبة والناشطة الأميركية هيلين كيلر إن “الحياة إما مغامرة جريئة أو لا شيء، الأمن غير موجود في الطبيعة، ولا يمكن للبشرية جمعاء أن تختبره بشكل مستمر، تجنب الخطر ليس أكثر أمانا على المدى الطويل من التعرض للخطر”.

فهل يجب أن يتوقف العقل البشري عن الإفراط في الابتكار خوفا من فوبيا الزوال، أم أن الانفتاح الكامل هو الطريق نحو تحقيق إمكاناتنا البشرية الكاملة؟ وما المعيار الذي نستطيع من خلاله تحديد النقطة الفاصلة بين التقدم والمخاطرة؟

شارك المقال
اترك تعليقك

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *