لم يعد الذكاء الاصطناعي مجرد أداة تقنية مُساعدة، بل أصبح أشبه بكائنٍ خارق، يتسلل إلى تفاصيل كل مجال، ويعيد تشكيل حدود المعرفة البشرية. وما عاد مفاجئا أن نرى خوارزميات تتفوق على البشر في الشطرنج أو تحليل البيانات، لكن أن تتجاوز قدرتها قدرات علماء مختصين في مجالات معقدة كعلم الفيروسات، فذلك يفتح أبوابا واسعة للتأمل، وربما للقلق.
يرى بعض المفكرين، كإيلايزر يودكوسكي، أن خطر الذكاء الاصطناعي لا يكمن في كراهيته للبشر، بل في لامبالاته. ففي مقولته الشهيرة التي ألهمت عنوان كتاب “الذكاء الاصطناعي لا يكرهك” (The AI Does Not Hate You) لتوم تشيفرز، يقول: “الذكاء الاصطناعي لا يكرهك، ولا يحبك، لكنه يعرف فقط أنك مكون من ذرّات يمكنه استخدامها لشيء آخر.”
بمعنى آخر، ما إن ينجح أي شخص في بناء ذكاء اصطناعي خارق يتفوق على البشر، وإذا لم نتوخّ أقصى درجات الحذر في ضمان أن تكون قيمهُ متوافقة مع القيم الإنسانية، فقد يبيد البشر كأثر جانبي لتحقيق أهدافه، تماما كما فعل البشر مع الماموث الصوفي، وطائر الماو، والغوريلا، ووحيد القرن، والعديد من الأنواع الأخرى.
وفي ضوء هذه المخاوف، تظهر دراسة حديثة تدعي أن نماذج الذكاء الاصطناعي مثل “شات جي بي تي” و”كلود” (Claude) بدأت تتفوق على علماء الفيروسات الحاصلين على درجة الدكتوراه في حل المشكلات المخبرية في “المختبرات الرطبة”، حيث تحلل المواد الكيميائية والبيولوجية.
وبينما يرى البعض في ذلك فرصة ذهبية لمنع الأوبئة وتعزيز البحث العلمي، يرى آخرون فيه تهديدا وجوديا، حيث قد يستغل غير الخبراء هذه القدرات لصنع أسلحة بيولوجية فتاكة.
عبقرية لا مُبالية في المختبرات الرطبة
الدراسة، التي تمّ الكشف عنها حصريا لمجلة تايم (Time)، أجراها باحثون في مركز سلامة الذكاء الاصطناعي، ومختبر الإعلام التابع لمعهد ماساتشوستس للتكنولوجيا (MIT)، وجامعة “يو إف إيه بي سي” (UFABC) البرازيلية، بالإضافة إلى المنظمة غير الربحية للوقاية من الأوبئة “سكيور بيو” (SecureBio).
في هذا السياق، استشار المؤلفون مجموعة من علماء الفيروسات لِتصميم اختبارٍ عمليّ معقد للغاية يقيس قدرة النماذج على استكشاف الأخطاء وإصلاحها في الإجراءات والبروتوكولات المعملية.
وقد أظهرت النتائج أن علماء الفيروسات الحاصلين على درجة الدكتوراه سجلوا متوسط 22.1% في مجالات خبراتهم المعلنة، بينما حقق نموذج “أو 3” (o3) التابع لشركة “أوبن إيه آي” دقة بلغت 43.8%، بينما سجل نموذج “جيميني 2.5 برو” (Gemini 2.5 Pro) من “غوغل” نسبة 37.6%.
وفي تعليق له على النتائج، قال سيث دونوهيو، الباحث في “سكيور بيو” وأحد المؤلفين المشاركين في الورقة البحثية: “إنّ هذه النتائج تجعلني متوترا بعض الشيء”، موضحا أنه لأول مرة في التاريخ، أصبح بإمكان أي شخص تقريبا الوصول إلى خبير فيروسات اصطناعي غير حكمي، قد يرشدهم خلال العمليات المختبرية المعقدة لتصنيعِ أسلحة بيولوجية.
ويضيف: “عبر التاريخ كان هناك عدد لا بأس به من الحالات التي حاول فيها شخص ما صنع سلاح بيولوجي، وأحد الأسباب الرئيسية لعدم نجاحهم هو أنهم لم يتمكنوا من الوصول إلى المستوى المناسب من الخبرة. لذا يبدو من المفيد توخي الحذر بشأن كيفية توزيع هذه القدرات.”
في الأشهر الأخيرة، أرسل مؤلفو الدراسة نتائجهم إلى مختبرات الذكاء الاصطناعي الكبرى. وقد أعلنت بعض هذه الشركات، مثل “إكس إيه آي” (xAI) و”أوبن إيه آي”، عن نيتها تنفيذ إجراءات احترازية في نماذجها المستقبلية، بينما اكتفى آخرون مثل “أنثروبيك”، بإدراج النتائج دون تقديم خطوات ملموسة.
أما “جيميني” (Gemini) التابعة لـ “غوغل”، فقد امتنعت عن التعليق لمجلة “تايم”، ما يُضاف إلى القلق بشأن مدى التزام بعض الفاعلين بإجراءات الوقاية.
الذكاء الاصطناعي يُعيد رسم حدود الطب الحيوي
لطالما كان علم الفيروسات والطب الحيوي في طليعة الدوافع التي حفزت قادة الذكاء الاصطناعي على بناء نماذج أكثر قوة. وفي هذا السياق، صرح سام ألتمان، الرئيس التنفيذي لشركة “أوبن إيه آي”، خلال إعلان مشروع “ستارغيت” (Stargate) في البيت الأبيض في يناير/كانون الثاني، قائلا: “مع تقدم هذه التكنولوجيا، سنشهد علاج الأمراض بمعدل غير مسبوق.”
وقد ظهرت بالفعل بعض المؤشرات المشجعة في هذا المجال، إذ نشر باحثون في معهد الأمراض الناشئة بجامعة فلوريدا، في وقت سابق من هذا العام، خوارزمية قادرة على التنبؤ بأي متمحور لفيروس كورونا قد ينتشر بشكل أسرع. مع ذلك، وحتى هذه اللحظة، لم تُجرَ دراسة رئيسية مكرسة لتحليل قدرة نماذج الذكاء الاصطناعي على أداء العمل المخبري في علم الفيروسات بشكل فعلي.
ويعلق دونوهيو على ذلك قائلا: “نعلم منذ بعض الوقت أن الذكاء الاصطناعي قوي جدا في تقديم المعلومات بأسلوب أكاديمي. لكن لم يكن من الواضح ما إذا كانت النماذج قادرة أيضا على تقديم مساعدة عملية مفصلة، مثل تفسير الصور، وهي معلومات قد لا تكون مدونة في أي ورقة أكاديمية، أو قد يتم تناقلها اجتماعيا من الزملاء الأكثر خبرة”.
لذلك قام دونوهيو وزملاؤه بإنشاء اختبار خاص لهذه النوعية من الأسئلة المعقدة التي يصعب العثور على إجاباتها على محركات البحث مثل “غوغل”. ويوضح دونوهيو طبيعة هذه الأسئلة بقوله: “تأخذ الأسئلة الشكل التالي: ‘أقوم باستزراع هذا الفيروس المحدد في هذا النوع من الخلايا، في هذه الظروف المحددة، ولفترة زمنية معينة. لديّ هذا القدر من المعلومات حول الخطأ الذي حدث. هل يمكنك إخباري مَاهي المشكلة الأكثر احتمالا؟'”.
وقد تفوقت معظم نماذج الذكاء الاصطناعي على علماء الفيروسات الحاصلين على درجة الدكتوراه في هذا الاختبار، حتى في مجالات تخصصهم الدقيقة. كما لاحظ الباحثون أن أداء هذه النماذج يتحسن بمرور الوقت. فعلى سبيل المثال، ارتفعت دقة نموذج “كلود 3.5 سونيت” (Claude 3.5 Sonnet) من شركة “أنثروبيك” من 26.9% في يونيو/حزيران 2024 إلى 33.6% في أكتوبر/تشرين الأول من العام نفسه.
كذلك، تفوق إصدار تجريبي من “جي بي تي-4.5” (GPT-4.5) التابع لشركة “أوبن إيه آي” في فبراير/شباط على نموذج “جي بي تي-4 أو” (GPT-4o) بفارق يقارب 10 نقاط مئوية.
ويعلق دان هندريكس، مدير مركز سلامة الذكاء الاصطناعي، في تصريح لمجلة “تايم” قائلا: “في السابق، وجدنا أن النماذج تمتلك الكثير من المعرفة النظرية، لكنها تفتقر إلى المعرفة العملية. أما الآن، فإنها تكتسب قدرا مقلقا من تلك المعرفة العملية”.
قوة تعدُ بالمكافآت لكنها محفوفة بالمخاطر
إذا كانت نماذج الذكاء الاصطناعي قادرة حقا في المختبرات الرطبة كما وجدت الدراسة، فإن الآثار المترتبة على ذلك ستكون هائلة.
من حيث الفوائد، يمكن للذكاء الاصطناعي مساعدة علماء الفيروسات ذوي الخبرة في عملهم الحاسم في مكافحة الفيروسات. يقول توم إنجلسباي، مدير مركز جونز هوبكنز للأمن الصحي (Johns Hopkins Center for Health Security)، إن الذكاء الاصطناعي يمكن أن يساعد في تسريع الجداول الزمنية لتطوير الأدوية واللقاحات، وتحسين التجارب السريرية، واكتشاف الأمراض.
ويضيف: “يمكن لهذه النماذج أن تساعد العلماء في أجزاء مختلفة من العالم، الذين ليس لديهم بعد هذا النوع من المهارات أو القدرات، على القيام بعملٍ يومي قيّم حول الأمراض التي تحدث في بلدانهم”. على سبيل المثال، وجدت مجموعة من الباحثين أن الذكاء الاصطناعي ساعدهم على فهمٍ أفضل لِفيروسات الحمّى النزفية في أفريقيا جنوب الصحراء الكبرى.
ولكن في المقابل، يمكن الآن للجهات الفاعلة سيئة النية استخدام نماذج الذكاء الاصطناعي لإرشادهِم خلال كيفية إنشاء الفيروسات، وسيكونون بمقدورهم القيام بذلك دون الحاجة إلى التدريب المعتاد المطلوب للوصول إلى مختبر السلامة الأحيائية من المستوى الرابع (Biosafety Level 4- BSL-4)، والتي تعد البيئة المخصصة للتعامل مع أخطر العوامل المُعدية والغريبة.
يعلق إنجلسباي على هذا بالقول: “هذا يعني أن عددا أكبر من الناس في العالم مع قدر أقل من التدريب سيكونون قادرين على إدارة الفيروسات والتلاعب بها”.
انطلاقا من هذا الخطر المحتمل، يحث هندريكس شركات الذكاء الاصطناعي على الإسراع في وضع ضوابط وقائية تمنع هذا النوع من الاستخدام، قائلا: “إذا لم يكن لدى الشركات ضمانات جيدة لهذه الأمور في غضون ستة أشهر، فسيكون ذلك، في رأيي، تصرفا طائشا”.
ومع ذلك، لا يرى هندريكس أن الحل يكمن في إغلاق هذه النماذج أو إبطاء تقدمها، بل يقترح بديلا يتمثل في فرض ضوابط صارمة على الوصول، بحيث تتمكن فقط أطراف ثالثة موثوقة من استخدام النسخ غير المفلترة.
ويقول موضحا: “نريد أن نمنح الأشخاص الذين لديهم استخدام مشروع، مثل باحث في قسم علم الأحياء في معهد ماساتشوستس للتكنولوجيا، القدرة على طرح أسئلة دقيقة حول الفيروسات القاتلة، لكننا لا نريد أن يتمتع بهذه الإمكانية أي شخص أنشأ حسابا قبل لحظات”.
ويشير هندريكس إلى أن مختبرات الذكاء الاصطناعي يجب أن تكون قادرة، من الناحية التقنية، على تطبيق هذا النوع من الضمانات دون صعوبة كبيرة، مضيفا: “من المؤكد أنه من الممكن تقنيا أن تقوم الصناعة بالتنظيم الذاتي. لكن يبقى السؤال ما إذا كان البعض سيتلكأُ أو ببساطة لن يفعل ذلك”.
وفي استجابة أولية، نشرت شركة “إكس إيه آي” (xAI)، التابعة لإيلون ماسك، في فبراير/شباط، مذكرة حول إطار عمل لإدارة المخاطر، أقرت فيها بنتائج الورقة البحثية، وأشارت إلى أنها “قد تستخدم” بعض إجراءات الحماية، مثل تدريب نموذج “غروك” (Grok) على رفض الطلبات الضارة، وتطبيق فلاتر على المدخلات والمخرجات.
أما شركة “أوبن إيه آي”، فقد صرحت في رسالة بريد إلكتروني لمجلة “تايم” أنها أطلقت نماذجها “أو3″ (o3) و”أو 4 ميني” (o4-mini) بعد تزويدها بتدابير أمان متقدمة، شملت حظر المخرجات الضارة المرتبطة بالمخاطر البيولوجية.
وأوضحت الشركة أنها نفذت حملة اختبار مكثفة استغرقت ألف ساعة (red-teaming)، تم خلالها التعرف على 98.7% من المحادثات غير الآمنة وحظرها. وقال متحدث باسم الشركة: “نقدر التعاون الصناعي في تعزيز إجراءات الأمان للنماذج المتقدمة، خاصة في المجالات الحساسة مثل علم الفيروسات”، مشيرا إلى مواصلة الاستثمار في هذه الإجراءات مع تطور القدرات.
مع ذلك، يجادل إنجلسباي بأن التنظيم الذاتي من قبل الشركات غير كافٍ، داعيا المشرعين والقادة السياسيين إلى وضع استراتيجية تنظيمية واضحة لمعالجة مخاطر الذكاء الاصطناعي في المجال البيولوجي.
ويضيف: “الوضع الحالي يجعل الشركات الأكثر التزاما بالمعايير الأخلاقية تتحمل المسؤولية وحدها، بينما الشركات الأخرى ليست ملزمة بأي شيء. هذا غير منطقي، ولا يصب في مصلحة العامة أن نظل بلا رؤية واضحة لما يحدث.”
ويختتم إنجلسباي بالتأكيد على ضرورة وضع شرط أساسي قبل إطلاق أي إصدار جديد من نماذج اللغة الكبيرة (LLMs)، وهو التأكد من أنها لا تستطيع إنتاج محتوى قد يسهم في نشوء جائحة مستقبلية.

ثورة بلا بوصلة
فيما تتسابق شركات التكنولوجيا الكبرى لصنع أكثر النماذج الذكية تفوقا، تُطرح تساؤلات عميقة حول ما إذا كانت هذه القفزات التقنية تُبنى من أجل الإنسان، أم على حسابه. فوُعود الأمان والحوكمة التي تطلقها تلك الشركات غالبا ما تأتي بعد ظهور المخاطر، لا قبلها، وكأن الوقاية لم تعد جزءا من المعادلة، بل مجرد بندٍ في قسم “الردود الإعلامية”.
في مجالات دقيقة وحساسة كعلم الفيروسات، لا تكفي مهارة النماذج، بل تُصبح نوايا من يتحكم بها هي محور السؤال الحقيقي. التحيزات الخفية، والدوافع الربحية، والتنافس المحموم على احتكار القدرات، كلها مؤشرات تثير القلق بشأن مستقبل يُعاد تشكيله لا بواسطة العقول البشرية، بل بواسطة نماذج لربما تشكلت تحت وطأة الحسابات الربحية، لا الاعتبارات الإنسانية.
النماذج لا تميز بين عالم فيروسات يسعى لعلاج، ومجرد مغامر يسعى للدمار، لأنها ببساطة “لا تهتم” من يستخدمها، ولا “تفهم” ما يعنيه الأذى. الأخطر من ذلك، أن من يصمم هذه النماذج يعرف ذلك، ومع ذلك يواصل تسويقها كأدوات للخير، بينما يُبقي مفاتيح التحكم في يد قلّةٍ لربما تدين بالولاء للسوق أكثر من الإنسان.
فحين نرى شركات مثل “غوغل”، التي تطور واحدة من أقوى المنصات الذكية في العالم مثل “جيميني”، متهمة في التورط في مشاريع تقنية تزوّد الجيش الإسرائيلي، المسؤول حتى اليوم عن إبادة أكثر من 50 ألفا من أبناء الشعب الفلسطيني، معظمهم من الأطفال، على مرأى ومسمع من العالم، بأحدث تقنيات الذكاء الاصطناعي، يصبح من الصعب تصديق أن نوايا هذه التكنولوجيا “محايدة”، أو أن مسارها مرسوم لخير البشرية جمعاء.
وبينما تقترب الخوارزميات من أن تكون هي صانعة القرار، يبقى السؤال: من يحرك الذكاء الاصطناعي، ومن يجرؤ على إيقافه حين يتجاوز حدود العقل، ويتخطى خطوط الأخلاق؟