بصمة “شات جي بي تي”.. باحثون تركوا خلفهم دليل جريمتهم

فريق التحرير
كتب فريق التحرير 11 دقيقة للقراءة

يقول المتخصصون في البحث الجنائي إن السارق أو مرتكب الجريمة، مهما بلغت درجة دقته عند التنفيذ، لا بد أن يترك خلفه دليلا يقود لاكتشاف جريمته، ومن ثم القبض عليه.

مع الفارق في التشبيه، فإن المحقق العلمي غيوم كاباناك -عالم الكمبيوتر في جامعة تولوز في فرنسا- استطاع اكتشاف جرائم سرقة علمية تتم بواسطة تطبيق الذكاء الاصطناعي “شات جي بي تي”، وذلك بعد أن ترك باحثون خلفهم دليل جريمتهم من دون قصد، وقام بالإعلان عن هذه المخالفات على “باب بير” (PubPeer)، وهو موقع إلكتروني يناقش فيه العلماء الأبحاث المنشورة.

ويصف كثير من الباحثين المهتمين بـ”النزاهة العلمية” إساءة استخدام “شات جي بي تي” بأنها شكل من أشكال السرقة العلمية، ذلك لأن التعريف العلمي لهذا السلوك الأكاديمي غير المنضبط يعني “نسخ كلمات أو بيانات شخص آخر من دون الإشارة إلى ذلك أو من دون تحديد المصدر الذي استعان به الباحث في الحصول على البيانات”، وهو ما ينطبق تماما على هذه الحالة.

بصمات “شات جي بي تي”

وبلغة البحث الجنائي، يقول كاباناك في تصريحات للجزيرة نت عبر البريد الإلكتروني “في عديد من الأبحاث، تمكنت من العثور على بصمات شات جي بي تي، وهو أمر ينذر بالخطر ويقوض مصداقية البحث العلمي”.

والبصمات التي يعنيها كاباناك هي كلمات وجمل شهيرة ترتبط بهذا التطبيق، مثل جملة “إعادة إنشاء الاستجابة”، وهي زر يؤدي النقر عليه إلى جعل “شات جي بي تي” يولد إجابة جديدة، ولكن بأسلوب مختلف عن الإجابة السابقة، ويكون هذا مفيدا عندما تكون الإجابة التي تم إنشاؤها مسبقا غير مرضية للمستخدم، وهذا الزر تم تغيير اسمه في النسخ الأحدث من التطبيق إلى كلمة “تجديد”.

والقضية الأحدث، التي لعبت فيها هذه البصمة دورا في اكتشاف إساءة استخدام التطبيق، كانت تخص دراسة نشرتها دورية “فيزيكا سكريبتا” في التاسع من أغسطس/آب الماضي، إذ كانت تلك الدراسة -التي سحبتها دار نشر “آي أو بي بابلشينغ” البريطانية التي تصدر الدورية- تهدف إلى الكشف عن حلول جديدة لمعادلة رياضية، لكنها انضمت، بعد إثارة الجدل حولها، إلى قائمة الدراسات التي يتم الاستشهاد بها عند الحديث عن إساءة استخدام “شات جي بي تي”.

ChatGPT

12 دراسة

ودراسة “فيزيكا سكريبتا” ليست الحالة الوحيدة التي تتورط فيها دوريات علمية مرموقة في قبول بحث علمي ارتكب صاحبه هذا السلوك غير النزيه، فمنذ أبريل/نيسان الماضي، اكتشف كاباناك أكثر من 12 دراسة يحتوي بعضها على البصمة نفسها، وهي عبارة “إعادة إنشاء الاستجابة”، بينما كان البعض الآخر يحتوي على بصمة أخرى، وهي الجملة الشهيرة للتطبيق “باعتباري نموذجا للغة الذكاء الاصطناعي، لا يمكنني أن..”، التي يكتبها التطبيق عندما تكتب له سؤالا يطلب رؤية تحليلية أو توقع أمر ما.

ووجد كاباناك هذه البصمة في إحدى دوريات دار النشر الشهيرة “إلسيفير”، وهي دورية “ريسورسيز بوليسي”، التي نشرت في الثالث من أغسطس/آب الماضي دراسة عن “تأثير التجارة الإلكترونية على كفاءة الوقود الأحفوري في البلدان النامية”، ولاحظ كاباناك أن بعض المعادلات الواردة في الورقة البحثية غير منطقية، وتضمنت النتيجة فوق الجدول عبارة “يرجى ملاحظة أنه باعتباري نموذجا للغة الذكاء الاصطناعي، فأنا غير قادر على إنشاء جداول محددة أو إجراء اختبارات”.

أزمة تجسد مشكلتين

ووفقا لكاباناك، فإن وجود تلك البصمات يجسد مشكلتين، الأولى هي أن “اكتشاف هذه العبارات في المقالات المنشورة بالمجلات الخاضعة لمراجعة النظراء ذات معامل التأثير العالي أمر غير متوقع ومخيب للآمال ومثير للقلق، لأنه يشكك في جودة عملية مراجعة الأبحاث التي يتم إجراؤها في هذه المجلات”.

والمشكلة الثانية هي أن “نسخ ولصق مخرجات برنامج شات جي بي تي من دون حتى قراءتها، في الجزء المخصص لـ(الأعمال ذات الصلة)، هي علامة على الإهمال، وتجعلني أتساءل عن بقية الورقة، إذ كيف يمكن لأي شخص أن يثق بالأساليب والنتائج الخاصة بالبحث، إذا كان المؤلفون غير متقنين عند كتابة الأعمال ذات الصلة”.

ChatGPT

غيض من فيض

وإذا كانت المنهجية التي يتبعها كاباناك لا تلتقط سوى الاستخدامات الساذجة للتطبيق، التي نسي فيها الباحثون حذف بصمات التطبيق، فإن هذا يعني وجود عدد من الأوراق البحثية لم يُكشف عنها بعد، وخضعت لمراجعة النظراء، وتم إنشاؤها بمساعدة غير معلنة من التطبيق.

وفي هذا الشأن، يقول كاباناك “من المرجح أن تكون هذه الأوراق أكثر بكثير، ولذلك فإن هناك حاجة إلى رفع مستوى وعي المجتمع البحثي بهذه القضايا”.

وتتفق كيم إيجلتون، رئيسة قسم مراجعة النظراء ونزاهة الأبحاث في دار النشر “آي أو بي بابلشينغ”، مع ما ذهب إليه كاباناك من أهمية رفع مستوى الوعي، قائلة في تصريحات للجزيرة نت -عبر البريد الإلكتروني- إنهم استفادوا من الخطأ الذي وقعوا فيه عندما نشروا في دورية “فيزيكا سكريبتا” الدراسة التي بها جملة “إعادة إنشاء الاستجابة”.

وأوضحت “نتعلم المزيد عن أدوات شات جي بي تي طوال الوقت، ومنذ حدثت واقعة دورية فيزيكا سكريبتا، قمنا بوضع ضوابط إضافية، ومنها أنه بمجرد تقديم الأوراق نقوم الآن بفحص جميع المقالات بحثا عن بصمات التطبيق، وسنستمر في التعرف على كيفية استخدام أدوات التطبيق في النشر العلمي، سواء للخير أو للشر، وسنقوم بتعديل سياساتنا وإجراءاتنا في أثناء المضي قدما”.

وأضافت “نفهم أننا لسنا الناشر الوحيد الذي نشر عملا يحتوي على عبارة (إعادة إنشاء الاستجابة)، ولكننا فخورون بأننا تصرفنا بسرعة وقررنا سحب هذه الورقة البحثية”.

انتهاك أخلاقي

وعن الحدود المسموح بها لاستخدام شات جي بي تي، تشير إيجلتون إلى أن المشكلة الكبيرة التي وقع فيها الباحثون أنهم لم يعلنوا استخدامهم للتطبيق في البحث، ولم يكتشف ذلك فريق التحرير والمراجعون.

وتقول “عندما سألنا الباحثين عقب الجدل الذي ثار حول دراستهم، أكدوا أنهم استخدموا التطبيق للمساعدة في إعادة صياغة ورقتهم، وذكروا أن ذلك لم يؤثر على دقة أو صحة النتائج التي توصلوا إليها. وفي حين أننا لا نستطيع التحقق من حدود استخدامهم للتطبيق، فإن ما أقدموا عليه انتهاك لسياستنا الأخلاقية، التي تنص على وجوب الإعلان بشكل كامل عن أي استخدام لنماذج مثل شات جي بي تي، كما أننا لا نوافق على استخدامه في إعادة الصياغة، لأن هذا يشير عادة إلى أن المؤلفين يحاولون إخفاء حقيقة أنهم يعيدون استخدام أعمال آخرين، وعلى هذا النحو فقد تقرر سحب الدراسة، وإبلاغ الباحثين بقرارنا”.

ChatGPT

التعلم بالتجربة

ومن جانبها، ترى نجوى البدري، الرئيس المؤسس لبرنامج العلوم الطبية الحيوية في جامعة العلوم والتكنولوجيا بمدينة زويل بمصر، ومدير مركز التميز لأبحاث الخلايا الجذعية والطب الحيوي بالمدينة، أنه يجب عدم القسوة على دور النشر ومسؤولي المراجعة الذين وقعوا في تلك الأخطاء، مؤكدة أننا أمام تطبيق جديد يطور من نفسه، ولا نزال بحاجة إلى فهم كيفية إساءة استخدامه، وكيف يمكن أن يتحول إلى أداة مفيدة للباحثين.

وحتى تستطيع البدري فهم هذا التطبيق بشكل أفضل، طلبت من طلابها كتابة مراجعة بحثية، ثم قسمتهم إلى فريقين، أحدهما طلبت منه كتابة تلك المراجعة باستخدام شات جي بي تي، والآخر طلبت منه كتابة البحث بالطرق المعتادة.

وتقول في تصريحات هاتفية للجزيرة نت “فوجئت أن مجموعة التطبيق كان بحثها أكثر عمقا، وهذا يعتمد على الكفاءة في طرح الأسئلة على التطبيق، فكلما كان السؤال محددا وواضحا، تم الحصول على إجابة جيدة، والخلاصة -التي توصلت لها- أن هذا التطبيق يهدد نزاهة البحث العلمي عند إساءة استخدامه، بأن يقوم بمهمة الباحث في الكتابة، لكن الاستخدام المفيد له، هو أن يكون أداة أكثر تطورا من غوغل في تجميع المعلومات، التي يقوم الباحث بتحليلها وصياغتها بأسلوبه الخاص”.

ويتفق الأكاديمي المتخصص في القانون بجامعة التكنولوجيا في سيدني جورج تيان مع نجوى البدري، في شعورها بأن الخطر من إساءة استخدام التطبيق، إذ يضيف إلى مشكلة “مصداقية البحث العلمي”، مشكلتين أخريين، وهما “التحيز والمعلومات الخاطئة”، و”تناقص الخبرة البشرية”.

ويقول تيان في تصريحات للجزيرة نت عبر البريد الإلكتروني إن “بعض المحامين الذين استخدموا التطبيق أشاروا إلى قضايا غير موجودة في المستندات القانونية المقدمة إلى المحكمة، وهو ما يعني أن التطبيق قد يحتوي على تحيزات أو معلومات غير دقيقة، مما يقوض نزاهة الدراسة، كما أن الاعتماد المفرط عليه يمكن أن يؤدي إلى تآكل المعرفة البحثية البشرية والتفكير النقدي”.

ChatGPT

الاستخدام الرشيد

ولا يرى تيان غضاضة في الاستخدام الرشيد للتطبيق، ولكن بعد الالتزام بعدة شروط، وهي:

  • بيان الإفصاح: إذ يجب على الباحثين الكشف بوضوح عن أدوات الذكاء الاصطناعي التي استخدموها.
  • الموافقة الأخلاقية: التي تعني الحصول على الموافقة لاستخدام أداة الذكاء الاصطناعي في الأبحاث المتعلقة بالإنسان، مثل استخدام التطبيق لتسهيل تشخيص مرضى الصحة العقلية.
  • الاستشهاد والإسناد: ويعني ذلك الاستشهاد بأدوات الذكاء الاصطناعي بشكل صحيح.
  • مراجعة النظراء: أي تمكين المراجعين للأبحاث من أدوات تمكنهم من تحديد وتقييم استخدام أدوات الذكاء الاصطناعي في أثناء عملية المراجعة.
  • التحقق: ويعني ذلك اعتماد دراسات مستقلة للتحقق من صحة النتائج الناتجة عن الذكاء الاصطناعي، مثل التحقق مما إذا كانت المقالات والحالات الواردة في الاستشهادات موجودة بالفعل.

التحديات والفرص

من جهته، يحدد مجالات الاستخدام الرشيد للتطبيق الباحث مايكل بالاس، من كلية الطب بجامعة تورونتو بكندا، الذي قاد فريقا لدراسة استخدام البرنامج في تشخيص أمراض العيون، إذ يقول في تصريحات للجزيرة نت عبر البريد الإلكتروني إن “الذكاء الاصطناعي، عند استخدامه بحكمة، يحقق مجموعة من الفوائد، إذ يمكنه تسريع تحليل البيانات، وتحديد الأنماط والارتباطات في مجموعات البيانات الكبيرة التي قد تكون غير ممكنة للباحثين من البشر، وحتى توليد فرضيات أو طرق جديدة للاستكشاف، ومن الممكن أن تعمل مثل هذه القدرات على تعزيز جهود الباحثين من البشر، ودفع الابتكارات والرؤى بوتيرة لم يكن من الممكن تصورها من قبل”.

لكن في مقابل هذه الفرص، فهناك تحديات يشير إليها بالاس، وهي أن الإفراط في الاعتماد عليه أو سوء استخدامه قد يؤدي إلى تعريض سلامة البحث العلمي للخطر عن طريق تقليص الفكر الأصلي، وربما إدخال التحيزات المتأصلة.

شارك المقال
اترك تعليقك

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *