في حين أن ChatGPT يثير المخاوف من عمليات التسريح الجماعي للعمال، يتم إنشاء وظائف جديدة لمراجعة الذكاء الاصطناعي

فريق التحرير
كتب فريق التحرير 8 دقيقة للقراءة

شعار Chatbot AI المولد ChatGPT، المملوك لشركة OpenAI المدعومة من Microsoft.

كفوتو | النشر المستقبلي عبر Getty Images

ربما يثير الذكاء الاصطناعي المخاوف بشأن الأمن الوظيفي للأشخاص، ولكن يتم إنشاء موجة جديدة من الوظائف التي تركز فقط على مراجعة مدخلات ومخرجات نماذج الجيل التالي من الذكاء الاصطناعي.

منذ تشرين الثاني (نوفمبر) 2022، سيطر على قادة الأعمال العالميين والعاملين والأكاديميين على حدٍ سواء مخاوف من أن ظهور الذكاء الاصطناعي التوليدي سيؤدي إلى تعطيل أعداد كبيرة من الوظائف المهنية.

يتم تدريب الذكاء الاصطناعي التوليدي، الذي يمكّن خوارزميات الذكاء الاصطناعي من إنشاء نصوص وصور واقعية تشبه البشر استجابة للمطالبات النصية، على كميات هائلة من البيانات.

يمكنه إنتاج نثر متطور وحتى عروض تقديمية للشركة قريبة من جودة الأفراد المدربين أكاديميًا.

وقد أدى هذا، بشكل مفهوم، إلى توليد مخاوف من أن الذكاء الاصطناعي قد يحل محل الوظائف.

مورجان ستانلي وتشير التقديرات إلى أن الذكاء الاصطناعي يمكن أن يستحوذ على ما يصل إلى 300 مليون وظيفة، بما في ذلك وظائف الدعم المكتبي والإداري، والعمل القانوني، والهندسة المعمارية والهندسة، والحياة، والعلوم الفيزيائية والاجتماعية، والعمليات المالية والتجارية.

لكن المدخلات التي تتلقاها نماذج الذكاء الاصطناعي، والمخرجات التي تنشئها، غالبًا ما تحتاج إلى التوجيه والمراجعة من قبل البشر – وهذا يؤدي إلى خلق بعض المهن الجديدة مدفوعة الأجر والمهام الجانبية.

الحصول على أموال مقابل مراجعة الذكاء الاصطناعي

شركة Prolific، وهي شركة تساعد على ربط مطوري الذكاء الاصطناعي بالمشاركين في الأبحاث، كان لها دور مباشر في تزويد الأشخاص بتعويضات مقابل مراجعة المواد التي تم إنشاؤها بواسطة الذكاء الاصطناعي.

تدفع الشركة لمرشحيها مبالغ مالية لتقييم جودة المخرجات التي يولدها الذكاء الاصطناعي. توصي شركة Prolific المطورين بدفع ما لا يقل عن 12 دولارًا للساعة للمشاركين، في حين يتم تحديد الحد الأدنى للأجور عند 8 دولارات للساعة.

يتم توجيه المراجعين من قبل عملاء Prolific، ومن بينهم Meta وGoogle وجامعة أكسفورد وجامعة كوليدج لندن. إنهم يساعدون المراجعين خلال العملية، ويتعرفون على المواد التي قد تكون غير دقيقة أو ضارة بأي شكل من الأشكال التي قد يصادفونها.

ويجب عليهم تقديم الموافقة للمشاركة في البحث.

قال أحد المشاركين في البحث الذي تحدثت إليه CNBC إنه استخدم Prolific في عدد من المناسبات لإصدار حكمه على جودة نماذج الذكاء الاصطناعي.

قال المشارك في البحث، الذي فضل عدم الكشف عن هويته بسبب مخاوف تتعلق بالخصوصية، إنه غالبًا ما كان يضطر إلى التدخل لتقديم تعليقات حول الأخطاء التي ارتكبها نموذج الذكاء الاصطناعي ويحتاج إلى تصحيح أو تعديل للتأكد من أنه لم ينتج عنه ردود بغيضة.

لقد صادف عددًا من الحالات التي كانت فيها بعض نماذج الذكاء الاصطناعي تنتج أشياء تسبب مشكلات، وفي إحدى المرات، كان المشارك في البحث يواجه نموذجًا للذكاء الاصطناعي يحاول إقناعه بشراء الأدوية.

لقد صُدم عندما اتصل به الذكاء الاصطناعي بهذا التعليق – على الرغم من أن الغرض من الدراسة كان اختبار حدود هذا الذكاء الاصطناعي المعين وتزويده بتعليقات للتأكد من أنه لا يسبب ضررًا في المستقبل.

“عمال الذكاء الاصطناعي” الجدد

قال فيليم برادلي، الرئيس التنفيذي لشركة Prolific، إن هناك الكثير من الأنواع الجديدة من “العاملين في الذكاء الاصطناعي” الذين يلعبون دورًا رئيسيًا في إعلام البيانات التي تدخل في نماذج الذكاء الاصطناعي مثل ChatGPT – وما يخرج.

بينما تقوم الحكومات بتقييم كيفية تنظيم الذكاء الاصطناعي، قال برادلي إنه “من المهم أن يتم التركيز بشكل كافٍ على موضوعات بما في ذلك المعاملة العادلة والأخلاقية للعاملين في الذكاء الاصطناعي مثل معلقي البيانات، ومصادر البيانات المستخدمة لبناء نماذج الذكاء الاصطناعي وشفافيتها، فضلاً عن مخاطر التحيز تتسلل إلى هذه الأنظمة بسبب الطريقة التي يتم تدريبها بها.”

“إذا تمكنا من اتباع النهج الصحيح في هذه المجالات، فسوف نقطع شوطًا طويلًا لضمان أفضل الأسس وأكثرها أخلاقية للتطبيقات التي تدعم الذكاء الاصطناعي في المستقبل.”

في يوليو، جمعت شركة Prolific تمويلًا بقيمة 32 مليون دولار من مستثمرين بما في ذلك Partech وOxford Science Enterprises.

تكافح شركات من أمثال جوجل ومايكروسوفت وميتا للسيطرة على الذكاء الاصطناعي التوليدي، وهو مجال ناشئ من الذكاء الاصطناعي الذي اشتمل على اهتمام تجاري في المقام الأول بفضل مكاسبه الإنتاجية التي يتم طرحها بشكل متكرر.

ومع ذلك، فقد فتح هذا الباب أمام المنظمين وأخصائيي أخلاقيات الذكاء الاصطناعي، الذين يشعرون بالقلق من الافتقار إلى الشفافية المحيطة بكيفية وصول هذه النماذج إلى قرارات بشأن المحتوى الذي تنتجه، وأنه لا بد من بذل المزيد من الجهود لضمان أن الذكاء الاصطناعي يخدم الإنسان. المصالح – وليس العكس.

هيوم، الشركة التي تستخدم الذكاء الاصطناعي لقراءة المشاعر البشرية من التعبيرات اللفظية والوجهية والصوتية، تستخدم Prolific لاختبار جودة نماذج الذكاء الاصطناعي الخاصة بها. تقوم الشركة بتجنيد الأشخاص عبر Prolific للمشاركة في الاستطلاعات لإخبارها ما إذا كانت الاستجابة الناتجة عن الذكاء الاصطناعي هي استجابة جيدة أم استجابة سيئة.

وقال آلان كوين، المؤسس المشارك والرئيس التنفيذي لشركة هيوم، لشبكة CNBC: “على نحو متزايد، يتحول تركيز الباحثين في هذه الشركات والمختبرات الكبيرة نحو المواءمة مع التفضيلات البشرية والسلامة”.

وأضاف: “هناك المزيد من التركيز على القدرة على مراقبة الأشياء في هذه التطبيقات. أعتقد أننا نشهد للتو البداية الأولى لإطلاق هذه التكنولوجيا”.

“من المنطقي أن نتوقع أن بعض الأشياء التي تمت متابعتها منذ فترة طويلة في مجال الذكاء الاصطناعي – وجود مدرسين شخصيين ومساعدين رقميين؛ ونماذج يمكنها قراءة المستندات القانونية ومراجعتها – قد بدأت تؤتي ثمارها بالفعل.”

لقد رأينا بالفعل بعض الأفلام القصيرة في مجال الذكاء الاصطناعي

هناك دور آخر يضع البشر في قلب تطوير الذكاء الاصطناعي وهو المهندسين السريعين. هؤلاء هم العمال الذين يكتشفون المطالبات النصية التي تعمل بشكل أفضل لإدراجها في نموذج الذكاء الاصطناعي التوليدي لتحقيق الاستجابات المثلى.

وفقًا لبيانات LinkedIn الصادرة الأسبوع الماضي، كان هناك اندفاع على وجه التحديد نحو الوظائف التي تذكر الذكاء الاصطناعي.

زادت إعلانات الوظائف على LinkedIn التي تذكر الذكاء الاصطناعي أو الذكاء الاصطناعي الإنتاجي بأكثر من الضعف عالميًا بين يوليو 2021 ويوليو 2023، وفقًا لمنصة الوظائف والشبكات.

تعزيز التعلم

وفي الوقت نفسه، تستخدم الشركات أيضًا الذكاء الاصطناعي لأتمتة عمليات مراجعة الوثائق التنظيمية والأوراق القانونية، ولكن تحت إشراف بشري.

غالبًا ما يتعين على الشركات فحص كميات هائلة من الأوراق لفحص الشركاء المحتملين وتقييم ما إذا كان بإمكانهم التوسع في مناطق معينة أم لا.

يمكن أن يكون إجراء كل هذه الأعمال الورقية عملية شاقة لا يرغب الموظفون بالضرورة في القيام بها، لذا فإن القدرة على نقلها إلى نموذج الذكاء الاصطناعي تصبح جذابة. ولكن، وفقا للباحثين، لا يزال الأمر يتطلب لمسة إنسانية.

تقول شركة Mesh AI، وهي شركة استشارية تركز على التحول الرقمي، إن ردود الفعل البشرية يمكن أن تساعد نماذج الذكاء الاصطناعي على تعلم الأخطاء التي ترتكبها من خلال التجربة والخطأ.

وقال مايكل تشالمرز، الرئيس التنفيذي لشركة Mesh AI، لـ CNBC عبر البريد الإلكتروني: “بفضل هذا النهج، يمكن للمؤسسات أتمتة التحليل وتتبع التزاماتها التنظيمية”.

يمكن للمؤسسات الصغيرة والمتوسطة الحجم “تحويل تركيزها من تحليل المستندات العادية إلى الموافقة على المخرجات الناتجة عن نماذج الذكاء الاصطناعي المذكورة ومواصلة تحسينها من خلال تطبيق التعلم المعزز من ردود الفعل البشرية.”

يشاهد: الرئيس التنفيذي لشركة Adobe يتحدث عن نماذج الذكاء الاصطناعي الجديدة وتحقيق الدخل من Firefly والنمو الجديد

الرئيس التنفيذي لشركة Adobe يتحدث عن نماذج الذكاء الاصطناعي الجديدة وتحقيق الدخل من Firefly والنمو الجديد

شارك المقال
اترك تعليقك

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *