تكافح الشركات للتعامل مع الارتفاع السريع في الذكاء الاصطناعي التوليدي، حيث يسارع البعض إلى تبني التكنولوجيا كأدوات لسير العمل للموظفين بينما يتجنبها البعض الآخر – على الأقل في الوقت الحالي.
ومع تسرب الذكاء الاصطناعي التوليدي ــ التكنولوجيا التي تدعم ChatGPT والأدوات المماثلة ــ إلى كل ركن من أركان الإنترنت على ما يبدو، تتصارع الشركات الكبرى مع ما إذا كانت الكفاءة المتزايدة التي تقدمها تفوق المخاطر المحتملة المتعلقة بحقوق الطبع والنشر والأمن. تقوم بعض الشركات بفرض حظر داخلي على أدوات الذكاء الاصطناعي التوليدية لأنها تعمل على فهم التكنولوجيا بشكل أفضل، وقد بدأت شركات أخرى بالفعل في تقديم التكنولوجيا العصرية للموظفين بطرقها الخاصة.
قامت العديد من الشركات البارزة بحظر استخدام ChatGPT الداخلي بالكامل، بما في ذلك JPMorgan Chase وNorthrup Grumman وApple وVerizon وSpotify وAccenture، وفقًا لـ Originality.AI، كاشف محتوى الذكاء الاصطناعي، مع ذكر العديد منها لمخاوف تتعلق بالخصوصية والأمن. أعرب قادة الأعمال أيضًا عن مخاوفهم بشأن قيام الموظفين بإسقاط معلومات خاصة بهم في ChatGPT واحتمال ظهور تلك المعلومات الحساسة كمخرجات للأداة في مكان آخر.
عندما يقوم المستخدمون بإدخال المعلومات في هذه الأدوات، “أنت لا تعرف كيف سيتم استخدامها بعد ذلك”، كما قال مارك ماكريري، الرئيس المشارك لممارسة الخصوصية وأمن البيانات في شركة المحاماة Fox Rothschild LLP، لشبكة CNN في عام 2019. يمشي. “وهذا يثير مخاوف كبيرة بشكل خاص بالنسبة للشركات. ومع اعتماد المزيد والمزيد من الموظفين لهذه الأدوات بشكل عرضي للمساعدة في رسائل البريد الإلكتروني الخاصة بالعمل أو ملاحظات الاجتماعات، قال ماكريري: “أعتقد أن فرصة إدراج الأسرار التجارية للشركة في هذه الأنظمة المختلفة للذكاء الاصطناعي ستزداد”.
لكن تردد الشركات في الترحيب بالذكاء الاصطناعي التوليدي قد يكون مؤقتا.
وقال جوناثان جيلهام، الرئيس التنفيذي لشركة Originality.AI، لشبكة CNN، إن “الشركات المدرجة على قائمة حظر الذكاء الاصطناعي التوليدي لديها أيضًا مجموعات عمل داخلية تستكشف استخدام الذكاء الاصطناعي”، مسلطًا الضوء على كيف كانت الشركات في الصناعات الأكثر تجنبًا للمخاطرة أسرع في استكشاف استخدام الذكاء الاصطناعي. اتخاذ إجراءات ضد التكنولوجيا مع اكتشاف أفضل نهج للاستخدام المسؤول. “إن منح جميع موظفيهم إمكانية الوصول إلى ChatGPT والقول “استمتع” يعد بمثابة مخاطرة لا يمكن السيطرة عليها، لكن هذا لا يعني أنهم لا يقولون، “يا إلهي، انظر إلى 10x، 100x الكفاءة التي يمكننا تأمينها عندما نكتشف كيفية القيام بذلك بطريقة تجعل جميع أصحاب المصلحة سعداء” في أقسام مثل الشؤون القانونية والمالية والمحاسبة.
ومن بين الشركات الإعلامية التي تنتج الأخبار، شجع رئيس تحرير موقع Insider، نيكولاس كارلسون، المراسلين على إيجاد طرق لاستخدام الذكاء الاصطناعي في غرفة الأخبار. وقال في إبريل/نيسان: “إن تسونامي قادم”. “يمكننا إما ركوبها أو القضاء عليها. لكن قيادتها ستكون ممتعة حقًا، وستجعلنا أسرع وأفضل”. لم تشجع المنظمة الموظفين على وضع تفاصيل المصدر والمعلومات الحساسة الأخرى في ChatGPT. أوقفت سلسلة صحف Gannett مؤقتًا استخدام أداة الذكاء الاصطناعي لكتابة القصص الرياضية في المدارس الثانوية بعد أن ارتكبت التكنولوجيا المسماة LedeAI عدة أخطاء في القصص الرياضية المنشورة في صحيفة كولومبوس ديسباتش في أغسطس.
من بين الشركات التي تحظر ChatGPT حاليًا، يناقش البعض الاستخدام المستقبلي بمجرد معالجة المخاوف الأمنية. قدرت UBS أن ChatGPT وصل إلى 100 مليون مستخدم نشط شهريًا في يناير، بعد شهرين فقط من إطلاقه.
وقد أدى هذا النمو السريع في البداية إلى جعل الشركات الكبيرة تتدافع لإيجاد طرق لدمجها بشكل مسؤول. هذه العملية بطيئة بالنسبة للشركات الكبيرة. وفي الوقت نفسه، انخفضت زيارات موقع ChatGPT للشهر الثالث على التوالي في أغسطس، مما خلق ضغطًا على شركات التكنولوجيا الكبرى للحفاظ على الاهتمام الشعبي بالأدوات وإيجاد تطبيقات مؤسسية جديدة ونماذج إيرادات لمنتجات الذكاء الاصطناعي التوليدية.
وقال لاري فاينسميث، رئيس استراتيجية التكنولوجيا العالمية والابتكار والشراكات في بنك جيه بي مورجان تشيس، في قمة Databricks Data + AI في يونيو: “نحن في JPMorgan Chase لن نطرح genAI حتى نتمكن من التخفيف من جميع المخاطر”. “نحن متحمسون، فنحن نعمل على التغلب على هذه المخاطر بينما نتحدث، لكننا لن نطرحها حتى نتمكن من القيام بذلك بطريقة مسؤولة تمامًا، وسيستغرق الأمر بعض الوقت.” قالت شركة نورثروب جرومان إنها لا تسمح بالبيانات الداخلية على المنصات الخارجية “حتى يتم فحص هذه الأدوات بالكامل”، وفقًا لتقرير صدر في مارس من صحيفة وول ستريت جورنال. أخبرت Verizon أيضًا الموظفين في خطاب عام في فبراير أن ChatGPT محظور “(بوضعه الحالي)” بسبب المخاطر الأمنية ولكن الشركة تريد “احتضان التكنولوجيا الناشئة بأمان”.
“إنهم لا ينتظرون فقط تسوية الأمور. “أعتقد أنهم يعملون بنشاط على دمج الذكاء الاصطناعي في عملياتهم التجارية بشكل منفصل، لكنهم يفعلون ذلك بطريقة لا تعرض معلوماتهم للخطر،” قال فيرن جلاسر، الأستاذ المشارك في ريادة الأعمال والمؤسسات العائلية في جامعة ألبرتا. وقال لشبكة سي.إن.إن. “ما ستراه مع الكثير من الشركات التي ستستخدم استراتيجيات الذكاء الاصطناعي، وخاصة تلك التي لديها محتوى فريد خاص بها، سينتهي بها الأمر إلى إنشاء نسختها المخصصة من الذكاء الاصطناعي التوليدي.”
يبدو أن العديد من الشركات – وحتى ChatGPT نفسها – قد وجدت بالفعل إجاباتها الخاصة على معضلة أمن الذكاء الاصطناعي الجيني في عالم الشركات.
قدمت Walmart أداة “مساعدي” الداخلية لـ 50.000 موظف في الشركة والتي تساعد في المهام المتكررة والأفكار الإبداعية، وفقًا لمنشور LinkedIn في أغسطس من Cheryl Ainoa، نائب الرئيس التنفيذي للأعمال الجديدة والتقنيات الناشئة في Walmart، ودونا موريس، الرئيس التنفيذي لشؤون الأفراد. وتهدف الأداة إلى تعزيز الإنتاجية والمساعدة في نهاية المطاف في توجيه العمال الجدد، وفقًا للمنشور.
كما ترحب الشركات الاستشارية العملاقة McKinsey وPwC وEY بجين الذكاء الاصطناعي من خلال أساليب داخلية وخاصة. أعلنت شركة PwC عن “Generative AI Factory” وأطلقت أداة “ChatPwC” الخاصة بها في أغسطس والمدعومة بتقنية OpenAI لمساعدة الموظفين في الأسئلة واللوائح الضريبية كجزء من استثمار بقيمة مليار دولار لتوسيع نطاق قدرات الذكاء الاصطناعي.
قدمت شركة ماكينزي “Lilli” في أغسطس، وهو حل genAI حيث يمكن للموظفين طرح الأسئلة، حيث يقوم النظام بعد ذلك بتجميع كل معارف الشركة ومسح البيانات لتحديد ذات الصلة. وكتب جاكي رايت، الشريك الأول في ماكينزي والرئيس التنفيذي للتكنولوجيا والمنصات، في هذا الإعلان: “المعرفة والأصول لدفع مستويات جديدة من الإنتاجية”. المحتوى، وتلخيص النقاط الرئيسية وتقديم الخبراء.
تستثمر EY 1.4 مليار دولار في التكنولوجيا، بما في ذلك “EY.ai EYQ”، وهو نموذج لغة كبير داخلي، وتدريب الذكاء الاصطناعي للموظفين، وفقًا لبيان صحفي صدر في سبتمبر.
تعمل أدوات مثل MyAssistant وChatPwC وLilli على حل بعض مخاوف الشركات المحيطة بأنظمة genAI من خلال تعديلات مخصصة لتقنية genAI، مما يوفر للموظفين بديلاً خاصًا ومغلقًا يستفيد من قدرته على زيادة الكفاءة ويزيل مخاطر حقوق الطبع والنشر أو التسريبات الأمنية.
قد يساعد إطلاق ChatGPT Enterprise أيضًا في تهدئة بعض المخاوف. الإصدار الجديد من أداة OpenAI الجديدة، الذي تم الإعلان عنه في أغسطس، مخصص للشركات خصيصًا، ويعد بتوفير “أمان وخصوصية على مستوى المؤسسات” جنبًا إلى جنب مع “أقوى إصدار من ChatGPT حتى الآن” للشركات التي تتطلع إلى القفز على عربة الذكاء الاصطناعي التوليدي. وفقًا لما نشرته مدونة الشركة.
يأتي الإعلان المرتقب من OpenAI في الوقت الذي تقول فيه الشركة إن الموظفين من أكثر من 80% من شركات Fortune 500 قد بدأوا بالفعل في استخدام ChatGPT منذ إطلاقه علنًا في أواخر العام الماضي، وفقًا لتحليلها للحسابات المرتبطة بنطاقات البريد الإلكتروني للشركات.
ردًا على المخاوف التي أثارتها العديد من الشركات بشأن الأمان، بشأن قيام الموظفين بإسقاط معلومات الملكية في ChatGPT واحتمال ظهور تلك المعلومات الحساسة كمخرجات بواسطة الأداة في مكان آخر، ينص منشور مدونة إعلان OpenAI لـ ChatGPT Enterprise على أنه “لا يتدرب على بيانات العمل أو المحادثات، ولا تتعلم نماذجنا من استخدامك.
في يوليو/تموز، كشفت مايكروسوفت النقاب عن نسخة خاصة بالأعمال من أداة Bing التي تعمل بالذكاء الاصطناعي، والتي أطلق عليها اسم Bing Chat Enterprise، ووعدت بالكثير من نفس الضمانات الأمنية التي تروج لها ChatGPT Enterprise الآن – على وجه التحديد، لن يتم استخدام بيانات الدردشة الخاصة بالمستخدمين تدريب نماذج الذكاء الاصطناعي.
لا يزال من غير الواضح ما إذا كانت الأدوات الجديدة ستكون كافية لإقناع الشركات الأمريكية بأن الوقت قد حان لتبني الذكاء الاصطناعي التوليدي بشكل كامل، على الرغم من أن الخبراء يتفقون على أن دخول التكنولوجيا الحتمي إلى مكان العمل سيستغرق وقتًا واستراتيجية.
“لا أعتقد أن الشركات تعارض الذكاء الاصطناعي أو التعلم الآلي في حد ذاته. وقال جلاسر: “أعتقد أن معظم الشركات ستحاول استخدام هذا النوع من التكنولوجيا، لكن عليها أن تكون حذرة معها بسبب تأثيراتها على الملكية الفكرية”.