كلاوس فيدفيلت | ديجيتال فيجن | صور جيتي
جديلة مرجع جورج أورويل.
اعتمادًا على مكان عملك، هناك احتمال كبير أن يقوم الذكاء الاصطناعي بتحليل رسائلك على Slack، وMicrosoft Teams، تكبير وغيرها من التطبيقات الشعبية.
أصحاب العمل الأمريكيين الضخمة مثل وول مارت, خطوط دلتا الجوية, تي موبايل, شيفرون و ستاربكس، بالإضافة إلى العلامات التجارية الأوروبية بما في ذلك نستله و أسترازينيكا، لجأوا إلى شركة ناشئة عمرها سبع سنوات، Aware، لمراقبة الثرثرة بين صفوفهم، وفقًا للشركة.
يقول جيف شومان، المؤسس المشارك والرئيس التنفيذي لشركة كولومبوس الناشئة التي يقع مقرها في أوهايو، إن الذكاء الاصطناعي يساعد الشركات على “فهم المخاطر في اتصالاتها”، والحصول على قراءة لمشاعر الموظفين في الوقت الفعلي، بدلاً من الاعتماد على تقرير سنوي أو مرتين. المسح السنوي.
باستخدام البيانات مجهولة المصدر في منتج التحليلات الخاص بـ Aware، يمكن للعملاء معرفة كيفية استجابة الموظفين من فئة عمرية معينة أو في منطقة جغرافية معينة لسياسة الشركة الجديدة أو حملة تسويقية، وفقًا لشومان. وقال إن العشرات من نماذج الذكاء الاصطناعي من Aware، المصممة لقراءة النصوص ومعالجة الصور، يمكنها أيضًا تحديد التنمر والتحرش والتمييز وعدم الامتثال والمواد الإباحية والعُري وغيرها من السلوكيات.
وفقًا لشومان، لا تتمتع أداة التحليلات الخاصة بشركة Aware – تلك التي تراقب مشاعر الموظفين وسميتهم – بالقدرة على تحديد أسماء الموظفين الفردية. وأضاف أن أداة eDiscovery المنفصلة يمكنها القيام بذلك في حالة وجود تهديدات شديدة أو سلوكيات خطرة أخرى يحددها العميل مسبقًا.
لم تتلق CNBC ردًا من Walmart أو T-Mobile أو Chevron أو Starbucks أو Nestle فيما يتعلق باستخدامهم لـ Aware. قال ممثل من AstraZeneca إن الشركة تستخدم منتج eDiscovery لكنها لا تستخدم التحليلات لمراقبة المشاعر أو السمية. أخبرت شركة Delta CNBC أنها تستخدم تحليلات Aware والاكتشاف الإلكتروني لرصد الاتجاهات والمشاعر كوسيلة لجمع التعليقات من الموظفين وأصحاب المصلحة الآخرين، وللاحتفاظ بالسجلات القانونية في منصة التواصل الاجتماعي الخاصة بها.
لا يتطلب الأمر من عشاق رواية الديستوبيا أن يعرفوا أين يمكن أن تسوء الأمور.
قالت جوتا ويليامز، المؤسس المشارك لمنظمة Humane Intelligence غير الربحية المعنية بالذكاء الاصطناعي، إن الذكاء الاصطناعي يضيف مشكلة جديدة ويحتمل أن تكون إشكالية لما يسمى ببرامج المخاطر الداخلية، والتي كانت موجودة منذ سنوات لتقييم أشياء مثل تجسس الشركات، خاصة في اتصالات البريد الإلكتروني.
وفي معرض حديثه على نطاق واسع عن الذكاء الاصطناعي لمراقبة الموظفين بدلاً من تقنية Aware على وجه التحديد، قال ويليامز لشبكة CNBC: “الكثير من هذا يصبح جريمة فكرية”. وأضافت: “هذه معاملة الناس مثل المخزون بطريقة لم أرها من قبل”.
الذكاء الاصطناعي لمراقبة الموظفين هو جزء سريع التوسع ولكنه متخصص من سوق الذكاء الاصطناعي الأكبر الذي انفجر في العام الماضي، بعد إطلاق ChatGPT chatbot من OpenAI في أواخر عام 2022. وسرعان ما أصبح الذكاء الاصطناعي التوليدي العبارة الصاخبة لمكالمات أرباح الشركات، وشكل من أشكال تعمل التكنولوجيا على أتمتة المهام في كل صناعة تقريبًا، بدءًا من الخدمات المالية والأبحاث الطبية الحيوية وحتى الخدمات اللوجستية والسفر عبر الإنترنت والمرافق العامة.
وقال شومان لـ CNBC إن إيرادات شركة Aware قفزت بنسبة 150% سنويًا في المتوسط على مدار السنوات الخمس الماضية، ويبلغ عدد موظفيها النموذجيين حوالي 30 ألف موظف. ومن بين أبرز المنافسين Qualtrics وRelativity وProofpoint وSmarsh وNetskope.
وفقًا لمعايير الصناعة، تظل Aware هزيلة جدًا. جمعت الشركة الأموال آخر مرة في عام 2021، عندما جمعت 60 مليون دولار في جولة بقيادة جولدمان ساكس إدارة الأصول. قارن ذلك مع شركات نموذج اللغة الكبيرة، أو LLM، مثل OpenAI وAnthropic، والتي جمعت كل منها مليارات الدولارات، إلى حد كبير من الشركاء الاستراتيجيين.
“تتبع السمية في الوقت الحقيقي”
بدأ شومان الشركة في عام 2017 بعد أن أمضى ما يقرب من ثماني سنوات في العمل على التعاون المؤسسي في شركة التأمين Nationwide.
وقبل ذلك كان رجل أعمال. وشركة Aware ليست الشركة الأولى التي أنشأها والتي أثارت أفكار أورويل.
في عام 2005، أسس شومان شركة تسمى BigBrotherLite.com. وفقًا لملفه الشخصي على موقع LinkedIn، قامت الشركة بتطوير برنامج “يعزز تجربة المشاهدة الرقمية والمتنقلة” لمسلسل الواقع “Big Brother” الذي يعرض على قناة CBS. في رواية أورويل الكلاسيكية “1984”، كان الأخ الأكبر زعيماً لدولة شمولية كان مواطنوها تحت المراقبة الدائمة.
“قال شومان في رسالة بالبريد الإلكتروني: “لقد قمت ببناء مشغل بسيط يركز على تجربة المستهلك الأنظف والأسهل للأشخاص لمشاهدة البرنامج التلفزيوني على أجهزة الكمبيوتر الخاصة بهم”.
في Aware، يفعل شيئًا مختلفًا تمامًا.
في كل عام، تصدر الشركة تقريرًا يجمع الأفكار من المليارات – في عام 2023، كان العدد 6.5 مليار – من الرسائل المرسلة عبر الشركات الكبيرة، مع جدولة عوامل الخطر المتصورة ودرجات المشاعر في مكان العمل. يشير شومان إلى تريليونات الرسائل المرسلة عبر منصات الاتصالات في مكان العمل كل عام باعتبارها “مجموعة البيانات غير المنظمة الأسرع نموًا في العالم”.
عند تضمين أنواع أخرى من المحتوى الذي تتم مشاركته، مثل الصور ومقاطع الفيديو، يقوم الذكاء الاصطناعي لتحليلات Aware بتحليل أكثر من 100 مليون قطعة من المحتوى كل يوم. ومن خلال القيام بذلك، تقوم التكنولوجيا بإنشاء رسم بياني اجتماعي للشركة، حيث ينظر إلى الفرق التي تتحدث داخليًا مع بعضها البعض أكثر من غيرها.
وقال شومان عن أداة التحليلات: “إنها تتتبع دائمًا معنويات الموظفين في الوقت الفعلي، كما أنها تتتبع دائمًا السمية في الوقت الفعلي”. “إذا كنت أحد البنوك التي تستخدم Aware وارتفعت معنويات القوى العاملة في آخر 20 دقيقة، فذلك لأنهم يتحدثون عن شيء ما بشكل إيجابي، بشكل جماعي. وستكون التكنولوجيا قادرة على إخبارهم مهما كان الأمر.”
أكدت Aware لـ CNBC أنها تستخدم البيانات من عملائها من المؤسسات لتدريب نماذج التعلم الآلي الخاصة بها. وقالت الشركة إن مستودع بيانات الشركة يحتوي على نحو 6.5 مليار رسالة، تمثل نحو 20 مليار تفاعل فردي عبر أكثر من 3 ملايين موظف فريد.
وقال شومان إنه عندما يقوم عميل جديد بالتسجيل في أداة التحليلات، فإن الأمر يستغرق من نماذج الذكاء الاصطناعي الخاصة بـ Aware حوالي أسبوعين للتدريب على رسائل الموظفين والتعرف على أنماط العاطفة والمشاعر داخل الشركة حتى تتمكن من معرفة ما هو طبيعي مقابل غير طبيعي.
وقال شومان: “لن تحتوي على أسماء الأشخاص، لحماية الخصوصية”. وبدلاً من ذلك، قال إن العملاء سيرون أنه “ربما تشهد القوى العاملة التي تزيد أعمارهم عن 40 عامًا في هذا الجزء من الولايات المتحدة التغييرات في (أ) السياسة بشكل سلبي للغاية بسبب التكلفة، لكن أي شخص آخر خارج تلك الفئة العمرية و يراها الموقع بشكل إيجابي لأنه يؤثر عليهم بطريقة مختلفة.”
لكن أداة eDiscovery الخاصة بـ Aware تعمل بشكل مختلف. يمكن للشركة إعداد وصول قائم على الأدوار لأسماء الموظفين اعتمادًا على فئة “الخطر الشديد” التي تختارها الشركة، والتي توجه تقنية Aware لسحب اسم الفرد، في حالات معينة، للموارد البشرية أو ممثل آخر للشركة.
وقال شومان: “بعض الحالات الشائعة هي العنف الشديد، والتنمر الشديد، والمضايقة، لكنها تختلف حسب الصناعة”، مضيفًا أنه في الخدمات المالية، سيتم تعقب التداول الداخلي المشتبه به.
على سبيل المثال، يمكن للعميل تحديد سياسة “التهديدات العنيفة”، أو أي فئة أخرى، باستخدام تقنية Aware، كما قال شومان، وجعل نماذج الذكاء الاصطناعي تراقب الانتهاكات في Slack. مايكروسوفت الفرق ومكان العمل بواسطة ميتا. يمكن للعميل أيضًا ربط ذلك مع العلامات المستندة إلى القواعد لعبارات وعبارات معينة والمزيد. إذا وجد الذكاء الاصطناعي شيئًا ينتهك سياسات الشركة المحددة، فيمكنه تقديم اسم الموظف إلى الممثل المعين للعميل.
تم استخدام هذا النوع من الممارسة لسنوات في اتصالات البريد الإلكتروني. الجديد هو استخدام الذكاء الاصطناعي وتطبيقه عبر منصات المراسلة في مكان العمل مثل Slack وTeams.
يشعر أمبا كاك، المدير التنفيذي لمعهد الذكاء الاصطناعي الآن في جامعة نيويورك، بالقلق بشأن استخدام الذكاء الاصطناعي للمساعدة في تحديد ما يعتبر سلوكًا محفوفًا بالمخاطر.
وقالت كاك: “إن ذلك يؤدي إلى تأثير مروع على ما يقوله الناس في مكان العمل”، مضيفة أن لجنة التجارة الفيدرالية ووزارة العدل ولجنة تكافؤ فرص العمل أعربوا جميعًا عن مخاوفهم بشأن هذه المسألة، على الرغم من أنها لم تتحدث على وجه التحديد عن هذا الأمر. تكنولوجيا واعي. “هذه قضايا متعلقة بحقوق العمال بقدر ما هي قضايا تتعلق بالخصوصية.”
وقال شومان إنه على الرغم من أن أداة eDiscovery الخاصة بـ Aware تسمح لفرق تحقيقات الأمن أو الموارد البشرية باستخدام الذكاء الاصطناعي للبحث في كميات هائلة من البيانات، إلا أن “قدرة مماثلة ولكنها أساسية موجودة بالفعل اليوم” في Slack وTeams ومنصات أخرى.
وقال شومان: “الفرق الرئيسي هنا هو أن Aware ونماذج الذكاء الاصطناعي الخاصة بها لا تتخذ القرارات”. “إن الذكاء الاصطناعي الخاص بنا يجعل من السهل تمشيط مجموعة البيانات الجديدة هذه لتحديد المخاطر المحتملة أو انتهاكات السياسة.”
مخاوف الخصوصية
تشير الأبحاث إلى أنه حتى لو تم تجميع البيانات أو إخفاء هويتها، فهذا مفهوم خاطئ. أظهرت دراسة تاريخية حول خصوصية البيانات باستخدام بيانات التعداد السكاني الأمريكي لعام 1990 أنه يمكن التعرف على 87% من الأمريكيين فقط باستخدام الرمز البريدي وتاريخ الميلاد والجنس. يتمتع العملاء المدركون الذين يستخدمون أداة التحليلات الخاصة بها بالقدرة على إضافة بيانات التعريف إلى تتبع الرسائل، مثل عمر الموظف أو الموقع أو القسم أو المدة أو الوظيفة الوظيفية.
وقال كاك: “ما يقولونه هو الاعتماد على فكرة قديمة جدًا، وأود أن أقول، مفضوحة تمامًا في هذه المرحلة، وهي أن إخفاء الهوية أو التجميع هو بمثابة رصاصة سحرية في المخاوف المتعلقة بالخصوصية”.
بالإضافة إلى ذلك، يمكن أن يكون نوع نموذج الذكاء الاصطناعي الذي يستخدمه Aware فعالاً في توليد استنتاجات من البيانات المجمعة، وإجراء تخمينات دقيقة، على سبيل المثال، حول المعرفات الشخصية بناءً على اللغة والسياق والمصطلحات العامية والمزيد، وفقًا لأبحاث حديثة.
وقال كاك: “لا توجد شركة في الأساس في وضع يسمح لها بتقديم أي ضمانات شاملة بشأن خصوصية وأمن حاملي شهادات LLM وهذا النوع من الأنظمة”. “لا يوجد أحد يستطيع أن يقول لك بوجه مستقيم أن هذه التحديات قد تم حلها.”
وماذا عن رجوع الموظف؟ وقال ويليامز إنه إذا تم الإبلاغ عن تفاعل وتم تأديب العامل أو طرده، فمن الصعب عليهم تقديم دفاع إذا لم يكونوا مطلعين على جميع البيانات المعنية.
“كيف تواجه متهمك عندما نعلم أن إمكانية تفسير الذكاء الاصطناعي لا تزال غير ناضجة؟” قال ويليامز.
وقال شومان ردا على ذلك: “لا يتخذ أي من نماذج الذكاء الاصطناعي لدينا قرارات أو توصيات فيما يتعلق بانضباط الموظفين”.
وقال شومان: “عندما يشير النموذج إلى تفاعل ما، فإنه يوفر سياقًا كاملاً حول ما حدث والسياسة التي أثارها، مما يمنح فرق التحقيق المعلومات التي يحتاجونها لتحديد الخطوات التالية المتوافقة مع سياسات الشركة والقانون”.
يشاهد: الذكاء الاصطناعي “يلعب دورًا حقيقيًا هنا” مع عمليات تسريح العمال في مجال التكنولوجيا مؤخرًا