سواء رغبنا في ذلك أم لا، فقد تسلل الذكاء الاصطناعي إلى أماكن العمل، ويتعرض كل الموظفين لضغوط لاستخدامه. ومع ذلك، ووفقاً لدراسة جديدة، قد يكون من الأفضل تجنب طلب المساعدة من الذكاء الاصطناعي في إدارة شؤونك العاطفية، كما كتبت سارة بريغل(*).
نُشرت الدراسة المكونة من جزأين، بعنوان «الذكاء الاصطناعي المتملق يقلل من النيّات الاجتماعية الإيجابية ويعزز الاعتماد»، أخيراً في مجلة «ساينس». وأظهرت التجربة أن استخدام روبوتات الدردشة للحصول على نصائح شخصية والتعامل مع المواقف العاطفية قد يكون ضاراً، لأن النظام مصمَّم ليقول للناس ما يريدون سماعه. كما قد يؤدي استخدام روبوتات الدردشة إلى تعزيز السلوكيات المقلقة بدلاً من مساعدة الناس على تحمل مسؤولية أفعالهم، والاعتذار.
قد يؤدي استخدام روبوتات الدردشة إلى تعزيز السلوكيات المقلقة بدلاً من مساعدة الناس على تحمل مسؤولية أفعالهم والاعتذار.
وأظهر استطلاع رأي أجرته شركة «Cognitive FX» أخيراً أن نحو 38 في المائة من الأميركيين يستخدمون روبوتات الدردشة المدعومة بالذكاء الاصطناعي أسبوعياً للحصول على الدعم النفسي، فيما وجدت دراسة حديثة أجراها مركز «بيو» للأبحاث أن 12 في المائة من المراهقين يستخدمون الذكاء الاصطناعي للحصول على المشورة. ووفقاً لاستطلاع رأي أجرته مؤسسة «كايزر فاميلي فاونديشن (KFF)»، فإن عدم وجود تأمين صحي يُعدّ أيضاً عاملاً مُحفزاً للاستخدام، حيث إن البالغين غير المُؤمّنين صحياً أكثر استخداماً له من أولئك المُؤمّنين (30 في المائة مقابل 14 في المائة).
في الدراسة الأخيرة، بحث الباحثون مدى انتشار التملق -الذي يُعرَّف بأنه «ميل نماذج اللغة الكبيرة القائمة على الذكاء الاصطناعي إلى الموافقة المفرطة على آراء المستخدمين، أو التملق لهم، أو إضفاء الشرعية عليهم»- عبر 11 نموذجاً رائداً للذكاء الاصطناعي، بما في ذلك «جي بي تي 40» و«كلود» و«جيميناي».
أجرى الباحثون ثلاث تجارب شملت 2405 مشاركين.
اقرأ ايضا: نصائح للاستيقاظ صباحاً من دون منبّه
* في الدراسة الأولى، زوّد الباحثون نظام الذكاء الاصطناعي بسلسلة من الأسئلة لطلب المشورة، ومنشورات من منتدى «هل أنا المخطئ AITA؟» على موقع «ريديت»، وسلسلة من الأوصاف حول الرغبة في إيذاء الآخرين أو النفس، ثم قارنوا ردود الذكاء الاصطناعي، بالأحكام البشرية. وبشكل عام، كانت النماذج أكثر ترجيحاً بنسبة 49 في المائة من الإنسان لتأييد تصرفات المستخدم، حتى لو كانت ضارة أو غير قانونية.
* في الدراسة الثانية، تخيّل المشاركون أنهم في سيناريو موصوف في منشور «AITA»، حيث حُكم على تصرفاتهم بأنها خاطئة. ثم قرأوا رداً كتبه إنسان يقول إنهم مخطئون، أو رداً كتبه الذكاء الاصطناعي يقول إنهم على صواب.
* في الدراسة الثالثة، ناقش المشاركون صراعاً حقيقياً في حياتهم مع ذكاء اصطناعي أو إنسان.
المثير للقلق أن المشاركين وثقوا وفضّلوا ردود الذكاء الاصطناعي المتملقة التي أكدت تصرفاتهم. كما ازداد اقتناعهم بصحة تصرفاتهم الأصلية، مؤكدين بذلك معتقداتهم السابقة بدلاً من أن يتحدى برنامج الدردشة الآلي تفكيرهم في الموقف بشكل مختلف. وأشارت الدراسة إلى أن تأكيد معتقداتهم جعلهم أقل ميلاً للاعتذار بعد التحدث مع برنامج الدردشة الآلي.
وأوضحت الدراسة: «في تجاربنا على البشر، فإن تفاعلاً واحداً فقط مع ذكاء اصطناعي متملق، قلَّل من رغبة المشاركين في تحمل المسؤولية وإصلاح النزاعات الشخصية، فيما زاد من قناعتهم بصواب موقفهم».
مع أن تلقي النصائح من الذكاء الاصطناعي ليس بالأمر الجديد، إلا أن هذه الدراسة تُظهر مدى ضرره. فبينما تُحفز خوارزميات وسائل التواصل الاجتماعي التفاعل من خلال إثارة غضب المستخدمين، يُضعف الذكاء الاصطناعي قدرتنا على الاعتذار وتحمل مسؤولية إيذاء الآخرين. وكما أشار مؤلفو الدراسة، فإن هذا يعني أن «الخاصية التي تُسبب الضرر هي نفسها التي تُحفز التفاعل».
* مجلة «فاست كومباني».

