يثير تقرير علمي جديد مخاوف بشأن تأثير روبوتات الدردشة النفسي، حيث تكشف دراسة أنه على الرغم من تصميم هذه الأدوات للمساعدة والتفاعل، إلا أنها قد تُعزز التفكير الوهمي لدى بعض المستخدمين، لا سيما أولئك المعرضين بالفعل لاضطرابات الصحة النفسية.
وفقا لما ذكره موقع “India today”، نُشر التقرير في مجلة “ذا لانسيت للطب النفسي”، ويتناول الأدلة الأولية حول ما يُوصف بـ”الأوهام المرتبطة بالذكاء الاصطناعي”، حيث يقول الباحثون إنه بدلاً من التسبب المباشر في الذهان، قد تُضخّم روبوتات الدردشة الميول الموجودة، خاصةً عندما يبدأ المستخدمون بالاعتماد عليها للحصول على تأكيد لأفكارهم، فإنها قد تُضخم المعتقدات الوهمية.
حلل البحث، بقيادة الدكتور هاميلتون مورين، حوالي 20 تقريرًا إعلاميًا تُسلط الضوء على حالات بدت فيها تفاعلات روبوتات الدردشة وكأنها تُعزز المعتقدات الخاطئة، وفي عدة حالات، تلقى المستخدمون ردودًا تدعم أو تُشجع أفكارًا غير مألوفة بدلاً من التشكيك فيها.
كتب مورين: “تشير الأدلة الناشئة إلى أن الذكاء الاصطناعي قد يُؤكد أو يُضخّم المحتوى الوهمي أو المُبالغ فيه، لا سيما لدى المستخدمين المعرضين بالفعل للذهان”، مضيفا أنه لا يزال من غير الواضح ما إذا كانت هذه التفاعلات قادرة على تحفيز الذهان لدى الأشخاص الذين لا يعانون من أي عوامل خطر سابقة.
وتنقسم الأوهام عادةً إلى ثلاث فئات: أوهام العظمة، والأوهام الرومانسية، والأوهام الارتيابية، ويبدو أن أوهام العظمة هي الأكثر تأثرًا، فقد أفادت بعض التقارير أن بعض برامج الدردشة الآلية ردت بلغة غامضة أو روحانية، مما جعل المستخدمين يشعرون بأن لديهم غاية خاصة أو أسمى، أو أنهم مرتبطون بقوة كونية عظمى.
ولاحظ الباحثون أن هذه الاستجابات كانت أكثر شيوعًا في أنظمة الذكاء الاصطناعي القديمة مثل GPT-4، الذي تم إيقاف استخدامه الآن، ويواجه المستخدمون الأكثر عرضة للخطر مخاطر أكبر، فيقول الخبراء إن الخطر يكون أعلى ما يكون بين الأفراد الذين هم بالفعل في المراحل المبكرة من الذهان، وقد يشكك هؤلاء المستخدمون في البداية في معتقداتهم، لكن التأكيد المتكرر قد يدفعهم نحو الاقتناع التام.
اقرأ ايضا: رئيس مجلس إدارة OpenAI: الذكاء الاصطناعى سيكون ركيزة أساسية للاقتصاد العالمى فى العقود المقبلة
قد يزيد التفاعل بين برامج الدردشة الآلية من حدة هذا الخطر، فعلى عكس المحتوى الثابت، تستجيب أنظمة الذكاء الاصطناعي في الوقت الفعلي وتتكيف مع المستخدمين.
يقول الباحثون إنه لا يوجد حاليًا أي دليل يربط برامج الدردشة الآلية بأعراض ذهانية أخرى مثل الهلوسة أو التفكير غير المنظم، ويعتقد الكثيرون أيضًا أن الذكاء الاصطناعي من غير المرجح أن يُسبب أوهامًا لدى الأشخاص غير المعرضين لها، ولهذا السبب، يُفضّل الخبراء مصطلح “الأوهام المرتبطة بالذكاء الاصطناعي” على مصطلح “الذهان الناجم عن الذكاء الاصطناعي”.
في الوقت نفسه، تُثير هذه النتائج تساؤلات حول تصميم برامج الدردشة الآلية، حيث تشير الدراسات إلى أن الإصدارات الأحدث والمدفوعة من هذه التطبيقات تتعامل مع هذه التنبيهات بشكل أفضل من النماذج القديمة، مما يدل على إمكانية وجود أنظمة أكثر أمانًا.
وقد صرّحت شركة OpenAI بأن برنامج الدردشة الآلي الخاص بها ليس بديلاً عن خدمات الصحة النفسية المتخصصة، وأنها تعاونت مع أكثر من 170 خبيرًا لتحسين مستوى الأمان.
ومع ذلك، يرى الباحثون أن بناء ضمانات فعّالة لا يزال أمرًا صعبًا، فالتشكيك المباشر في معتقدات المستخدم قد يدفعه إلى الابتعاد، بينما قد يؤدي التأييد لها إلى تفاقم المشكلة.
وتدعو الدراسة إلى إجراء المزيد من الاختبارات السريرية لأدوات الذكاء الاصطناعي بالتعاون مع متخصصي الصحة النفسية، في محاولة من الباحثين لفهم كيف يمكن لهذه الأنظمة سريعة التطور أن تُشكّل طريقة التفكير البشرى.
