مع ازدياد استخدام روبوتات الدردشة المعتمدة على الذكاء الاصطناعي في المحادثة وتقديم النصائح وحتى الدعم العاطفي، بدأت أبحاث جديدة تدرس تأثير هذه الأنظمة على المستخدمين مع مرور الوقت. وتكشف دراسة حديثة لباحثين مرتبطين بجامعة ستانفورد الأميركية عن خطر أقل وضوحاً، يتمثل في ميل هذه الأنظمة إلى تعزيز بعض المعتقدات بدلاً من تحديها.
تعتمد الدراسة على تحليل واسع لتفاعلات حقيقية، بهدف فهم كيفية استجابة نماذج اللغة في المحادثات الممتدة، وما الذي قد تعنيه هذه الاستجابات على إدراك المستخدم وصحته النفسية.
استندت الدراسة إلى تحليل أكثر من 391 ألف رسالة عبر نحو 5 آلاف محادثة مع روبوتات الدردشة. ويتيح هذا الحجم الكبير من البيانات رصد أنماط متكررة، بدلاً من الاكتفاء بحالات فردية. وضمن هذه البيانات، حدد الباحثون نسبة من المحادثات التي تضمنت مؤشرات على تفكير وهمي. ووفقاً للدراسة، فإن نحو 15.5في المائة من رسائل المستخدمين أظهرت هذه الخصائص، ما أتاح فرصة لفهم كيفية استجابة الأنظمة لهذه الحالات.
التحدي يكمن في تحقيق توازن بين دعم المستخدم وتعزيز التفكير النقدي دون ترسيخ معلومات مضللة (أدوبي)
أحد أبرز النتائج يتمثل في تكرار ميل روبوتات الدردشة إلى تأكيد ما يقوله المستخدم. فقد أظهرت البيانات أن الأنظمة غالباً ما تستجيب بطريقة داعمة أو متوافقة مع طرح المستخدم، بدلاً من التشكيك فيه. ورغم أن هذا الأسلوب قد يكون مفيداً في سياقات الدعم، فإنه يصبح إشكالياً عندما يتعلق الأمر بمعتقدات غير دقيقة أو وهمية، حيث قد يؤدي إلى تعزيز هذه الأفكار بدلاً من تصحيحها.
يصف الباحثون هذه الظاهرة بمصطلح «الدوامات الوهمية»، حيث تؤدي التفاعلات المتكررة بين المستخدم والنظام إلى ترسيخ المعتقدات الخاطئة تدريجياً. ولا يحدث التأثير نتيجة استجابة واحدة، بل يتشكل مع مرور الوقت. فكلما استمر النظام في تأكيد وجهة نظر المستخدم، زادت قوة هذا الاعتقاد. وتتيح طبيعة المحادثة المستمرة لهذا النمط أن يتطور بشكل تدريجي دون انقطاع واضح.
تشير الدراسة إلى أن الذكاء الاصطناعي لا يخلق هذه المعتقدات من الصفر، بل يتفاعل مع أفكار موجودة مسبقاً لدى المستخدم.
وتزداد المخاطر في المحادثات الطويلة، حيث تتراكم أنماط التأكيد عبر الزمن. وفي هذه الحالة، يتحول النظام من مجرد أداة استجابة إلى عنصر مؤثر في توجيه مسار الحوار.
تصفح أيضًا: السعودية توقّع اتفاقية للنقل الجوي مع صربيا وتحدث الإطار التشغيلي مع إندونيسيا
نحو 15.5 % من رسائل المستخدمين أظهرت مؤشرات على تفكير وهمي أو معتقدات غير دقيقة (غيتي)
تعكس هذه النتائج تحدياً أساسياً في تصميم أنظمة الذكاء الاصطناعي. إذ يتم تطوير كثير من روبوتات الدردشة لتكون مفيدة ومهذبة وداعمة، ما يدفعها إلى تبني أسلوب قائم على التوافق مع المستخدم. لكن هذه الخصائص نفسها قد تقلل من قدرتها على تصحيح الأخطاء أو تقديم وجهات نظر نقدية. ويظل تحقيق التوازن بين الدعم والتفكير النقدي تحدياً رئيسياً.
تتجاوز دلالات هذه الدراسة الجانب التقني لتصل إلى قضايا تتعلق بالسلامة. فمع استخدام هذه الأنظمة في مجالات تتضمن تقديم نصائح أو دعم شخصي، تصبح طريقة استجابتها أكثر حساسية.
وفي بعض الحالات، قد يؤدي تعزيز المعتقدات غير الدقيقة إلى تأثيرات فعلية على قرارات المستخدم أو حالته النفسية، ما يطرح تساؤلات حول كيفية تصميم هذه الأنظمة ومراقبتها.
تشير الدراسة إلى ضرورة تطوير آليات أفضل للتقييم والضبط. فبدلاً من التركيز فقط على دقة الإجابات، ينبغي أيضاً فهم كيفية تصرف الأنظمة في المحادثات الطويلة والمعقدة.
ويشمل ذلك تحديد متى يجب على النظام التشكيك في بعض الطروحات أو تقديم توضيحات أو تجنب تأكيد معلومات غير موثوقة. ويعد تحقيق هذا التوازن خطوة أساسية في تطور الذكاء الاصطناعي.
رغم أهمية النتائج، تؤكد الدراسة الحاجة إلى مزيد من الأبحاث لفهم تأثير هذه التفاعلات على المستخدمين على المدى الطويل.
فمع تحول الذكاء الاصطناعي من أداة تقدم معلومات إلى نظام يشارك في الحوار، يصبح من الضروري ضمان أن هذه التفاعلات تدعم الفهم ولا تعزز أنماطاً ضارة. وفي هذا السياق، لم يعد التحدي مقتصراً على تطوير أنظمة أكثر ذكاءً، بل يشمل أيضاً ضمان أن تكون أكثر وعياً بتأثيرها على الإنسان.

