الإثنين, يوليو 28, 2025
الرئيسيةالتكنولوجيادراسة جديدة.. بعض النماذج اللغوية تغيّر إجاباتها تبعًا لطريقة تحدُّث المستخدم

دراسة جديدة.. بعض النماذج اللغوية تغيّر إجاباتها تبعًا لطريقة تحدُّث المستخدم

كشف باحثون من جامعة أكسفورد عن أن اثنين من أبرز نماذج الذكاء الاصطناعي المجانية والمفتوحة المصدر يقدمان إجابات مختلفة للمستخدمين عن موضوعات واقعية استنادًا إلى عوامل تتعلق بهوية المستخدم المفترضة، مثل: العِرق والجنس والعمر. ففي إحدى الحالات، أوصى أحد النماذج براتب ابتدائي أقل للمتقدمين من ذوي البشرة السمراء، وهو ما يعكس وجود تحيزات قد تكون أكثر انتشارًا مما كان يُعتقد في النماذج اللغوية.

أوضحت الدراسة أن النماذج التي استُخدمت في البحث تستنتج سمات شخصية مثل: الجنس والعِرق والعمر والجنسية من خلال مؤشرات لغوية دقيقة، ثم تعدل إجاباتها وفقًا لهذه الافتراضات عند الإجابة عن أسئلة تتعلق بالرواتب، أو تقديم نصائح طبية، أو الحقوق القانونية، أو الاستحقاقات الحكومية.

النموذجان المستخدمان في الدراسة هما:

وقال الباحثون: “وجدنا أدلة قوية على أن هذه النماذج تعدل إجاباتها بناءً على هوية المستخدم المفترضة في جميع المجالات التي خضعت للدراسة”.

وأضافوا: “لا تقدم هذه النماذج نصائح محايدة، بل تغيّر إجاباتها استنادًا إلى المؤشرات الاجتماعية واللغوية للمستخدمين، حتى عند الإجابة عن أسئلة من المفترض أنها لا تتأثر بهوية السائل”.

أكد الباحثون أن هذه التحيزات ظهرت في مجالات حساسة، منها: تقديم النصائح الطبية، والمعلومات القانونية، واستحقاقات الدعم الحكومي، والموضوعات السياسية المثيرة للجدل، وحتى تقديرات الرواتب. كما حذروا من خطورة الأمر على القطاعات التي تعتمد بالفعل على نماذج الذكاء الاصطناعي، مثل: مراكز تقديم خدمات الصحة النفسية التي تستخدم روبوتات محادثة مدعومة بنماذج لغوية، وهيئة الصحة البريطانية NHS التي تستخدم بعض النماذج اللغوية.

قد يهمك أيضًا: تسريبات جديدة تكشف ألوان جريئة وكاميرا ثلاثية فى هاتف Pixel 10

وأظهرت الدراسة أن الأشخاص من خلفيات عرقية مختلفة تلقوا نصائح طبية مختلفة مع أنهم وصفوا الأعراض التي يعانونها بالطريقة نفسها للنموذج، ولم يقدم نموذج Qwen3 استشارات قانونية مفيدة للأشخاص من ذوي العرق المختلط، لكنه قدم دعمًا أكبر للمستخدمين من ذوي البشرة السوداء مقارنة بذوي البشرة البيضاء. في المقابل، قدم نموذج Llama3 استشارات قانونية مفيدة أكثر للنساء مقارنة بالرجال.

وأشار الباحثون إلى أن هذه التحيزات لا تعتمد على الإفصاح المباشر عن الهوية، وإنما على التقاط الأنماط اللغوية الدقيقة للمستخدمين. ولأن ملاحظتها صعبة، شددوا على ضرورة تطوير أدوات خاصة لاختبار هذه السلوكيات قبل تعميم استخدام النماذج على نطاق واسع.

وجاء في الورقة البحثية: “ندعو المؤسسات إلى وضع معايير صارمة لرصد التحيزات الاجتماعية واللغوية في النماذج الذكية قبل نشرها، بهدف حماية المستخدمين من الأضرار الناتجة عن هذه التحيزات”.

اعتمد الباحثون على مجموعتي بيانات أساسيتين، هما:

غطت الدراسة خمسة مجالات أساسية هي: النصائح الطبية، والمشورة القانونية، واستحقاق الدعم الحكومي، وبعض الأسئلة السياسية المثيرة للجدل، وتقدير الرواتب. ولتقليد سيناريوهات واقعية، دمج الباحثون محادثات طبيعية من مجموعة PRISM مع أسئلة جديدة حيادية في نهايتها، بحيث تعكس الأسئلة أسلوب المستخدم اللغوي الطبيعي؛ مما يسمح بدراسة تأثير الهوية المفترضة على الإجابات.

اختبر الباحثون النموذجين عبر مجموعة من الأسئلة في المجالات الخمسة، وكانت النتائج كالتالي:

حذرت الدراسة من أن هذه التحيزات إن لم تُعالج، قد تترسخ داخل نماذج الذكاء الاصطناعي بسبب صعوبة التحكم الكامل في بيانات التدريب وتوجيه النماذج أخلاقيًا، وأكد الباحثون ضرورة توسيع نطاق هذه الدراسة لتشمل نماذج لغوية أخرى شائعة الاستخدام، مثل: ChatGPT.

مقالات ذات صلة

ترك الرد

من فضلك ادخل تعليقك
من فضلك ادخل اسمك هنا

- اعلان -

الأكثر شهرة

احدث التعليقات