- اعلان -
الرئيسية الوطن العربي السعودية في لحظات القرار… هل يُفكر الذكاء الاصطناعي معك أم عنك؟

في لحظات القرار… هل يُفكر الذكاء الاصطناعي معك أم عنك؟

0

يلجأ الناس إلى تقنيات الذكاء الاصطناعي طمعاً في الوضوح والحسم واليقين، سواء في معرفة الأعراض الطبية، أو طلب النصيحة العاطفية، أو اتخاذ قرارات حياتية معقدة.

لكن هذا النموذج التقليدي لا يخلو من المخاطر. يحذر خبراء من أن الاعتماد المفرط على الذكاء الاصطناعي قد يُضعف الحكم البشري، ويعزز الانحياز التأكيدي، بل وقد يفضي إلى حالات من التعلّق العاطفي غير الصحي. ومن هنا تبرز أهمية ما جاء في منشور جديد «Blog» لشركة «أوبن إيه آي» (OpenAI) بعنوان: «كيف نُحسّن من تجربة استخدام (ChatGPT)»، الذي يمثل تحولاً فلسفياً كبيراً في كيفية تطوير الذكاء الاصطناعي واستخدامه. إذ لم تعد الشركة تنظر إلى الذكاء الاصطناعي أداةً لإعطاء الإجابات المطلقة، بل «شريك تفكير» يساعد المستخدم على استكشاف أفكاره واتخاذ قراراته بنفسه. هذا ليس مجرد تحديث تقني، بل إعادة تعريف جذرية لدور الذكاء الاصطناعي في حياة الإنسان.

يهدف التحوّل في تصميم ChatGPT إلى دعم التفكير النقدي بدلاً من تقديم حلول جاهزة (غيتي)

يتضمن المنشور مجموعة من التغييرات التي تعكس هذا التوجه الجديد، على رأسها التركيز على دعم عملية التفكير بدلاً من تقديم حلول نهائية خصوصاً في المواضيع الحساسة ذات البُعد الشخصي.

أحد الأمثلة اللافتة هو طريقة استجابة «تشات جي بي تي» (ChatGPT) للأسئلة العاطفية مثل «هل يجب أن أنفصل عن شريكي؟».

في السابق، ربما كان النموذج يقدم إجابة مباشرة، وقد تكون جافة أو غير متعاطفة. أما الآن، فباتت الإجابة تأخذ طابعاً استرشادياً؛ يسعى النموذج إلى طرح أسئلة توضيحية، ومساعدة المستخدم في تنظيم أفكاره، والتفكير في الإيجابيات والسلبيات. هذا التغيير يعكس هدفاً واضحاً وهو الحفاظ على استقلالية المستخدم. فكما توضح «OpenAI» فإن الهدف ليس اتخاذ القرار بدلاً منك، بل مساعدتك على التفكير فيه. هنا يصبح الذكاء الاصطناعي أشبه بالمدرب الذهني لا المستشار الحاسم.

تصفح أيضًا: «اعتدال» و«تلغرام» يزيلان أكثر من 30 مليون مادة متطرفة خلال الربع الثاني من 2025

ومن التحديثات اللافتة أيضاً إضافة ميزة «التذكير اللطيف» بأخذ استراحة خلال الجلسات الطويلة. قد تبدو هذه الميزة بسيطة، لكنها تعكس وعياً متزايداً بمخاطر التعلّق العاطفي المفرط، وتعمل على تشجيع الاستخدام الصحي والمتوازن.

التحوّل في فلسفة التصميم لا يهدف فقط إلى تحسين تجربة المستخدم، بل إلى تعزيز دوره في عملية اتخاذ القرار. النموذج القديم، الذي يصوّر الذكاء الاصطناعي مصدراً للحقيقة، يُضعف قدرة الإنسان على التفكير النقدي، ويجعله أكثر اعتماداً على إجابات خارجية بدلاً من تحليل الخيارات ذاتياً. أما النموذج الجديد، الذي يُقدّم الذكاء الاصطناعي دليلاً، فيمنح المستخدم أدوات لفهم ذاته وموقفه بشكل أعمق. النموذج لا يخبرك «ماذا تفعل؟»، بل يساعدك على معرفة «لماذا قد تفعل ذلك؟»، و«ما هي البدائل؟»، و«ما الذي يناسب قيمك وظروفك؟». بهذه الطريقة، يصبح الذكاء الاصطناعي أداة تدعم التفكير، لا تحل محله وسيلة لتعزيز الوعي واتخاذ قرارات أكثر وعياً واتزاناً.

التحول الفلسفي في تصميم الذكاء الاصطناعي يعيد تعريف العلاقة بين الإنسان والتقنية نحو شراكة لا تبعية (شاترستوك)

من المهم أيضاً الإشارة إلى أن هذه التغييرات لم تأتِ من فراغ. فقد تعاونت «Open AI» مع أكثر من 90 طبيباً من 30 دولة، إلى جانب أطباء نفسيين وباحثين في مجال التفاعل بين الإنسان والحاسوب (HCI)، لإعادة تصميم سلوك النموذج في المواقف الحساسة. هذا يسلّط الضوء على بُعد جديد في تطوير الذكاء الاصطناعي؛ لم يعد الأمر تقنياً فقط، بل إنساني وأخلاقي أيضاً. فمع ازدياد حضور النماذج اللغوية في حياتنا اليومية، يصبح من الضروري دمج المعايير النفسية والاجتماعية والأخلاقية ضمن التصميم.

ويعكس هذا التعاون توجهاً واضحاً نحو تطوير «ذكاء اصطناعي مسؤول»، يأخذ في اعتباره رفاهية المستخدم، وأثر التكنولوجيا على العلاقات الإنسانية واتخاذ القرار.

تحوّل الذكاء الاصطناعي من «عرّاف» إلى «دليل» قد يصبح الميزة الفارقة للجيل القادم من أدوات الذكاء الاصطناعي. فبدلاً من تقييم كفاءة الذكاء الاصطناعي بناءً على سرعة الإجابة، سيكون المعيار هو قدرته على دعم الإنسان في مواجهة المواقف المعقدة والمشاعر المتضاربة. ومع تطور هذا النهج، قد نشهد علاقة أكثر صحية وتوازناً بين الإنسان والتكنولوجيا؛ علاقة تقوم على التعاون لا التبعية، وعلى التمكين لا الإملاء.

إن الغاية النهائية للذكاء الاصطناعي ليست استبدال العقل البشري، بل تقويته. ليست تجاوز تعقيد الواقع، بل مساعدتنا على فهمه ومواجهته بوعي. وهنا، يمكن للذكاء الاصطناعي أن يؤدي دوره الحقيقي: دليلاً يعيننا على التفكير، لا عرافاً يملينا الطريق.

لا يوجد تعليقات

ترك الرد

من فضلك ادخل تعليقك
من فضلك ادخل اسمك هنا

Exit mobile version