تزداد قدرات أنظمة الذكاء الاصطناعي بسرعة، لكنّ عدداً من الباحثين يرون أن القدرة الحسابية للذكاء الاصطناعي وحدها لا تكفي. فمع تطور هذه التقنيات، يبرز اتجاه بحثي جديد يدعو إلى التركيز على عنصر مختلف من خلال جعل الآلات أكثر حكمة في كيفية استخدام هذا الذكاء وليس أكثر ذكاءً فقط.
وفي هذا السياق، قدّم فريق بحثي متعدد التخصصات بقيادة باحثين من جامعة واترلو الكندية خريطة طريق تهدف إلى إدماج عناصر من «الحكمة البشرية» في أنظمة الذكاء الاصطناعي. ويجمع هذا العمل بين مجالات علم النفس وعلوم الحاسوب والهندسة، في محاولة لإعادة التفكير في كيفية اتخاذ الآلات للقرارات في البيئات المعقدة.
شهدت أنظمة الذكاء الاصطناعي الحديثة خصوصاً النماذج اللغوية الكبيرة، تقدماً لافتاً في مجالات مثل توليد النصوص وكتابة الشيفرات وتحليل البيانات. غير أن هذه الأنظمة لا تزال تواجه صعوبة عندما يتعلق الأمر بالمواقف الغامضة أو المشكلات التي تتطلب حكماً وتقديراً بدلاً من مجرد معالجة المعلومات.
ويرى الباحثون أن الفارق يكمن في التمييز بين الذكاء والحكمة. فالذكاء يمكّن الآلة من اكتشاف الأنماط وتحليل البيانات وإنتاج الإجابات، بينما تتضمن الحكمة مجموعة أوسع من القدرات المعرفية مثل إدراك حدود المعرفة، والنظر إلى القضايا من زوايا متعددة، والتكيف مع السياقات المتغيرة. وغالباً ما يعتمد البشر على هذه القدرات عند التعامل مع المواقف الاجتماعية المعقدة أو الأحداث غير المتوقعة، وهي مهارات ما زالت أنظمة الذكاء الاصطناعي تفتقر إليها رغم قوتها الحسابية.
يرى باحثون أن القدرة الحسابية للذكاء الاصطناعي وحدها لا تكفي لاتخاذ قرارات مناسبة في البيئات المعقدة (رويترز)
يقترح الباحثون أن أحد المسارات الممكنة لتطوير أنظمة ذكاء اصطناعي أكثر قدرة يتمثل في بناء نوع من «الميتامعرفة» (Metacognition)، أي قدرة النظام على التفكير في طريقة تفكيره الخاصة.
ويمكن لهذه القدرة أن تسمح للأنظمة الذكية بإدراك حدود معرفتها، والنظر في تفسيرات بديلة، وتعديل استجاباتها وفق السياق. وبدلاً من تقديم إجابة واحدة بثقة عالية، قد يكون النظام قادراً على التعبير عن درجة من عدم اليقين أو عرض عدة وجهات نظر محتملة. ويعتقد الباحثون أن إدماج مثل هذه الآليات قد يجعل الذكاء الاصطناعي أكثر موثوقية عند التعامل مع المشكلات التي لا تمتلك حلولاً واضحة أو محددة.
يواجه مفهوم «الحكمة» تحدياً أساسياً، إذ غالباً ما يُنظر إليه باعتباره مفهوماً فلسفياً أو مجرداً. ولذلك يقترح الفريق البحثي تفكيكه إلى مكونات يمكن قياسها وتطبيقها في النماذج الحسابية.
نوصي بقراءة: وزير الخارجية السعودي يبحث هاتفياً التطورات في المنطقة مع نظيريه التركي والباكستاني
من بين هذه المكونات ما يُعرف بالتواضع المعرفي، أي قدرة النظام على الاعتراف بأن المعلومات المتاحة قد تكون غير كاملة. كما يشمل ذلك البحث عن وجهات نظر متعددة قبل الوصول إلى نتيجة، إضافة إلى الحساسية للسياق، أي القدرة على تعديل طريقة التفكير حسب الظروف المحيطة. ويرى الباحثون أن ترجمة هذه الخصائص إلى أطر حاسوبية قد تسمح مستقبلاً بتصميم أنظمة ذكاء اصطناعي تتضمن هذه السمات ضمن آليات اتخاذ القرار.
يقترح الباحثون تحويل مفاهيم مثل التواضع المعرفي وفهم السياق إلى عناصر قابلة للقياس داخل النماذج الحسابية
جزء آخر من خريطة الطريق المقترحة يتعلق بتطوير أدوات تقييم جديدة لقياس مدى قدرة أنظمة الذكاء الاصطناعي على التعامل مع التفكير المعقد. فمعظم الاختبارات الحالية تركز على مهارات محددة مثل فهم اللغة أو حل الألغاز المنطقية. إلا أن الباحثين يرون أن هذه الاختبارات لا تعكس نوع الحكم المطلوب في البيئات الواقعية. ولهذا يقترحون تطوير معايير تقيس كيفية تعامل الأنظمة مع عدم اليقين أو المعلومات المتناقضة أو المعضلات الأخلاقية، وهي مجالات تتطلب نوعاً من التفكير الأقرب إلى الحكمة.
لكن لماذا يكتسب هذا التوجه أهمية الآن؟
تأتي الدعوة إلى تطوير «ذكاء اصطناعي أكثر حكمة» في وقت تتوسع فيه استخدامات هذه التقنيات في مجالات حساسة مثل الرعاية الصحية والتمويل وصنع السياسات العامة.
ومع دخول الخوارزميات في عمليات تؤثر بشكل مباشر في حياة البشر، يحذر الباحثون من أن الذكاء الحسابي وحده قد لا يكون كافياً. فالأنظمة يجب أن تكون قادرة أيضاً على التعامل مع التعقيد والمسؤولية بطريقة أكثر توازناً. فمن دون هذه القدرات، قد تنتج الأنظمة قرارات تبدو صحيحة تقنياً لكنها غير مناسبة للسياق الاجتماعي أو الإنساني، وهو ما قد يقوض الثقة في الأنظمة المؤتمتة.
يشدد الباحثون على أن الهدف ليس إعادة إنتاج الحكمة البشرية بالكامل داخل الآلات، بل تطوير أنظمة قادرة على التعامل مع عدم اليقين بطريقة أكثر مسؤولية والتعاون بشكل أفضل مع المستخدمين البشر.
وقد يؤدي ذلك عملياً إلى تطوير أنظمة أكثر شفافية في طريقة تفكيرها، وأكثر قدرة على التكيف مع المواقف الجديدة، وأكثر انسجاماً مع الأهداف البشرية. كما قد يسهم هذا النهج في تحسين سلامة الأنظمة، إذ إن الأنظمة القادرة على إدراك حدودها أو تقييم عدة نتائج محتملة قد تكون أقل عُرضة لتقديم إجابات مضللة أو مفرطة في الثقة.
يبقى تطوير ذكاء اصطناعي قائم على مبادئ الحكمة تحدياً بحثياً طويل الأمد. فخريطة الطريق المقترحة تقدم إطاراً أولياً، لكنها تؤكد أن تحقيق هذه الرؤية سيتطلب تعاوناً واسعاً بين تخصصات متعددة. ومع استمرار تطور قدرات الذكاء الاصطناعي، قد يتحول السؤال الأساسي من مدى ذكاء الآلات إلى مدى قدرتها على استخدام هذا الذكاء بحكم وتبصر.

