الإثنين, مارس 23, 2026
الرئيسيةالتكنولوجياانهيار نماذج الذكاء الاصطناعي.. تحذيرات من تسمم البيانات والمحتوى المولد آليًّا

انهيار نماذج الذكاء الاصطناعي.. تحذيرات من تسمم البيانات والمحتوى المولد آليًّا

أطلق خبراء تقنيون تحذيرات شديدة اللهجة من ظاهرة متصاعدة تتمثل في تسمم نماذج الذكاء الاصطناعي الكبيرة تدريجيًّا، وهو ما قد يؤدي إلى انهيارها بالكامل، تحدث هذه المشكلة عندما تقوم النماذج اللغوية بتدريب نفسها على محتوى غير موثوق تم توليده مسبقًا بواسطة أنظمة ذكاء اصطناعي أخرى، مما يخلق حلقة مفرغة من البيانات الرديئة، و تتسبب هذه الظاهرة في تضخيم الأخطاء الواقعية، التحيزات، والهلوسات الرقمية، لتصبح مشكلة إدخال بيانات خاطئة ينتج عنها مخرجات كارثية (GIGO) على نطاق غير مسبوق في الصناعة التقنية.

وفقًا لتقرير بموقع “زد دي نت” (ZDNet)، أكدت مؤسسة “جارتنر” (Gartner) للأبحاث أن أنظمة الذكاء الاصطناعي في المؤسسات تغرق حاليًّا في طوفان من المحتوى الآلي غير المتحقق منه، ونقل الموقع عن المحللين قولهم إن هذه المدخلات المعيبة تنتقل كعدوى عبر مسارات العمل الآلية وأنظمة اتخاذ القرار، مما يؤدي إلى نتائج أسوأ بكثير مما نشهده اليوم، داعين الشركات إلى تبني نهج صارم لتنقية بيانات التدريب وحمايتها فورًا.

اقرأ ايضا: جوجل تقر بخلل فى Gmail أغرق البريد الوارد بالرسائل المزعجة

يمثل هذا التحدي الفني عقبةً استراتيجيةً كبرى أمام مستقبل الذكاء الاصطناعي الموثوق، خاصةً مع الاعتماد المتزايد عليه في القطاعات الحيوية مثل الرعاية الصحية، الخدمات المالية، والأمن السيبراني. لتفادي هذا الانهيار الوشيك، تبرز حاجة ماسة إلى تطبيق مبادئ “الثقة المعدومة” (Zero Trust) على حوكمة البيانات، وهو مفهوم كان يُستخدم أساسًا لحماية الشبكات، ويُعاد توجيهه الآن للتدقيق الشامل في جودة وأصالة كل معلومة تدخل في تدريب النماذج لضمان سلامتها وصلاحيتها للاستخدام البشري.

يؤدي التدريب المستمر على بيانات اصطناعية إلى فقدان النماذج لفهمها للواقع البشري، مما يجعل إجاباتها غير منطقية ومضللة تمامًا، حوكمة البيانات الصارمة، وقد أصبح التحقق من صحة مصادر البيانات وتنقيتها شرطًا أساسيًّا لضمان استمرار عمل النماذج الذكية بفعالية وموثوقية عالية.
 

مقالات ذات صلة
- اعلان -

الأكثر شهرة

احدث التعليقات