في أول 24 ساعة من الحرب مع إيران، شنت الولايات المتحدة ضربات على ألف هدف. وبحلول نهاية الأسبوع، تجاوز العدد الإجمالي 3000 هدف، أي ضعف ما تم استهدافه في مرحلة «الصدمة والترويع» خلال غزو العراق عام 2003، وفقاً لوزير الحرب بيت هيغسيث، كما كتب فيصل حق (*).
وقد أصبح هذا العدد غير المسبوق من الضربات ممكناً بفضل الذكاء الاصطناعي. وتصرّ القيادة المركزية الأميركية (سنتكوم) على أن العنصر البشري يبقى مشاركاً في كل قرار يتعلق بتحديد الأهداف، وأن الذكاء الاصطناعي موجود لمساعدتهما على اتخاذ «قرارات أكثر ذكاءً وبسرعة أكبر». لكن يبقى الدور الذي يمكن أن يلعبه البشر تحديداً عندما تعمل الأنظمة بهذه السرعة، غير واضح.
قد يُقدم استخدام إسرائيل للذكاء الاصطناعي في تحديد الأهداف خلال حربها على «حماس» بعض الأفكار. فقد أفاد تحقيق أُجري العام الماضي بأن الجيش الإسرائيلي نشر نظام ذكاء اصطناعي يُدعى «لافندر» Lavender لتحديد المشتبه بهم من المسلحين في غزة.
وكانت الرواية الرسمية هي أن جميع قرارات الاستهداف كانت تخضع لتقييم بشري. لكن وفقاً لأحد العاملين في شركة «لافندر»، فإنه ومع ازدياد ثقة الموظفين بالنظام، اقتصرت فحوصهم على التأكد من أن الشخص المستهدف، ذكر. وهو يقول: «كنت أقضي 20 ثانية لكل شخص مستهدف. لم يكن لوجودي أي قيمة مضافة كإنسان، باستثناء كوني مجرد موافقة. لقد وفر ذلك الكثير من الوقت».
وقد ساد هذا النمط نفسه في عالم الأعمال. ففي عام 2023، كشفت «بروبابليكا» عن أن شركة «سيغنا»، إحدى أكبر شركات التأمين الصحي في أميركا، استخدمت خوارزمية لتحديد المطالبات التي تستدعي الرفض. وكان أطباؤها، الذين يُلزمهم القانون بممارسة حكمهم السريري، يوقّعون على قرارات الخوارزمية على دفعات، ويقضون في المتوسط 1.2 ثانية في كل حالة. وقد رفض أحد الأطباء أكثر من 60 ألف مطالبة في شهر واحد. يقول طبيب سابق في «سيغنا»: «ببساطة، نضغط على زر الإرسال، ونرسل. لا يستغرق الأمر أكثر من 10 ثوانٍ لمعالجة 50 مطالبة في المرة الواحدة».
يكتب الروائي ميلان كونديرا عن ثقل مواجهة خطورة أفعالنا الدائمة. إن الانفصال عن ثقل قراراتنا يُجرّدها من جوهرها ومعناها.
يَعِد الذكاء الاصطناعي بتخفيف عبء العمل الصعب والمُرهِق ذهنياً، فهو يُسهّل العمل. تصبح القرارات أسرع وأسهل. وفي الكثير من المجالات، يُعدّ هذا تقدماً حقيقياً. لكن بعض القرارات بالغة الأهمية لدرجة أننا يجب أن نشعر بثقلها.
يجب أن يستغرق الأمر وقتاً لاتخاذ قرار بقتل شخص أو رفض طلب رعاية صحية. يجب أن يكون من الصعب تحديد المباني التي يجب قصفها. في مثل هذه القرارات، تُؤدي الصعوبة وظيفةً، فهي ميزة وليست عيباً. إنها آلية تُجبر المؤسسات على التفكير ملياً فيما تفعله. عندما يُزيل الذكاء الاصطناعي هذا العبء، لا تصبح المؤسسة أكثر كفاءة، بل تُصبح عاجزة.
عندما يُزيل الذكاء الاصطناعي عبء اتخاذ القرارات بشأن من يعيش ومن يموت، فهذا ليس تقدماً، بل هو انحطاط أخلاقي.
إذا كان الإنسان في هذه العملية لا يقضي سوى ثوانٍ معدودة في كل قرار، فإن مسألة ما إذا كان النظام ذاتياً أم خاضعاً لإشراف بشري تصبح مسألة لفظية في جوهرها. علينا أن نُصرّ على وجود العنصر البشري في هذه العملية أيضاً.
تصفح أيضًا: أعراضه الجانبية خطيرة… «الترامادول» ليس فعالاً كما يُعتقد في تسكين الآلام
في مثل هذه الحالات، يجب السماح للإنسان بأن يكون إنساناً، حتى لو كان ذلك يعني أنه أبطأ وأقل دقة وكفاءة. هذا هو الثمن الذي ندفعه مقابل شيء ضروري للغاية: نحتاج إلى أن يشعر الإنسان بثقل القرارات التي يتخذها؛ لأن الصعوبة تُولّد الاحتكاك الذي يدفع الناس إلى التوقف والتساؤل والاعتراض.
عندما تصبح القرارات الصعبة سهلة، تتغير المؤسسة نفسها. يتوقف الناس عن التساؤل؛ لأنه لا يوجد ما يستحق التساؤل – فالنظام قد حسم أمره، ودور الإنسان هو التأكيد. يتراجع الاختلاف لأن الاختلاف يتطلب جهداً، وقد تم التخلص من هذا الجهد. تتضاءل المساءلة لأن الجميع يعلم أن الحاسوب هو من يتخذ القرارات.
لم تكن طبيبة شركة «سيغنا» التي رفضت 60 ألف مطالبة في شهر واحد قاسية. لقد وُضعت في نظام لا يتطلب فيه رفض المطالبة جهداً أكثر من نقرة زر. وفعل النظام شيئاً أكثر خبثاً من مجرد إفساد حكمها – لقد جعل حكمها غير ضروري. لهذا السبب؛ فإن قضية «سيغنا» ليست قصة عن شخص واحد سيئ، بل هي قصة عما يحدث لأي مؤسسة تُفرغ قراراتها الصعبة من ثقلها بشكل منهجي.
لإفراغ المساءلة تكلفة تظهر في ثلاثة جوانب للشركات.
– أولاً، المسؤولية القانونية. لا يمكن مقاضاة الخوارزمية أو فصلها أو تحميلها مسؤولية أخطائها. يمكن للمؤسسة التي وظّفته أن تفعل ذلك. إن الرقابة الشكلية ليست منطقة رمادية قانونية، بل هي مسؤولية تنتظر تدخل المحامين.
– ثانياً، الهشاشة المؤسسية. عندما يتوقف البشر عن المشاركة الفعّالة في اتخاذ القرارات، يتوقفون عن التعلم منها. عندما يبدو أن الآلة تُصيب دائماً، لا أحد يكتسب القدرة على التمييز بين الخطأ والخطأ. والمؤسسات التي تُهمّش دور البشر في عملية اتخاذ القرار تُصبح معتمدة على أنظمة لم تعد تفهمها تماماً. وهذا يُؤدي إلى هشاشة في اللحظات التي تتطلب المرونة.
– ثالثاً، الثقة. قد يرغب العملاء والموظفون والجهات التنظيمية في معرفة ما إذا كان الذكاء الاصطناعي قد اتخذ قراراً. لكنهم سيرغبون بالتأكيد في معرفة ما إذا كان هناك من يتحمل المسؤولية الحقيقية عنه. والإجابة، إنه في كثير من المؤسسات هي: لا، وهذه الإجابة لها عواقب وخيمة على علاقات المنظمة بالجهات المسؤولة أمامها.
يُقال لنا إن الذكاء الاصطناعي يُحررنا – من الأعمال الشاقة، ومن بطء الإجراءات، ومن عبء القرارات الصعبة. وغالباً ما يكون كذلك. لكن ليس كل عبء مشكلة يجب حلها. أحياناً، تكون الأعباء هي الهدف. إنّ الثقل الذي ينبغي أن يشعر به القائد قبل إصدار أمرٍ بشنّ ضربة، والجهد الذي يبذله الطبيب قبل رفض تقديم الرعاية – ليسا مجرد أوجه قصور يمكن التخلص منها بسهولة. بل هما الآليتان اللتان تضمنان نزاهة المؤسسات فيما يتعلق بالسلطة التي تمارسها.
بالطبع، ستكون المؤسسات التي تتخلص من هذا الثقل أسرع وأخفّ وزناً. وقد يبدو، لفترة من الزمن، أنها تحقق النصر. لكن هذه المؤسسات ستكون أيضاً هي التي ستكتشف، بعد فوات الأوان، أن الصعوبة كانت ثمن كونها صاحبة القرار – وفي اللحظة التي تتوقف فيها المؤسسة عن دفع هذا الثمن، لا يحق لها اتخاذ أي قرار على الإطلاق.
* مجلة «فاست كومباني»

