أعلن أكثر من 30 موظفًا يعملون في شركتي OpenAI وGoogle DeepMind دعمهم لشركة Anthropic في الدعوى القضائية التي رفعتها ضد U.S. Department of Defense، وذلك بعد أن صنفت الجهة الحكومية الشركة المتخصصة في الذكاء الاصطناعي على أنها تمثل خطرًا على سلسلة التوريد.
ووفقًا لوثائق المحكمة التي قُدمت يوم الاثنين، وقع أكثر من ثلاثين موظفًا من الشركتين على بيان قانوني يدعم موقف أنثروبيك، معتبرين أن قرار الحكومة الأمريكية جاء تعسفيًا وغير مبرر، وقد تكون له آثار سلبية كبيرة على صناعة الذكاء الاصطناعي في الولايات المتحدة.
وجاء في المذكرة القانونية التي قدمها موظفو الشركات التقنية أن تصنيف Anthropic باعتبارها خطرًا على سلسلة التوريد يمثل استخدامًا غير مناسب وغير مبرر للسلطة الحكومية، ومن بين الموقعين على البيان العالم البارز Jeff Dean، كبير العلماء في Google DeepMind، إلى جانب عدد من الباحثين والمهندسين العاملين في قطاع الذكاء الاصطناعي، وأكد الموقعون أن مثل هذه القرارات الحكومية قد تكون لها تداعيات واسعة على مستقبل الصناعة، خاصة في ظل المنافسة العالمية المتزايدة في مجال الذكاء الاصطناعي.
تعود جذور الخلاف إلى قرار U.S. Department of Defense تصنيف الشركة كمخاطر في سلسلة التوريد، وهو تصنيف يُستخدم عادة في حالات تتعلق بشركات مرتبطة بدول معادية، وجاء هذا القرار بعد أن رفضت Anthropic السماح للوزارة باستخدام تقنياتها في المراقبة الجماعية للمواطنين الأمريكيين أو في أنظمة يمكنها إطلاق الأسلحة بشكل مستقل، في المقابل، جادلت وزارة الدفاع بأن لديها الحق في استخدام تقنيات الذكاء الاصطناعي لأي غرض قانوني دون أن تقيدها شروط يفرضها متعاقد خاص.
قبل ساعات من ظهور البيان الداعم في المحكمة، كانت شركة Anthropic قد رفعت دعويين قضائيتين ضد U.S. Department of Defense وعدد من الوكالات الفيدرالية الأخرى، وتسعى الشركة من خلال هذه الدعاوى إلى الطعن في قرار تصنيفها كمخاطر في سلسلة التوريد، معتبرة أن القرار يضر بسمعتها ويؤثر على قدرتها على العمل مع الجهات الحكومية.
اقرأ ايضا: نوافذ ذكية تخفض درجة الحرارة بمقدار 24 درجة مئوية وتكافح التلوث الضوئي في المدن
وفي الوثيقة القانونية، أشار موظفو شركتي OpenAI وGoogle DeepMind إلى أنه إذا لم تكن وزارة الدفاع راضية عن شروط التعاقد مع Anthropic، فقد كان بإمكانها ببساطة إلغاء العقد واللجوء إلى شركة أخرى لتوفير خدمات الذكاء الاصطناعي.
وأوضحوا أن الحكومة كان لديها خيار واضح يتمثل في شراء الخدمات من شركات أخرى رائدة في المجال بدلاً من اتخاذ قرار تصنيف الشركة كمصدر خطر.
اللافت أن U.S. Department of Defense وقّعت بالفعل اتفاقًا مع OpenAI بعد لحظات من تصنيف Anthropic كمخاطر في سلسلة التوريد، هذا التحرك أثار اعتراضات داخلية بين بعض موظفي شركة OpenAI، الذين أعربوا عن قلقهم من الطريقة التي تم بها التعامل مع الشركة المنافسة في قطاع الذكاء الاصطناعي.
يحذر البيان القانوني الذي قدمه الموظفون من أن السماح بمثل هذه الإجراءات قد يؤدي إلى إضعاف القدرة التنافسية للولايات المتحدة في مجال الذكاء الاصطناعي، كما يشير إلى أن معاقبة إحدى الشركات الرائدة في هذا المجال قد ينعكس سلبًا على الابتكار العلمي والصناعي داخل الولايات المتحدة، خاصة في ظل المنافسة الدولية المتزايدة.
وأضاف البيان أن هذه الخطوة قد تؤدي أيضًا إلى تقييد النقاش المفتوح داخل مجتمع الذكاء الاصطناعي حول المخاطر والفوائد المرتبطة بهذه التقنيات المتقدمة.
أكدت الوثيقة كذلك أن الخطوط الحمراء التي وضعتها Anthropic بشأن استخدام تقنياتها تمثل مخاوف مشروعة تستدعي وجود ضوابط صارمة، وأشار الموقعون إلى أنه في ظل غياب تشريعات واضحة تنظم استخدام الذكاء الاصطناعي، فإن القيود التقنية والتعاقدية التي تفرضها الشركات المطورة لهذه الأنظمة تعد إحدى أهم وسائل الحماية ضد إساءة الاستخدام الكارثية للتكنولوجيا.
وكان العديد من الموظفين الذين وقعوا على البيان القانوني قد شاركوا أيضًا خلال الأسابيع الماضية في رسائل مفتوحة تدعو وزارة الدفاع الأمريكية إلى سحب تصنيف “خطر سلسلة التوريد” عن شركة Anthropic، كما طالبوا قيادات شركاتهم، بما في ذلك OpenAI وGoogle، باتخاذ موقف واضح لدعم الشركة ورفض استخدام أنظمة الذكاء الاصطناعي الخاصة بهم بشكل أحادي من قبل الحكومة دون الالتزام بالضوابط الأخلاقية المتفق عليها.

