تقوم Google بإدخال وكلاء الذكاء الاصطناعي إلى البنتاغون لقوة عمل يبلغ عددها حوالي 3 ملايين شخص، مما يمنح الموظفين المدنيين والعسكريين أدوات جديدة للتعامل مع الأعمال الروتينية على الشبكات غير السرية.
يتمحور الطرح حول وكلاء Gemini، الذين يمكنهم تنفيذ المهام نيابة عن المستخدم بعد إخبارهم بما يجب القيام به. وهذا يعني أن الأشخاص داخل البنتاغون سيتمكنون من تحديد المهام بلغة بسيطة والسماح للبرنامج بالعناية بأجزاء من العمل دون كتابة التعليمات البرمجية.
ستبقى المرحلة الأولى على الأنظمة غير السرية، والسبب بسيط. هذا هو المكان الذي يعمل فيه معظم مستخدمي وزارة الدفاع بالفعل.
قال إيميل مايكل، وكيل وزارة الدفاع للبحث والهندسة، إن الوزارة تخطط للذهاب إلى أبعد من ذلك بعد ذلك. وقال: "نحن نبدأ بالمعلومات غير السرية لأن هذا هو المكان الذي يوجد فيه معظم المستخدمين، ثم سننتقل إلى السرية والسرية للغاية."
كما قال إن المحادثات مع Google حول استخدام الوكلاء على الحوسبة السحابية السرية تحدث بالفعل. وأضاف إيميل: "لدي ثقة كبيرة في أنهم سيكونون شريكًا رائعًا على جميع الشبكات."
سيتيح الإعداد الجديد للأشخاص في جميع أنحاء البنتاغون بناء وكلاء الذكاء الاصطناعي الخاصة بهم عن طريق كتابة تعليمات عادية بدلاً من استخدام الأوامر التقنية.
قال جيم كيلي، نائب رئيس في Google، في منشور مدونة يوم الثلاثاء إن كلاً من الموظفين المدنيين والأفراد العسكريين في وزارة الدفاع سيتمكنون من إنشاء هؤلاء الوكلاء باستخدام اللغة الطبيعية. الفكرة هي جعل النظام قابلاً للاستخدام من قبل العمال العاديين، وليس فقط المتخصصين.
ومع ذلك، أوضح إيميل أن تلك المناقشات نشطة بالفعل من الجانب الحكومي.
لم يبدأ دفع البنتاغون الأوسع إلى أدوات Google هذا الأسبوع. كانت وزارة الدفاع تستخدم بالفعل برنامج الدردشة الآلي من Google من خلال بوابة GenAI.mil للأعمال غير السرية منذ ديسمبر.
قال متحدث باسم البنتاغون إن 1.2 مليون موظف استخدموا هذا النظام حتى الآن. أدخل هؤلاء المستخدمون 40 مليون مطالبة فريدة وحمّلوا أكثر من 4 ملايين وثيقة.
اعتبارًا من يوم الثلاثاء، ستقدم البوابة أيضًا وكلاء Gemini، مما يضيف طبقة جديدة من الأتمتة إلى العمل الذي يتم بالفعل من خلال المنصة.
قال إيميل إن الوزارة بحاجة إلى المزيد من الذكاء الاصطناعي، وليس أقل، لكنه قال أيضًا إن الناس ما زالوا بحاجة إلى التحقق مما ينتجه البرنامج. وقال: "إنه يوفر لك الكثير من الوقت في المنتصف، ولكن عليك المراجعة في النهاية للتأكد من عدم وجود هلوسة."
كما قال إن البنتاغون يمكنه تقليل المخاطر من خلال التدريب والتوجيه والسياسات، خاصة عندما قد يخفي الوكلاء الأخطاء أو يجعلون الأخطاء أصعب في اكتشافها. قال إيميل إنه فوجئ بمدى تخلف الوزارة عندما تولى محفظة الذكاء الاصطناعي في أغسطس.
قال إيميل: "عندما وصلت إلى هنا وتوليت محفظة الذكاء الاصطناعي في أغسطس، كنت مصدومًا إلى حد ما من أننا لم نكن نمتلك قدرات الذكاء الاصطناعي الأساسية التي يمتلكها معظم الناس، المستهلكون حول العالم الآن."
إن توسع عمل البنتاغون مع Google يحدث في نفس الوقت الذي يخوض فيه صراعًا مريرًا مع Anthropic.
تظهر الملفات القضائية أن أكثر من 30 موظفًا من OpenAI وGoogle DeepMind قدموا بيانًا يوم الاثنين يدعم دعوى Anthropic القضائية ضد وزارة الدفاع الأمريكية. جاء إيداعهم بعد أن صنفت الحكومة الفيدرالية Anthropic على أنها مخاطر سلسلة التوريد.
عادة ما يرتبط هذا التصنيف بالخصوم الأجانب. في هذه الحالة، استخدمه البنتاغون ضد شركة أمريكية كبرى للذكاء الاصطناعي بعد أن رفضت Anthropic السماح باستخدام تقنيتها للمراقبة الجماعية للأمريكيين أو لإطلاق الأسلحة بشكل مستقل.
جادلت وزارة الدفاع بأنه يجب أن تكون قادرة على استخدام الذكاء الاصطناعي لأي غرض "قانوني" ويجب ألا تكون محدودة من قبل مقاول خاص.
قالت موجز المحكمة من موظفي OpenAI وGoogle إن إجراء الحكومة ذهب بعيدًا جدًا. ونصت على: "إن تصنيف الحكومة لـ Anthropic على أنها مخاطر سلسلة التوريد كان استخدامًا غير لائق وتعسفيًا للسلطة له تداعيات خطيرة على صناعتنا." كان أحد الموقعين جيف دين، كبير العلماء في Google DeepMind.
وصل الإيداع إلى السجل بعد بضع ساعات من قيام Anthropic، الشركة التي تقف وراء Claude، برفع دعويين قضائيتين ضد وزارة الدفاع والوكالات الفيدرالية الأخرى.
في الموجز، جادل الموظفون بأنه إذا لم يعجب البنتاغون شروط العقد الذي كان لديه مع Anthropic، فقد كان لديه خيار آخر.
كتبوا أنه إذا كانت الوزارة "لم تعد راضية عن الشروط المتفق عليها لعقدها مع Anthropic"، كان بإمكانها "ببساطة إلغاء العقد وشراء خدمات شركة رائدة أخرى للذكاء الاصطناعي."
قال: "إذا سُمح بالمضي قدمًا، فإن هذا الجهد لمعاقبة إحدى شركات الذكاء الاصطناعي الرائدة في الولايات المتحدة سيكون له بلا شك عواقب على القدرة التنافسية الصناعية والعلمية للولايات المتحدة في مجال الذكاء الاصطناعي وما بعده." كما قال: "وسوف يبرد المداولة المفتوحة في مجالنا حول مخاطر وفوائد أنظمة الذكاء الاصطناعي اليوم."
قال إيميل، الذي قاد المفاوضات مع Anthropic، إن النزاع لن يتم تسويته في المحكمة وقال إن البنتاغون "يمضي قدمًا" الآن. يأتي هذا الموقف مع تاريخ وراءه.
في عام 2018، احتج الآلاف من موظفي Google على دور الشركة في Project Maven، وهو برنامج تابع للبنتاغون استخدم الذكاء الاصطناعي لتحليل الفيديو من حروب الطائرات بدون طيار الأمريكية في الخارج. كانت ردة الفعل قوية بما يكفي لاختيار Google عدم تجديد ذلك العقد.
في وقت لاحق، أسقطت الشركة بعض القيود على العمل مع الجيش.
لا تقرأ أخبار العملات المشفرة فقط. افهمها. اشترك في نشرتنا الإخبارية. إنها مجانية.


