يطلق الأنثروبور كلود الحكومة لاستخدام العسكرية والمخابرات
أعلنت الأنثروبور يوم الخميس كلود الحكومة ، وهي منتجاتها المصممة خصيصًا لوكالات الدفاع والذكاء الأمريكية. تحتوي نماذج الذكاء الاصطناعى على درابزين أكثر مرونة للاستخدام الحكومي ويتم تدريبهم على تحليل المعلومات المصنفة بشكل أفضل.
قالت الشركة إن النماذج التي تعلن عنها “يتم نشرها بالفعل من قبل وكالات على أعلى مستوى من الأمن القومي الأمريكي” ، وأن الوصول إلى هذه النماذج سيقتصر على الوكالات الحكومية التي تتعامل مع المعلومات المبوبة. لم تؤكد الشركة المدة التي كانت قيد الاستخدام.
تم تصميم نماذج Gov Claude خصيصًا للتعامل مع احتياجات الحكومة بشكل فريد ، مثل تقييم التهديد وتحليل الذكاء ، وفقًا لمدونة أنثروبور. على الرغم من أن الشركة قالت إنها “خضعت للاختبار الصارم للسلامة مثل جميع نماذج كلودنا” ، إلا أن النماذج لديها مواصفات معينة لأعمال الأمن القومي. على سبيل المثال ، “يرفضون أقل عند الانخراط مع المعلومات المصنفة” التي يتم تغذيتها فيها ، وهو ما يتم تدريب كلود مواجهة المستهلك على العلم وتجنبه.
تتمتع نماذج كلود Gov أيضًا بفهم أكبر للوثائق والسياق داخل الدفاع والذكاء ، وفقًا للأنثروبور ، وكفاءة أفضل في اللغات واللهجات ذات الصلة بالأمن القومي.
منذ فترة طويلة تم فحص استخدام الذكاء الاصطناعى من قبل الوكالات الحكومية بسبب الأضرار المحتملة وتأثيرات تموج للأقليات والمجتمعات الضعيفة. كانت هناك قائمة طويلة من الاعتقالات غير المشروعة عبر العديد من الولايات الأمريكية بسبب استخدام الشرطة للتعرف على الوجه ، والأدلة الموثقة على التحيز في الشرطة التنبؤية ، والتمييز في الخوارزميات الحكومية التي تقيّم مساعدات الرعاية الاجتماعية. لسنوات ، كان هناك أيضًا جدل على مستوى الصناعة على شركات التكنولوجيا الكبيرة مثل Microsoft و Google و Amazon التي تسمح للجيش-وخاصة في إسرائيل-باستخدام منتجات AI الخاصة بهم ، مع الحملات والاحتجاجات العامة في ظل No Tech لحركة الفصل العنصري.
تملي سياسة استخدام الأنثروبور على وجه التحديد أنه يجب على أي مستخدم “عدم إنشاء أو تسهيل تبادل الأسلحة أو السلع غير القانونية أو المنظمة للغاية” ، بما في ذلك استخدام منتجات أو خدمات الأنثروبور “لإنتاج أو تعديل أو تصميم أو تسويق أو توزيع الأسلحة أو المتفجرات أو المواد الخطرة أو الأنظمة الأخرى التي تسبب ضررًا للحياة البشرية أو فقدانها”.
منذ أحد عشر شهرًا على الأقل ، قالت الشركة إنها أنشأت مجموعة من الاستثناءات التعاقدية لسياسة الاستخدام الخاصة بها “يتم معايرتها بعناية لتمكين الاستخدامات المفيدة من قبل الوكالات الحكومية المختارة بعناية”. سيظل بعض القيود – مثل حملات التضليل ، وتصميم أو استخدام الأسلحة ، وبناء أنظمة الرقابة ، والعمليات الإلكترونية الخبيثة – محظورة. ولكن يمكن أن تقرر الأنثروبريز “استخدام خياط قيود على المهمة والسلطات القانونية لكيان حكومي” ، على الرغم من أنها ستهدف إلى “توازن بين الاستخدامات المفيدة لمنتجاتنا وخدماتنا مع تخفيف الأضرار المحتملة.”
Claude Gov هي إجابة الأنثروبور على Chatgpt Gov ، منتج Openai للوكالات الحكومية الأمريكية ، التي أطلقتها في يناير. إنه أيضًا جزء من اتجاه أوسع من عمالقة الذكاء الاصطناعي والشركات الناشئة على حد سواء يتطلعون إلى تعزيز أعمالهم مع الوكالات الحكومية ، وخاصة في مشهد تنظيمي غير مؤكد.
عندما أعلنت شركة Openai عن ChatGPT Gov ، قالت الشركة إنه خلال العام الماضي ، استخدم أكثر من 90،000 موظف في الحكومات الفيدرالية وحكومات الولايات والحكومة المحلية تقنيتها لترجمة المستندات ، وتوليد ملخصات ، ومسودة مذكرات السياسة ، وكتابة الرمز ، وإنشاء الطلبات ، والمزيد. رفضت الأنثروبور مشاركة الأرقام أو استخدام حالات من نفس النوع ، لكن الشركة جزء من برنامج Palantir’s FedStart ، وهو SaaS تقدم للشركات التي ترغب في نشر برامج تواجه الحكومة الفيدرالية.
وقع Scale AI ، عملاق الذكاء الاصطناعى الذي يوفر بيانات تدريب لقادة الصناعة مثل Openai و Google و Microsoft و Meta ، صفقة مع وزارة الدفاع في شهر مارس للحصول على برنامج وكيل الذكاء الاصطناعي من نوعه للتخطيط العسكري الأمريكي. ومنذ ذلك الحين ، قامت بتوسيع أعمالها إلى حكومات العالم ، التي تحجب مؤخرًا صفقة مدتها خمس سنوات مع قطر لتوفير أدوات الأتمتة للخدمة المدنية والرعاية الصحية والنقل والمزيد.