الولايات المتحدة تزيل “سلامة” معهد سلامة الذكاء الاصطناعي
أعادت وزارة التجارة الأمريكية اسم معهد السلامة من الذكاء الاصطناعى إلى مركز معايير وابتكار الذكاء الاصطناعي (CAISI) ، حيث تحولت تركيزها من السلامة الشاملة إلى مكافحة مخاطر الأمن القومي ومنع “التنظيم المرهق وغير الضروري” في الخارج. أعلن وزير التجارة هوارد لوتنيك عن التغيير في الثالث من يونيو ، واصفا بإصلاح الوكالة طريقة “لتقييم وتعزيز الابتكار الأمريكي” و “ضمان الهيمنة الأمريكية على معايير الذكاء الاصطناعي”.
تم الإعلان عن معهد سلامة الذكاء الاصطناعى في عام 2023 في عهد الرئيس السابق جو بايدن ، وهو جزء من الجهد العالمي لإنشاء أفضل الممارسات للحكومات التي تخفف من مخاطر نظام الذكاء الاصطناعي. وقعت مذكرات الفهم مع شركات AI الأمريكية الرئيسية ، بما في ذلك Openai والأنثروبولوجيا ، للوصول إلى نماذج جديدة واقتراح تحسينات قبل الإصدار. بالقرب من نهاية مدة بايدن في أوائل عام 2025 ، أصدرت مشروع إرشادات لإدارة مخاطر الذكاء الاصطناعي التي شملت استخدام أنظمة لإنشاء أسلحة بيولوجية أو تهديدات واضحة أخرى للأمن القومي ، ولكن أيضًا فئات أكثر شيوعًا من المحتوى الضار مثل مواد الاعتداء الجنسي على الأطفال (CSAM).
يقول بيان لوتنيك إن المعهد الجديد “سيركز على المخاطر الواضحة ، مثل الأمن السيبراني والأمن الحيوي والأسلحة الكيميائية” في تقييماته. ستحقق أيضًا “التأثير الأجنبي الخبيث الناشئ عن استخدام أنظمة الذكاء الاصطناعي للخصوم” ، وهي فئة على الأرجح تشمل Deepseek ، وهي نموذج لغة صينية كبيرة هزت صناعة الذكاء الاصطناعى الأمريكي في وقت سابق من هذا العام.