تطلق كاليفورنيا تقرير سلامة الذكاء الاصطناعى منذ فترة طويلة
في سبتمبر الماضي ، كانت كل الأنظار على مشروع قانون مجلس الشيوخ 1047 حيث شق طريقها إلى مكتب حاكم كاليفورنيا غافن نيوزوم – وتوفي هناك وهو يقضي على الجريمة.
كان من شأن SB 1047 أن يتطلب صانعي جميع نماذج الذكاء الاصطناعى الكبيرة ، وخاصة تلك التي تكلف 100 مليون دولار أو أكثر للتدريب ، لاختبارهم لمخاطر محددة. لم تكن المبلغين عن المخالفات في صناعة الذكاء الاصطناعي راضية عن الفيتو ، وكانت معظم شركات التكنولوجيا الكبيرة. لكن القصة لم تنته هناك. قامت شركة Newsom ، التي شعرت أن التشريع الصارم للغاية والمناسبة لكل شيء ، كلف مجموعة من قيادة باحثو الذكاء الاصطناعى للمساعدة في اقتراح خطة بديلة-خطة تدعم تنمية وحوكمة الذكاء الاصطناعي في كاليفورنيا ، إلى جانب الدرابزين لمخاطرها.
يوم الثلاثاء ، تم نشر هذا التقرير.
قال مؤلفو تقرير “California California” عن السياسة الحدودية المكونة من 52 صفحة أن قدرات الذكاء الاصطناعى-بما في ذلك سلسلة “التفكير” الفارغة في النماذج-قد “تحسنوا بسرعة” منذ أن تحسنت Newsom بتهمة Veto SB 1047. باستخدام دراسات الحالة التاريخية ، والبحث التجريبي ، والنمذجة ، والمحاكاة ، اقترحوا إطارًا جديدًا يتطلب تحفيزًا ومستقلة للتمرير. يظهر تقريرهم على خلفية وقف محتمل لمدة 10 سنوات على الولايات التي تنظم الذكاء الاصطناعي ، بدعم من الكونغرس الجمهوري وشركات مثل Openai.
التقرير-يقوده Fei-Fei Li ، المدير المشارك لمعهد ستانفورد للذكاء الاصطناعي الذي يركز على الإنسان ؛ ماريانو-فلورنتينو كويلار ، رئيس كارنيجي للهبة من أجل السلام الدولي ؛ وخلصت جينيفر تور تشايس ، عميد كلية الحوسبة في جامعة كاليفورنيا في بيركلي ، علوم البيانات ، والمجتمع – إلى أن اختراقات الحدود من الذكاء الاصطناعي في كاليفورنيا يمكن أن تؤثر بشدة على الزراعة والتكنولوجيا الحيوية والتكنولوجيا النظيفة والتعليم والدواء والطب والنقل. اتفق مؤلفوها على أنه من المهم عدم خنق الابتكار و “ضمان الأعباء التنظيمية هي أن المنظمات لديها الموارد اللازمة للامتثال”.
“بدون ضمانات مناسبة … يمكن أن تحفز AL القوية ، وفي بعض الحالات ، أضرار محتملة لا رجعة فيها”
لكن الحد من المخاطر لا يزال أمرًا بالغ الأهمية ، كتبوا: “بدون ضمانات مناسبة … يمكن أن تحفز AL قوية ، وفي بعض الحالات ، أضرار لا رجعة فيها.”
نشرت المجموعة مسودة نسخة من تقريرهم في مارس للتعليق العام. لكن حتى منذ ذلك الحين ، كتبوا في النسخة النهائية ، دليل على أن هذه النماذج تساهم في “مخاطر الأسلحة الكيميائية والبيولوجية والإشعاعية والنووية (CBRN) …” نمت “. وأضافوا أن الشركات الرائدة في الشركات قد تم الإبلاغ عنها ذاتيًا فيما يتعلق بقدرات نماذجها في تلك المناطق.
قام المؤلفون بعدة تغييرات على مشروع التقرير. يلاحظون الآن أن سياسة الذكاء الاصطناعى الجديد في كاليفورنيا ستحتاج إلى التنقل بسرعة “الحقائق الجيوسياسية”. أضافوا المزيد من السياق حول المخاطر التي تشكلها نماذج الذكاء الاصطناعى الكبيرة ، واتخذوا خطًا أصعب في تصنيف الشركات للتنظيم ، قائلين إن التركيز على مقدار تدريبهم المطلوب لم يكن أفضل طريقة.
وكتب المؤلفون أن احتياجات تدريب الذكاء الاصطناعي تتغير طوال الوقت ، ويتجاهل التعريف القائم على حساب كيفية اعتماد هذه النماذج في حالات الاستخدام في العالم الحقيقي. يمكن استخدامه كـ “مرشح أولي إلى شاشة رخيصة بالنسبة للكيانات التي قد تستدعي المزيد من التدقيق” ، ولكن عوامل مثل تقييمات المخاطر الأولية وتقييم تأثير المصب هي المفتاح.
هذا أمر مهم بشكل خاص لأن صناعة الذكاء الاصطناعى لا تزال الغرب المتوحش عندما يتعلق الأمر بالشفافية ، مع اتفاق ضئيل على أفضل الممارسات و “العتامة النظامية في المجالات الرئيسية” مثل كيفية اكتساب البيانات ، وعمليات السلامة والأمن ، واختبار ما قبل الإصدار ، وتأثيرها المحتمل في اتجاه مجرى النهر.
يدعو التقرير إلى حماية المبلغين عن المخالفات ، وتقييمات الطرف الثالث مع ميناء آمن للباحثين الذين يجرون تلك التقييمات ، ومشاركة المعلومات مباشرة مع الجمهور ، لتمكين الشفافية التي تتجاوز ما تختار شركات الذكاء الاصطناعى الحالية الكشف.
أخبر سكوت سينجر أحد الكتاب الرئيسيين للتقرير حرية أن محادثات سياسة الذكاء الاصطناعي قد “تحولت بالكامل على المستوى الفيدرالي” منذ مشروع التقرير. وقال إن كاليفورنيا يمكن أن تساعد في قيادة “جهود التنسيق” بين الدول عن “سياسات الطوائف التي يدعمها الكثير من الناس في جميع أنحاء البلاد”. هذا تناقض مع الترقيع المختلط الذي يزعم مؤيدو الوقوف من الذكاء الاصطناعي أن يخلقه قوانين الولاية.
في افتتاحية في وقت سابق من هذا الشهر ، دعا الرئيس التنفيذي لشركة Anthropic Dario Amodei إلى معيار الشفافية الفيدرالي ، مما يتطلب قيادة شركات الذكاء الاصطناعى “للكشف علنًا عن مواقعها الإلكترونية … كيف يخططون للاختبار للأمن القومي والتخفيف من المخاطر الكارثية”.
“المطورين وحدهم ببساطة غير كافين في فهم التكنولوجيا بشكل كامل ، وخاصة مخاطرها وأضرارها”
لكن حتى الخطوات مثل هذه ليست كافية ، كتب مؤلفو تقرير يوم الثلاثاء ، لأنه “بالنسبة للتكنولوجيا الناشئة والمعقدة التي يتم تطويرها واعتمادها بوتيرة سريعة بشكل ملحوظ ، فإن المطورين وحدهم غير كافٍ في فهم التكنولوجيا تمامًا ، وخاصة مخاطرها وأضرارها”.
لهذا السبب فإن أحد المبادئ الرئيسية لتقرير يوم الثلاثاء هو الحاجة إلى تقييم مخاطر الطرف الثالث.
وخلص الباحثون إلى أن تقييمات المخاطر ستحفز الشركات مثل Openai و Anthropic و Google و Microsoft وآخرون على زيادة سلامة النموذج ، مع المساعدة في رسم صورة أوضح لمخاطر نماذجهم. حاليًا ، تقوم شركة AI التي تقوم عادة بتقييماتها الخاصة أو توظيف مقاولي الطرف الثاني للقيام بذلك. لكن تقييم الطرف الثالث أمر حيوي ، كما يقول المؤلفون.
لا يقتصر الأمر على “الآلاف من الأفراد … على استعداد للمشاركة في تقييم المخاطر ، أو التقزم بمجموعة الفرق الداخلية أو المتعاقد عليها” ، ولكن أيضًا ، فإن مجموعات من المقيمين من الطرف الثالث “لديها تنوع لا مثيل له ، خاصةً عندما يعكس المطورين في المقام الأول بعض التركيبة السكانية والجغرافيا التي تختلف في كثير من الأحيان عن تلك التي تتأثر بها AI”.
ولكن إذا كنت تسمح لمقيمي الطرف الثالث باختبار المخاطر والبقع العمياء لنماذج الذكاء الاصطناع كثير من الوصول. وهذا شيء يتردد في القيام به.
ليس من السهل حتى على المقيمين في الطرف الثاني الحصول على هذا المستوى من الوصول. كتبت Metr ، وهي شركة Openai Partners مع اختبارات السلامة في نماذجها الخاصة ، في منشور مدونة أن الشركة لم تُمنح الكثير من الوقت لاختبار نموذج O3 من Openai كما كان مع النماذج السابقة ، وأن Openai لم يمنحها ما يكفي من الوصول إلى البيانات أو المنطق الداخلي للموديلات. وكتبت Metr هذه القيود ، “منعنا من إجراء تقييمات قدرات قوية”. قال Openai لاحقًا إنها تستكشف طرقًا لمشاركة المزيد من البيانات مع شركات مثل Metr.
حتى أن واجهة برمجة التطبيقات أو إفصاحات أوزان النموذج قد لا تسمح لمقيمي الطرف الثالث باختبار المخاطر بشكل فعال ، كما أشار التقرير ، ويمكن للشركات استخدام شروط الخدمة “القمعية” لحظر أو تهديد الإجراءات القانونية ضد الباحثين المستقلين الذين يكشفون عن عيوب السلامة.
في مارس الماضي ، وقع أكثر من 350 من الباحثين في صناعة الذكاء الاصطناعي وآخرون خطابًا مفتوحًا يدعو إلى “ميناء آمن” لاختبار سلامة الذكاء الاصطناعى المستقل ، على غرار الحماية الحالية لمختبري الأمن السيبراني الجهات الخارجية في مجالات أخرى. يستشهد تقرير يوم الثلاثاء بالرسالة ويدعو إلى تغييرات كبيرة ، بالإضافة إلى خيارات الإبلاغ للأشخاص الذين تضرروا بأنظمة الذكاء الاصطناعى.
وكتب المؤلفون: “حتى سياسات السلامة المصممة تمامًا لا يمكن أن تمنع 100 ٪ من النتائج الضارة الكبيرة”. “نظرًا لأن نماذج الأساس معتمدة على نطاق واسع ، فإن فهم الأضرار التي تنشأ في الممارسة العملية أمر مهم بشكل متزايد.”