يحكم القاضي محامو “الأبحاث التي أنشأها الذكاء الاصطناعى”
انتقد قاضي في كاليفورنيا زوجًا من شركات المحاماة للاستخدام غير المعلوم من الذكاء الاصطناعى بعد أن تلقى موجزًا إضافيًا مع “العديد من الاستشهادات والاقتباسات القانونية الخاطئة وغير الدقيقة والمضللة”. في حكم تم تقديمه الأسبوع الماضي ، فرض القاضي مايكل ويلنر 31000 دولار على أنه عقوبات ضد شركات المحاماة المعنية ، قائلاً “لا ينبغي على أي محامٍ مؤهل بشكل معقول أن يتفوقوا على الأبحاث والكتابة” إلى الذكاء الاصطناعي ، كما أشار إليه أساتذة القانون إريك جولدمان وبليك ريد على بلوزسكي.
“لقد قرأت موجزهم ، تم إقناعهم (أو على الأقل مفتون) من قبل السلطات التي استشهدوها ، وبحثت عن القرارات لمعرفة المزيد عنها – فقط لتجد أنها غير موجودة” ، يكتب القاضي ميلنر. “هذا أمر مخيف. لقد أدى تقريبًا إلى النتيجة الأكثر رعبا (من وجهة نظري) لتشمل تلك المواد الزائفة في أمر قضائي.”
كما لوحظ في الإيداع ، استخدم الممثل القانوني للمدعي دعوى مدنية ضد مزرعة الولاية الذكاء الاصطناعي لتوليد مخطط لموجز إضافي. ومع ذلك ، احتوى هذا الخطوط العريضة على “بحث زائف الذي تم إنشاؤه” عندما تم إرساله إلى شركة محاماة منفصلة ، K&L Gates ، والتي أضافت المعلومات إلى موجز. “لا يوجد محامي أو موظف في أي من الشركة يستشهد على ما يبدو بالتحقق أو المراجعة بطريقة أخرى هذا البحث قبل تقديم الموجز” ، يكتب القاضي ميلنر.
عندما استعرض القاضي ميلنر الموجز ، وجد أن “اثنين على الأقل من السلطات المذكورة غير موجودين على الإطلاق”. بعد أن طلبت من K&L Gates توضيحًا ، أعادت الشركة تقديم الموجز ، الذي قال القاضي ميلنر إنه احتوى على “استشهادات أكثر من ذلك بكثير والاقتباسات وراء الخطأ الأولي”. ثم أصدر أمرًا لإظهار القضية ، مما أدى إلى إعطاء محامين بيانات محددة تؤكد استخدام الذكاء الاصطناعي. تم قبول المحامي الذي أنشأ المخطط التفصيلي لاستخدام Google Gemini ، وكذلك أدوات البحث القانونية لمنظمة العفو الدولية في Westlaw Precision مع Coconsel.
ليست هذه هي المرة الأولى التي يتم فيها القبض على المحامين باستخدام الذكاء الاصطناعي في قاعة المحكمة. استشهد محامي ترامب السابق مايكل كوهين في قضايا محكمة مكوّنة في وثيقة قانونية بعد أن أخطئ في خطأ Google Gemini ، ثم أطلق عليه اسم Bard ، باعتباره “محرك بحث فائق الشحن” بدلاً من chatbot منظمة العفو الدولية. كما وجد قاضٍ أن المحامين الذين يقاضون شركة طيران كولومبية شملوا عددًا كبيرًا من القضايا المزيفة التي تم إنشاؤها بواسطة Chatgpt في موجزهم.
يكتب القاضي ميلنر: “كان الاستخدام الأولي ، الذي لم يكشف عنه منتجات الذكاء الاصطناعى لإنشاء المسودة الأولى للموجز ، خطأً”. “وإرسال تلك المادة إلى محامين آخرين دون الكشف عن أصول الذكاء الاصطناعي البسيطة وضع هؤلاء المهنيين في طريق الأذى.”