الذكاء الاصطناعي

هل الكلام المحمي في AI من الذكاء الاصطناعي؟ محكمة واحدة ليست متأكدة


يمكن أن تحكم قاضية فلوريدا ، وهي دعوى ضد Google وشخصية خدمة chatbot المصاحبة AI – التي تتهم بالمساهمة في وفاة مراهق – إلى الأمام. في قرار تم تقديمه اليوم ، قالت القاضي آن كونواي إن محاولة الدفاع عن التعديل الأول لم يكن كافياً لإلغاء الدعوى. قررت كونواي أنه على الرغم من بعض أوجه التشابه مع ألعاب الفيديو وغيرها من الوسائط التعبيرية ، فإنها “غير مستعدة لعقد هذا الناتج عن الذكاء الاصطناعي هو الكلام”.

الحكم هو مؤشر مبكر نسبيا لأنواع المعاملة التي يمكن أن تتلقاها نماذج لغة الذكاء الاصطناعى في المحكمة. ينبع من دعوى رفعتها عائلة سيويل سيتزر الثالث ، البالغ من العمر 14 عامًا توفي بسبب الانتحار بعد أن أصبح مهووسًا بدردشة شجعت تفكيره في الانتحار. جادل الشخصية AI و Google (التي ترتبط ارتباطًا وثيقًا بشركة chatbot) بأن الخدمة أقرب إلى التحدث مع لعبة فيديو غير لاعب أو انضمام إلى شبكة اجتماعية ، وهو أمر من شأنه أن يمنحها الحماية القانونية الواسعة التي يقدمها التعديل الأول ومن المحتمل أن تقلل بشكل كبير من فرص دعوى قضائية من أجل النجاح. كونواي ، ومع ذلك ، كان متشككا.

وقال القاضي إنه في حين أن الشركات “تستغرق استنتاجها في المقام الأول على القياس” مع هذه الأمثلة ، فإنها “لا تتقدم بشكل مفيد لقياسها”. قرار المحكمة “لا يتم تشغيله سواء تشبه الشخصية الذكاء الاصطناعي الوسيلة الأخرى التي تلقت حماية التعديل الأول ؛ بدلا من ذلك ، يتم تشغيل القرار كيف تشبه الشخصية الذكاء الاصطناعي للوسائط الأخرى ” – وبعبارة أخرى ما إذا كانت الشخصية AI تشبه أشياء مثل ألعاب الفيديو لأنها أيضًا ، تنقل الأفكار التي ستعتبر الكلام. ستتم مناقشة أوجه التشابه مع استمرار القضية.

على الرغم من أن Google لا تملك الشخصية الذكاء ، فإنها ستبقى مدافعًا عن الدعوى بفضل روابطها مع الشركة والمنتج ؛ عمل مؤسسو الشركة Noam Shazer و Daniel de Freitas ، اللذين تم تضمينهم بشكل منفصل في الدعوى ، على المنصة كموظفين Google قبل مغادرته لإطلاقه وتم إعادة تعيينهم لاحقًا هناك. تواجه الشخصية الذكاء الاصطناعي أيضًا دعوى منفصلة تزعم أنها أضرت بصحة مستخدم شاب آخر ، وقد دفع عدد قليل من المشرعين في الولاية تنظيم “chatbots المصاحبة” التي تحاكي العلاقات مع المستخدمين – بما في ذلك مشروع قانون ، من شأنه أن يحظر عليهم استخدام الأطفال في كاليفورنيا. إذا تم تمريرها ، فمن المحتمل أن يتم خوض القواعد في المحكمة على الأقل جزئيًا على الأقل على حالة التعديل الأول لـ Chanclion chatbots.

تعتمد نتيجة هذه الحالة إلى حد كبير على ما إذا كانت الشخصية AI هي “منتج” قانونًا معيب بشكل ضار. يلاحظ الحاكم أن “المحاكم عمومًا لا تصنف الأفكار أو الصور أو المعلومات أو الكلمات أو التعبيرات أو المفاهيم كمنتجات” ، بما في ذلك العديد من ألعاب الفيديو التقليدية – يستشهد ، على سبيل المثال ، قرار تم العثور عليه Mortal Kombat’s لا يمكن اعتبار المنتجين مسؤولين عن لاعبي “الإدمان” وإلهامهم للقتل. (تتهم بدلة الذكاء الاصطناعى بالحرف منصة التصميم الإدمان.) ومع ذلك ، فإن أنظمة مثل الحرف AI لا يتم تأليفها مباشرة مثل معظم حوار أحرف ألعاب الفيديو ؛ بدلاً من ذلك ، فإنها تنتج نصًا تلقائيًا يتم تحديده بشدة من خلال الرد على مدخلات المستخدم وتعكسها.

“هذه قضايا صعبة حقًا وقضايا جديدة سيتعين عليها المحاكم التعامل معها.”

أشار كونواي أيضًا إلى أن المدعين أخذوا شخصية منظمة العفو الدولية لمهمة الفشل في تأكيد أعمار المستخدمين وعدم السماح للمستخدمين “باستبعاد المحتوى غير لائق” ، من بين ميزات أخرى معيبة تتجاوز التفاعلات المباشرة مع chatbots أنفسهم.

إلى جانب مناقشة حماية التعديل الأول للمنصة ، سمح القاضي عائلة Setzer بالمضي قدماً في مطالبات الممارسات التجارية الخادعة ، بما في ذلك أن الشركة “ضللت المستخدمين للاعتقاد بأن شخصيات الذكاء الاصطناعي كانت أشخاصًا حقيقيين ، وكان بعضها متخصصين في مجال الصحة العقلية” وأن Setzer كان “متضوراً من خلال [Character AI’s] قرارات التصميم المجسم. ” (ستقوم الروبوتات الذاتي للشخصية أن تصف نفسها بأنها أناس حقيقيون في النص ، على الرغم من التحذير على عكس الواجهة ، والروبوتات العلاجية شائعة على المنصة.)

كما سمحت للادعاء بأن الشخصية منظمة العفو الدولية انتهكت بشكل إهمال قاعدة تهدف إلى منع البالغين من التواصل الجنسي مع القاصرين عبر الإنترنت ، قائلة إن الشكوى “تبرز العديد من التفاعلات بين الطبيعة الجنسية بين شخصيات Sewell وشخصية AI”. قالت الشخصية AI إنها نفذت ضمانات إضافية منذ وفاة Setzer ، بما في ذلك نموذج أكثر إثارة للدراسة للشباب.

ودعا بيكا برانوم ، نائبة مدير مشروع التعبير الحرة في مركز الديمقراطية والتكنولوجيا ، تحليل التعديل الأول للقاضي “رقيقة جدًا” – لأنه قرار أولي للغاية ، هناك مساحة كبيرة للمناقشة في المستقبل. “إذا كنا نفكر في عالم الأشياء الكاملة التي يمكن أن يتم إخراجها بواسطة الذكاء الاصطناعي ، فإن هذه الأنواع من مخرجات chatbot هي نفسها معبرة تمامًا ، [and] كما تعكس التقدير التحريري والتعبير المحمي لمصمم النموذج “. حرية. لكن “في دفاع الجميع ، هذه الأشياء رواية حقًا”. “هذه قضايا صعبة حقًا وقضايا جديدة سيتعين عليها المحاكم التعامل معها.”

اشرف حكيم

هوايتي التدوين ، دائما احب القرائة والاطلاع على المجال الفني ، واكون قريب من الاحداث الفنية ، ومتابع جيد للمسلسلات وتحديدا المسلسلات التركية، اكتب بعدة مجالات .

مقالات ذات صلة

زر الذهاب إلى الأعلى