إذا كانت الخوارزميات تطرفت لعبة Buffalo Mass Shooter ، فهل تنطق الشركات؟
في محكمة نيويورك في 20 مايو ، جادل محامو كل من غير ربحية من أجل سلامة الأسلحة بأن Meta و Amazon و Discord و Snap و 4Chan وغيرها من شركات وسائل التواصل الاجتماعي يتحملون جميعها مسؤولية تطرف مطلق النار الجماعي. دافعت الشركات عن نفسها ضد الادعاءات بأن ميزات التصميم الخاصة بها – بما في ذلك خوارزميات التوصية – روجت للمحتوى العنصري لرجل قتل 10 أشخاص في عام 2022 ، ثم سهلت خطته القاتلة. إنه اختبار قاتم بشكل خاص لنظرية قانونية شائعة: أن الشبكات الاجتماعية هي منتجات يمكن العثور عليها معيبًا قانونيًا عندما يحدث خطأ ما. ما إذا كان هذا يعمل قد يعتمد على كيفية تفسير المحاكم ، القسم 230 ، وهو جزء أساسي من قانون الإنترنت.
في عام 2022 ، قاد بايتون جيندرون عدة ساعات إلى سوبر ماركت في بوفالو ، نيويورك ، حيث فتح النار على المتسوقين ، وقتل 10 أشخاص وإصابة ثلاثة آخرين. ادعى Gendron أنه مستوحى من الهجمات السابقة ذات الدوافع. لقد تعرض للعيش في الهجوم على Twitch ، وفي بيان طويل ومذكرات خاصة احتفظ به ، قال إنه كان متطرفًا جزئيًا من قبل الميمات العنصرية واستهدف مجتمع الأغلبية الأسود عن قصد.
جلب Everytown for Gun Safety دعاوى قضائية متعددة على إطلاق النار في عام 2023 ، وتقديم مطالبات ضد بائعي الأسلحة ، ووالدي Gendron ، وقائمة طويلة من منصات الويب. تختلف الاتهامات ضد الشركات المختلفة ، ولكن جميعها تضع بعض المسؤولية عن تطرف Gendron في قلب النزاع. تعتمد المنصات على المادة 230 من قانون حشمة الاتصالات للدفاع عن نفسها ضد حجة معقدة إلى حد ما. في الولايات المتحدة ، إرسال عادة ما يتم حماية محتوى التفوق الأبيض من خلال التعديل الأول. لكن هذه الدعاوى القضائية تجادل بأنه إذا قام أحد الأساس بإطعامه دون توقف للمستخدمين في محاولة لإبقائهم مدمن مخدرات ، فإنها تصبح علامة على وجود منتج معيب – وبالتالي ، يكسر قوانين مسؤولية المنتج إذا أدى ذلك إلى الأذى.
تتطلب هذه الاستراتيجية الجدال أن الشركات تقوم بتشكيل محتوى المستخدم بطرق لا ينبغي أن تتلقى الحماية بموجب المادة 230 ، والتي تمنع أن تكون خدمات الكمبيوتر التفاعلية مسؤولة عن ما ينشره المستخدمون ، وأن خدماتهم هي منتجات تتناسب مع قانون المسؤولية. وقال جون إلمور ، محامي المدعين ، للقضاة “هذه ليست دعوى قضائية ضد الناشرين”. “الناشرون حقوق الطبع والنشر لموادهم. الشركات التي تصنع المنتجات براءة اختراع موادهم ، وكل واحد من هؤلاء المدعى عليهم لديه براءة اختراع. ” تابع Elmore هذه المنتجات الحاصلة على براءة اختراع ، “خطرة وغير آمنة” ، وبالتالي فهي “معيبة” بموجب قانون مسؤولية المنتج في نيويورك ، والذي يتيح للمستهلكين طلب تعويض عن الإصابات.
بعض المدعى عليهم التكنولوجيين – بما في ذلك Discord و 4Chan – ليس لديهم خوارزميات توصية خاصة مصممة خصيصًا للمستخدمين الأفراد ، لكن الادعاءات المرفوعة ضدهم تزعم أن تصميماتهم لا تزال تهدف إلى ربط المستخدمين بطريقة شجعت بشكل متوقع.
وقال إلمور: “لقد أصيب هذا المجتمع بصدمة من قبل تفوق أبيض للأحداث كان يغذيه الكراهية – المتطرف من قبل منصات التواصل الاجتماعي على الإنترنت”. “لقد حصل على كراهيته للأشخاص الذين لم يقابلهم أبدًا ، والأشخاص الذين لم يفعلوا أي شيء لعائلته أو أي شيء ضده ، استنادًا إلى مقاطع الفيديو والكتابات والمجموعات التي تعتمد عليها الخوارزمية التي ارتبطت بها على هذه المنصات التي نقاضيها”.
هذه المنصات ، تابع إلمور ، “منتجات براءة اختراع” التي “أجبرت” Gendron على ارتكاب إطلاق نار جماعي.
في بيانه ، وصف جيندرون نفسه بأنه “الاشتراكية الوطنية الفاشية البيئية” وقال إنه كان مستوحى من إطلاق النار الجماعي السابق في كرايستشيرش ونيوزيلندا وإل باسو ، تكساس. مثل أسلافه ، كتب Gendron أنه كان قلقًا بشأن “الإبادة الجماعية البيضاء” والبديل العظيم: نظرية مؤامرة تزعم أن هناك مؤامرة عالمية لاستبدال الأميركيين البيض والأوروبيين بأشخاص ملونين ، عادةً من خلال الهجرة الجماعية.
أقر جيندرون بأنه مذنب بتهمة القتل والإرهاب في الدولة في عام 2022 ويقضي حاليًا سجن مدى الحياة.
وفقًا لتقرير صادر عن مكتب المدعي العام في نيويورك ، والذي استشهد به محامو المدعي ، “قام Gendron” بتلف بيانه بالميمات ، والكوكس ، واللوكرات المشتركة على مواقع الويب المتطرفة ولوحات الرسائل “، وهو نمط موجود في بعض عمليات إطلاق النار الجماعية الأخرى. شجع جيندرون القراء على اتباع خطاه ، وحث المتطرفين على نشر رسالتهم عبر الإنترنت ، وكتبوا أن الميمات “فعلت المزيد من أجل الحركة الإثنية الوطنية أكثر من أي بيان”.
نقلاً عن بيان Gendron ، أخبر Elmore القضاة أنه قبل أن يكون Gendron “مواد تفوق بيضاء عبر الإنترنت تتغذى على الإنترنت” ، لم يكن لدى Gendron أي مشاكل مع أو العداء تجاه السود. “لقد شجعه سمعة سيئة على أن الخوارزميات التي جلبت إلى الرماة الجماعيين الآخرين الذين تم بثهم عبر الإنترنت ، ثم نزل في حفرة أرنب”.
رفعت كل من شركة Everytown for Gun Safety دعوى قضائية على ما يقرب من عشرة شركات – بما في ذلك Meta و Reddit و Amazon و Google و YouTube و Discord و 4Chan – على دورها المزعوم في إطلاق النار في عام 2023. في العام الماضي ، سمح قاضٍ فيدرالي بالبدلات.
العنصرية والإدمان والتصميم “المعيب”
لا شك أن الميمات العنصرية التي كانت تشاهدها على الإنترنت جزءًا كبيرًا من الشكوى ، لكن المدعين لا يجادلون أنه من غير القانوني إظهار شخص عنصري أو تفوق أبيض أو محتوى عنيف. في الواقع ، تشير شكوى سبتمبر 2023 صراحة إلى أن المدعين لا يسعون إلى عقد YouTube “مسؤولية كناشر أو متحدث للمحتوى الذي نشره أطراف ثالثة” ، جزئياً لأن ذلك سيمنح ذخيرة يوتيوب لإقالة الدعوى على الأسباب 230. بدلاً من ذلك ، إنهم يقاضيون YouTube باعتباره “مصممي ومسوقين منتج التواصل الاجتماعي … لم يكن ذلك آمنًا بشكل معقول وكان ذلك خطيرًا بشكل معقول على استخدامه المقصود”.
حجتهم هي أن يوتيوب وغيرها من الخوارزميات على موقع وسائل التواصل الاجتماعي الإدمان ، عندما يقترن باستعدادهم لاستضافة محتوى التفوق الأبيض ، يجعلها غير آمنة. “يوجد تصميم أكثر أمانًا” ، كما تقول الشكوى ، لكن يوتيوب ومنصات التواصل الاجتماعي الأخرى “فشل في تعديل منتجاتها لجعله أقل خطورة لأنهم يسعون إلى زيادة مشاركة المستخدم وأرباحه”.
قدم المدعون شكاوى مماثلة حول منصات أخرى. وقال إيمي كيلر ، محامي المدعين ، إن Twitch ، الذي لا يعتمد على الأجيال الخوارزمية ، يمكن أن يغير منتجه حتى تتأخر مقاطع الفيديو في الوقت المناسب. تقوم ميزات Reddit’s Upvoting و Karma بإنشاء “حلقة ملاحظات” تشجع الاستخدام. 4Chan لا يتطلب من المستخدمين تسجيل الحسابات ، مما يسمح لهم بنشر المحتوى المتطرف بشكل مجهول. وقال كيلر: “هناك أنواع محددة من التصميمات المعيبة التي نتحدث عنها مع كل من هؤلاء المدعى عليهم” ، مضيفًا أن المنصات التي لديها أنظمة توصية خوارزمية “ربما في الجزء العلوي من الكومة عندما يتعلق الأمر بالمسؤولية”.
خلال الجلسة ، سأل القضاة من محامي المدعين إذا كانت هذه الخوارزميات ضارة دائمًا. قال أحد الحكام: “أحب مقاطع فيديو Cat ، وأشاهد مقاطع فيديو Cat ؛ إنهم يستمرون في إرسال مقاطع فيديو Cat”. “هناك غرض مفيد ، أليس كذلك؟ هناك بعض التفكير في أنه بدون خوارزميات ، لا يمكن أن تعمل بعض هذه المنصات. هناك الكثير من المعلومات.”
بعد موافقته على أنه يحب مقاطع فيديو Cat ، قال جلين تشابيل ، محامي آخر للمدعين ، إن القضية تكمن في الخوارزميات “المصممة لتعزيز الإدمان والأضرار الناتجة عن هذا النوع من الآلية الإدمانية”. في هذه الحالات ، قال تشابل ، “لا ينطبق القسم 230”. وقال كيلر إن القضية هي “حقيقة أن الخوارزمية نفسها جعلت المحتوى يسبب الإدمان”.
محتوى الطرف الثالث والمنتجات “المعيبة”
في هذه الأثناء ، جادل محامو المنصات بأن فرز المحتوى بطريقة معينة لا ينبغي أن يجردهم من الحماية ضد المسؤولية عن المحتوى الذي يديره المستخدم. على الرغم من أن الشكوى قد تجادل بأنها لا تقول إن خدمات الويب هي ناشرين أو متحدثين ، فإن عدادات الدفاع عن المنصات يكون لا تزال حالة حول الكلام حيث ينطبق القسم 230.
وقال إريك شومسكي ، محامي ميتا ، لـ “القضاة”: “لقد أدركت القضية بعد القضية أنه لا يوجد استثناء خوارزميات لتطبيق القسم 230”. نظرت المحكمة العليا في ما إذا كانت حماية القسم 230 يتم تطبيقها على المحتوى الموصى به في الخوارزمية في Gonzalez v. Google، ولكن في عام 2023 ، رفض القضية دون التوصل إلى استنتاج أو إعادة تعريف الحماية الواسعة حاليًا.
زعم شومسكي أن الطبيعة الشخصية لخوارزميات تمنعهم من أن تكون “منتجات” بموجب القانون. وقال شومسكي: “الخدمات ليست منتجات لأنها غير موحدة”. على عكس السيارات أو مزورات الحشائش ، “يتم استخدام هذه الخدمات وتجربتها بشكل مختلف من قبل كل مستخدم” ، نظرًا لأن المنصات “تخصيص التجارب بناءً على تصرفات المستخدم”. وبعبارة أخرى ، قد تؤثر الخوارزميات على Gendron ، لكن معتقدات Gendron أثرت أيضًا على الخوارزميات.
يعد القسم 230 عدادًا شائعًا للمطالبات بأن شركات التواصل الاجتماعي يجب أن تكون مسؤولة عن كيفية تشغيل تطبيقاتها ومواقعها الإلكترونية ، وقد نجحت في بعض الأحيان. وجد حكم المحكمة 2023 أن Instagram ، على سبيل المثال ، لم يكن مسؤولاً عن تصميم خدمته بطريقة سمحت للمستخدمين بنقل الكلام الضار. وقال الحكم إن الاتهامات “تعود بشكل لا مفر منه إلى الاستنتاج النهائي المتمثل في أن Instagram ، من خلال بعض عيب التصميم ، يسمح للمستخدمين بنشر المحتوى الذي يمكن أن يكون ضارًا للآخرين”.
ومع ذلك ، قضت محكمة استئناف اتحادية في العام الماضي بأن على تيخوك مواجهة دعوى قضائية بشأن “تحدي تعتيم” فيروسي زعم بعض الآباء إلى وفاة أطفالهم. في هذه الحالة ، أندرسون ضد تيخوك ، قررت محكمة الاستئناف في الدائرة الثالثة أن Tiktok لم يستطع المطالبة بالجزء 230 من الحصانة ، نظرًا لأن خوارزمياتها تغذت على المستخدمين التحدي الفيروسي. قضت المحكمة بأن المحتوى الذي توصي به Tiktok لمستخدميها ليس خطابًا من طرف ثالث تم إنشاؤه بواسطة مستخدمين آخرين ؛ إنه الطرف الأول الكلام ، لأن المستخدمين يرون ذلك نتيجة لخوارزمية Tiktok الملكية.
حكم الدائرة الثالثة أمر غير طبيعي ، لدرجة أن خبير القسم 230 أطلق عليه إريك جولدمان اسم “Bonkers”. ولكن هناك دفعة متضافرة للحد من حماية القانون. يرغب المشرعون المحافظون في إلغاء القسم 230 ، وسيحتاج عدد متزايد من المحاكم إلى تحديد ما إذا كان مستخدمي الشبكات الاجتماعية يتم بيعهم بمثابة فاتورة خطيرة من البضائع – وليس مجرد قناة لخطابهم.