يتم بناء الذكاء الاصطناعى خلف الأبواب المغلقة ، وهذا خطأ

الإفصاح: الآراء والآراء المعبر عنها هنا تنتمي فقط إلى المؤلف ولا تمثل وجهات نظر وآراء تحرير crypto.news.
يعيد الذكاء الاصطناعي إعادة تشكيل كل ركن من أركان الحياة الحديثة. من الطريقة التي نبحث بها على الويب إلى كيفية استثمار نماذج نماذج منظمة العفو الدولية والتصويت عليها ، تتوسط الآن بعض قراراتنا الأكثر أهمية. ولكن وراء الراحة المتزايدة يكمن مصدر قلق أعمق وأكثر إلحاحًا: ليس لدى الجمهور أي رؤية في كيفية عمل هذه النماذج ، أو ما تدرب عليه ، أو من يستفيد منها.
هذا هو ديجا فو.
لقد عشنا هذا من قبل مع وسائل التواصل الاجتماعي ، حيث عهدت مجموعة صغيرة من الشركات التي تتمتع بسلطة غير مسبوقة على الخطاب العام. وقد أدى ذلك إلى عتامة الخوارزمية ، والغضب المدقع ، وتآكل الواقع المشترك. هذه المرة ، ليست فقط خلاصاتنا في خطر ، ولكن أنظمة صنع القرار لدينا والأطر القانونية والمؤسسات الأساسية.
ونحن نسير فيه مع عيوننا على مصراعيها.
مستقبل مركزي يتشكل بالفعل
تهيمن على المناظر الطبيعية من الذكاء الاصطناعي اليوم حفنة من المختبرات القوية التي تعمل خلف الأبواب المغلقة. تقوم هذه الشركات بتدريب النماذج الكبيرة على مجموعات البيانات الضخمة – التي تم تصويرها من الإنترنت ، وأحيانًا دون موافقة – وتطلقها في المنتجات التي تشكل مليارات التفاعلات الرقمية كل يوم. هذه النماذج ليست مفتوحة للتدقيق. البيانات غير قابلة للتدقيق. النتائج ليست مسؤولة.
هذا المركزية ليست مجرد قضية فنية. إنها سياسية واقتصادية. يتم بناء مستقبل الإدراك في صناديق سوداء ، بوابات خلف جدران الحماية القانونية ، وتم تحسينها لقيمة المساهمين. عندما تصبح أنظمة الذكاء الاصطناعى أكثر استقلالية وتضمينًا في المجتمع ، فإننا نخاطر بتحويل البنية التحتية العامة الأساسية إلى محركات خاصة محكومة.
السؤال ليس ما إذا كان الذكاء الاصطناعي سيحول المجتمع ؛ لديها بالفعل. القضية الحقيقية هي ما إذا كان لدينا أي رأي في كيفية تطور هذا التحول.
حالة منظمة العفو الدولية اللامركزية
ومع ذلك ، هناك مسار بديل – يتم استكشافه بالفعل من قبل المجتمعات والباحثين والمطورين في جميع أنحاء العالم.
بدلاً من تعزيز النظم الإيكولوجية المغلقة ، تقترح هذه الحركة بناء أنظمة الذكاء الاصطناعى الشفافية حسب التصميم ، واللامركزية في الحوكمة ، ومسؤولية الأشخاص الذين يقومون بتشغيلها. يتطلب هذا التحول أكثر من الابتكار الفني – يتطلب إعادة تنظيم ثقافي حول الملكية والاعتراف والمسؤولية الجماعية.
في مثل هذا النموذج ، لا يتم استخلاص البيانات فقط واستثمارها دون إقرار. لقد ساهمت ، والتحقق منها ، وتحكمها الأشخاص الذين يولدونها. يمكن للمساهمين كسب التقدير أو المكافآت. يتحقق المدققون من أصحاب المصلحة. وتتطور الأنظمة مع الرقابة العامة بدلاً من السيطرة من جانب واحد.
على الرغم من أن هذه الأساليب لا تزال مبكرة من التطور ، فإنها تشير إلى مستقبل مختلف جذريًا-حيث يتدفق الذكاء من نظير إلى نظير ، وليس من أعلى إلى أسفل.
لماذا لا يمكن أن تنتظر الشفافية
يحدث توحيد البنية التحتية لمنظمة العفو الدولية بسرعة Breakneck. تتسابق الشركات تريليونات الدولارات لبناء خطوط أنابيب متكاملة رأسياً. تقترح الحكومات لوائح ولكنها تكافح من أجل مواكبة ذلك. وفي الوقت نفسه ، الثقة في الذكاء الاصطناعى تتعثر. وجد تقرير حديث إدلمان أن 35 ٪ فقط من الأميركيين يثقون في شركات الذكاء الاصطناعي ، وهو انخفاض كبير عن السنوات السابقة.
أزمة الثقة هذه ليست مفاجئة. كيف يمكن لنظم الثقة العامة التي لا يفهمونها ، ولا يمكنها التدقيق ، وليس لديها أي ملجأ ضده؟
الترياق المستدام الوحيد هو الشفافية ، ليس فقط في النماذج نفسها ، ولكن عبر كل طبقة: من كيفية جمع البيانات ، إلى كيفية تدريب النماذج ، إلى من يسترب من استخدامها. من خلال دعم البنية التحتية المفتوحة وبناء أطر تعاونية للإسناد ، يمكننا البدء في إعادة توازن ديناميكية القوة.
هذا ليس عن توقف الابتكار. إنه يتعلق بتشكيله.
كيف يمكن أن تبدو الملكية المشتركة
يتطلب بناء اقتصاد من الذكاء الاصطناعى الشفاف إعادة التفكير أكثر من كود باس. وهذا يعني إعادة النظر في الحوافز التي حددت صناعة التكنولوجيا على مدار العقدين الماضيين.
قد يشمل مستقبل الذكاء الديمقراطي الأكثر ديمقراطياً دفتر الأستاذ العام الذي يتتبع كيفية تأثير مساهمات البيانات على النتائج ، والحوكمة الجماعية على التحديثات النموذجية وقرارات النشر ، والمشاركة الاقتصادية للمساهمين والمدربين والمقاومة ، وأنظمة التدريب الموحدة التي تعكس القيم والسياقات المحلية.
إنهم يبدأون نقاطًا لمستقبل لا يجيب فيه الذكاء الاصطناعي على رأس المال بل إلى مجتمع.
الساعة تدق
لا يزال لدينا خيار في كيفية تطور هذا. لقد رأينا بالفعل ما يحدث عندما نستسلم وكالتنا الرقمية للمنصات المركزية. مع الذكاء الاصطناعى ، ستكون العواقب أكثر بعيدة المدى وأقل عكسها.
إذا كنا نريد مستقبلًا يكون فيه الذكاء فائدة عامة مشتركة ، وليس أصلًا خاصًا ، فيجب أن نبدأ في بناء أنظمة مفتوحة وقابلة للتدقيق وعادلة.
يبدأ بطرح سؤال بسيط: من يجب أن يخدم الذكاء الاصطناعي في النهاية؟