تحطم الذكاء الاصطناعي المركزي بحلول عام 2030 يمكن أن يرسل التشفير | مقابلة

أصبحت الذكاء الاصطناعى مضمونة في التشفير ، وأي اضطراب يمكن أن يضرب الصناعة بشدة. تتوقع Irina Karagyaur ، المؤسس المشارك والرئيس التنفيذي لوكالة النمو الإيكولوجي BQ9 ، أن تعطل أكبر أنظمة الذكاء الاصطناعى المركزية بحلول عام 2030 ، تراجع عن “نجاحها”. إنها تعتقد أن شبكات البنية التحتية المادية اللامركزية (DEPIN) يمكن أن تنقذ اليوم.
جلسنا مع Karagyaur ، وهي أيضًا رئيسة Creators4Impact ، لمناقشة سبب اعتقادها أن نموذج الأعمال وراء نماذج اللغة الكبيرة الرائدة (LLMS) ، مثل Openai’s GPT-4 ، غير مستدام ، كما هو موضح في مقال حديث. ناقشنا أيضًا كيف سيؤثر “تحطم الذكاء الاصطناعي” على أصول التشفير.
cryptonews: في مقالتك ، تحذر من أن الذكاء الاصطناعى المركزي “سيصطدم” ليس بسبب الأخلاق أو اللوائح ، ولكن بسبب اختناقات البنية التحتية. لماذا تعتقد أن هذا الخطر لا يزال يتم التقليل من شركاتهم والمستثمرين من الذكاء الاصطناعي؟
إيرينا كاراجيور: يتم التقليل من شأنه لأنه لا توجد شركة تريد أن تفوت. عندما أخذ GPT-3 العالم بالعاصفة وانفجرت في شعبية في أواخر عام 2022 ، أثارت أزمة عبر شركات التكنولوجيا الكبرى. لم يكن لدى أي منهم ، ولا حتى Google ، التي كانت رائدة في الذكاء الاصطناعي لسنوات ، أي شيء مماثل جاهز للإصدار العام.
عند استشعار التحول ، قامت Microsoft بتعميق شراكتها بسرعة مع Openai ، واستثمار المليارات ودمج نماذج GPT في Bing و Office Suite. منذ ذلك الحين ، سارع اللاعبون الرئيسيون الآخرين للحاق بالركب.
قامت Meta بتسريع تطوير وإصدار نماذج Llama مفتوحة الوزن لتأكيد القيادة في الذكاء الاصطناعى مفتوح المصدر. زادت أمازون من الاستثمار في منصة الأساس الخاصة بها ونماذج الأساس المخصصة. حتى Apple ، صامتة طويلة في سباق الذكاء الاصطناعي ، بدأت في طرح عروضها الخاصة في 2024-2025.
كانت الفلسفة هي “الخطر الوحيد هو عدم المخاطرة”. في هذا المشهد ، لا يمكن لقيادة شركة التكنولوجيا أن يجلس على الهامش.
CN: هل يمكن أن توضح سبب عدم استدامة LLMs المركزية ، حتى لو كانت ناجحة بشكل كبير ، غير مستدام بطبيعتها على نطاق واسع؟
IK: هناك العديد من الأسباب لذلك. باختصار ، في نموذجنا الحالي ، عندما تكون التكنولوجيا جديدة ، فإننا نعتمد على القوة الغاشمة المتزايدة لتنمية ، و “أكثر أفضل”. نحن لا نضع وزن جهودنا على الكفاءة حتى نصل إلى الحائط.
على سبيل المثال ، يدعي Deepseek أنه قام بتدريب طراز V3 الخاص به مقابل 5.6-6 مليون دولار أمريكي ، مقابل حوالي 100 مليون دولار+ لـ GPT-4. كان السياق صعوباتهم في الحصول على التكنولوجيا والميزانية ، ولكن من ناحية أخرى ، فإن المهنيين الممتازين والدعم الحكومي. عندما عطلوا صناعة الذكاء الاصطناعى ، كان كل ما سمع هو “الضرورة هي والدة اختراع”.
هذا هو بالضبط الهدف من مقالتي ، مع تسليط الضوء على الحاجة إلى تطوير أساليب مختلفة لجعل الذكاء الاصطناعى ، ككل ، مستدامة وشاملة.
Depin يحل عيوب الذكاء الاصطناعي المركزية
CN: أنت تتحدث عن FileCoin و Rending و Dimo كبعض اللاعبين الرئيسيين في حل أزمة البنية التحتية لمنظمة العفو الدولية. ما الذي يجعل مثل هذه المشاريع مناسبة لخدمة الذكاء الاصطناعي مقارنة بمقدمي الخدمات السحابية التقليدية مثل AWS أو Azure؟
IK: أرغب في تسليط الضوء على أن هناك حلول DePin أخرى تفعل الشيء نفسه بالإضافة إلى تلك المذكورة من قبل. النقطة المهمة هي أن هذه التقنيات اللامركزية ستحل السبب الجذري للمشكلة.
عوامل اللامركزية في الأشخاص والعقد داخل نموذج العمل ، كتكلفة البنية التحتية (Capex + Opex). لذلك يمكننا تقسيم التكاليف بين الملايين أو حتى مليارات العقد في جميع أنحاء العالم. إنه نهج فعال من حيث التكلفة يدعم النمو المستدام وحقوق الإنسان.
CN: يقول النقاد إن الأنظمة المركزية تستفيد من وفورات الحجم. كيف يمكن لـ Depin ضمان تطابق البنية التحتية اللامركزية مع أداء وموثوقية مراكز البيانات الفائقة مثل تلك الموجودة في “مشروع Stargate”؟
IK: من الواضح أن الأنظمة المركزية لا يمكن أن تستمر إلا من وفورات الحجم. خاصة إذا كنت ترغب في إنشاء احتكار. ستحتاج إلى إعاقة المنافسة وأيضًا بناء أنظمة مركزية بأكبر قدر ممكن من أخذ السوق داخل السحابة الخاصة بك.
لم يكن مشروع Stargate [built] لأسباب تقنية أو الأداء أو الموثوقية. السرد المهيمن لدعمها من حكومة الولايات المتحدة [is] للوصول إلى تفوق الذكاء الاصطناعي الأمريكي.
على العكس من ذلك ، يعني Depin Running AI أن تشغيل الذكاء الاصطناعي هو وظيفة الشعب وأن الشخص يدفع مقابل ذلك من قبل المجتمع. النقطة الأساسية هي فهم أولويات الإنسانية. يمكننا اختيار التأكد من وجود الذكاء الاصطناعي والتعايش معنا في خلق فرص عمل ونماذج مستدامة. أو يمكننا أن نختار الجري بشكل أعمى ، ووضع الذكاء الاصطناعي فوقنا أثناء تدمير المجتمع ، والبيئة ، وحتى الذكاء الاصطناعي نفسه.
CN: كيف يتعامل Depin مع بيانات تدريب AI الحساسة مقارنة بالأنظمة المركزية؟ هل البراهين الصفرية أو التعلم الموحدين قابلاً للتطبيق للحفاظ على الخصوصية في النماذج اللامركزية؟
IK: من الناحية النظرية ، يكون Depin في وضع يسمح له بالتعامل مع بيانات تدريب الذكاء الاصطناعى بطريقة أكثر أمانًا من خلال توزيع الحساب وتخزين البيانات مما يقلل من نقطة الفشل الواحدة وخطر انتهاك البيانات. في الممارسة العملية ، يحتاجون إلى اختبار.
مطلوب أنظمة DEPIN لدمج تقنيات الحفاظ على الخصوصية (مثل FL أو ZKPs) أعلى بنيتها التحتية لحماية البيانات الحساسة. هذه الميزات ليست مدمجة بشكل افتراضي.

CN: إذا تعطلت LLMS الرئيسية بحلول عام 2030 كما تتوقع ، فما الذي سيكون تأثير تموج على النظام البيئي للتشفير ، وخاصة الرموز المرتبطة بـ AI؟
IK: ستأخذ النماذج اللامركزية بسرعة حصة السوق لتلك LLMs الرئيسية التي تركت وراءها. أولئك الذين يراهنون على اللامركزية ومكافآت التشفير سيكون لديهم فرصة كبيرة للنمو بشكل كبير.
CN: ترتبط العديد من الرموز المميزة للتشفير الآن بسرد الذكاء الاصطناعي – حتى أن بعضها يعتمد على الشراكات أو واجهات برمجة التطبيقات من نماذج مركزية مثل Openai أو Anthropic. هل هذه المشاريع معرضة للخطر الوجودي إذا فشلت هذه النماذج؟
IK: قطعاً. يتعين عليهم إنشاء نماذج أعمال مرنة من خلال أن تصبح لا مركزية حقًا.
CN: هبطت Chatgpt مؤخرًا وتركت العديد من تجار التشفير في Lurch. أعتقد أن الانهيار في أنظمة الذكاء الاصطناعى الرئيسي يجب أن يكون له تأثير أكثر تدميراً على الرموز المشفرة التي تحركها الذكاء الاصطناعي.
IK: ليس بالضرورة في هذه المرحلة الزمنية. المشاعر حول الذكاء الاصطناعي إيجابية إلى حد كبير. مجتمع التشفير متفائل للغاية بشأن وكلاء الذكاء الاصطناعى والرموز ذات الصلة. لذلك ، منذ انقطاع chatgpt في يونيو استمرت ساعات فقط (في سياق مع انقطاع التيار الكهربائي في بعض بلدان الاتحاد الأوروبي) كان له تأثير محدود على الشعور. في حالة أن تصبح هذه الانقطاعات أكثر تواتراً وأصبح الناس أكثر وعياً بالنتيجة النهائية ، فقد نرى تأثيرًا أكبر على الأسواق أيضًا.
CN: هل يمكن أن يلفت الانهيار في البنية التحتية لمنظمة العفو الدولية المزيد من الاهتمام إلى شبكات تشفير الطبقة الأساسية مثل بيتكوين و Ethereum كمؤسسات مرنة ومقاومة للرقابة للقيمة الرقمية؟
IK: أنا مقتنع بذلك. تمامًا كما هو الحال الآن ، نرى الأزمات مع تبادل التشفير المركزي (CEXES). لقد أصبح من الواضح كيف تستخرج تلك الشركات المركزية الكبيرة القيمة ليس فقط من قواعد المستخدم الضخمة ولكن أيضًا من الكيانات التي يسردها الرموز التي يدرجونها. الشبكات والحلول اللامركزية ستفوز بمرور الوقت. أود أن أقول عاجلا وليس آجلا.
تجنب تحطم الذكاء الاصطناعي القادم
CN: يقترح مقالتك “مشاركة الأرباح” لتجنب انهيار الذكاء الاصطناعي. هل يمكن أن تشارك الذكاء الاصطناعي والبنية التحتية التي تعمل بالطاقة المشفرة أرباحًا واقعية مع ملايين المساهمين الأفراد (على سبيل المثال ، مشغلي العقدة)؟
IK: في الواقع على العكس: عدم تبادل الأرباح من المستحيل تخيله. حاليًا ، يستخدم الذكاء الاصطناعى المشاعات للتدريب (ويجب تحديثه باستمرار). هذا هو مصدر دخل معلق للمشاركة. سيتغير هذا الموقف قريبًا نظرًا لأن العديد من حالات انتهاك حقوق الملكية الفكرية قد تم نقلها إلى المحكمة.
من ناحية أخرى ، يحتاج الذكاء الاصطناعي بشكل أساسي إلى الطاقة والحساب والتخزين ، وفي بعض الحالات ، يتم تمويل توفير هذه الموارد الآن بأموال دافعي الضرائب. وبهذا المعنى ، لسنوات ، نجحت Bitcoin و Ethereum والآن العديد من الآخرين في تشغيل العقد ودفع الفواتير. لماذا لا يستطيع شيء مربح مثل الذكاء الاصطناعي نفس الشيء؟
CN: أنت تتحدث أيضًا عن “إنترنت القيمة” الخارجة من اندماج الذكاء الاصطناعي ، و blockchain ، والميكرويس. كيف يبدو تطبيق AI-Web3 يعمل بكامل طاقته في عام 2030؟
IK: واحدة من تطلعاتي هي أنه بحلول عام 2030 ، ستصبح مثل هذه التطبيقات أدوات يومية تعمل حقًا للناس ، والحفاظ على خصوصيتنا وبناء احتياجاتنا.
لنأخذ موقعًا حكوميًا حيث يذهب المواطنون للتشاور مع الخدمات العامة كمثال. تخيل أن المواطن يفتح بوابة واحدة سهلة الاستخدام. يتيح لهم الهوية الرقمية وغير المركزية إمكانية الوصول إلى خدمات مثل الرعاية الصحية أو التصويت أو التقدم للحصول على الدعم ، ومساعدهم في الذكاء الاصطناعى يساعدهم على التنقل في النظام ، وملء النماذج ، وحتى اقتراح الطرق التي يمكنهم كسبها من خلال المساهمة في مشاريع المجتمع.
من الأهمية بمكان ، أن الذكاء الاصطناعى يتعرف على قيمة بياناتهم ويدفعهم لذلك ، ويحول التفاعلات الرقمية اليومية إلى مصادر الدخل. كل هذا يحدث مع الخصوصية الكاملة والشفافية ، محمية بواسطة blockchain اللامركزية ، والقرارات-مثل حيث تذهب الأموال العامة-من خلال التصويت عبر الإنترنت القائم على DAO بطريقة واضحة وخاضعة للمساءلة.
هذا هو إنترنت القيمة: عالم رقمي أكثر عدلاً نمتلك فيه بياناتنا ، ونشكل أنظمتنا ونعمل مع الذكاء الاصطناعي لبناء مستقبل يتضمن الجميع.
CN: هل يمكن أن يؤدي اللامركزية إلى أشكال جديدة من عدم المساواة ، حيث يشارك فقط أولئك الذين لديهم أجهزة أو عرض النطاق الترددي أو الرموز في الاتجاه الصعودي؟
IK: بالطبع! هذا هو السبب في أننا نحتاج إلى قيادة صناعة blockchain لدعم هذه الرؤية والحكومات للتدخل والتنظيم. علينا أن نتجنب خلق احتكارات متنكّر باسم اللامركزية. لذلك ، لدينا أسس متنوعة أو المنظمات غير الحكومية أو النماذج التعاونية التي يمكن إعدادها بسرعة لهذا الغرض.
يمكن أن يرسل تحطم الذكاء الاصطناعي المركزي بعد عام 2030 | ظهرت المقابلة أولاً على cryptonews.