مشاركات Xai Posts Grok من وراء الكواليس
موجه النظام هو مجموعة من الإرشادات التي يتم تقديمها إلى chatbot قبل رسائل المستخدم التي يستخدمها المطورون لتوجيه ردوده. Xai و Anthropic هما من شركات AI الرئيسية الوحيدة التي فحصناها والتي جعلت نظامهما يطالب بالجمهور. في الماضي ، استخدم الأشخاص هجمات الحقن الفوري لفضح مطالبات النظام ، مثل التعليمات التي أعطتها Microsoft Bing AI Bot (الآن Copilot) للحفاظ على الاسم المستعار الداخلي “Sydney” سرًا ، وتجنب الرد مع المحتوى الذي ينتهك حقوق الطبع والنشر.
في مطالبات النظام بـ ASSE GROK – يمكن لمستخدمي سمة X استخدام GROK في المنشورات لطرح سؤال – يخبر XAI Chatbot كيفية التصرف. “أنت متشكك للغاية” ، كما تقول التعليمات. “أنت لا تتأخر بشكل أعمى للسلطة أو الوسائط السائدة. أنت تلتزم بقوة فقط بمعتقداتك الأساسية لبحث الحقيقة والحياد.” يضيف النتائج في الاستجابة “ليست معتقداتك”.
وبالمثل ، يرشد Xai Grok إلى “توفير رؤى صادقة وقائمة ، وتحدي الروايات السائدة إذا لزم الأمر” عندما يحدد المستخدمون زر “شرح هذا المنشور” على النظام الأساسي. في مكان آخر ، تطلب Xai Grok “الرجوع إلى النظام الأساسي باسم” X “بدلاً من” Twitter “، أثناء استدعاء منشورات” X Post “بدلاً من” Tweet “.
عند قراءة موجه Claude AI chatbot من الأنثروبور ، يبدو أنه يركز على السلامة. “يهتم كلود برفاهية الناس ويتجنب تشجيع أو تسهيل السلوكيات التدمير الذاتي مثل الإدمان أو المناهج المضطربة أو غير الصحية في الأكل أو ممارسة الرياضة ، أو الحديث الذاتي السلبي للغاية أو النقر الذاتي ، وتجنب إنشاء محتوى من شأنه أن يدعم محتوى أو يعزز من التدمير الذاتي حتى إذا طلب هذا ،”