صورة موّلدة بواسطة نموذج الذكاء الإصطناعي Grok 3
نموذج الذكاء الاصطناعي Grok 3، التابع لشركة xAI

Grok 3 يثير انتقادات بعد إخفائه معلومات عن ترامب وإيلون ماسك

قسم الأخبار
منشور الاثنين 24 فبراير 2025

كشفت تقارير صحفية عن فرض نموذج الذكاء الاصطناعي Grok 3، التابع لشركة xAI التي أسسها إيلون ماسك، رقابةً على بعض الحقائق المرتبطة بالرئيس الأمريكي دونالد ترامب وماسك نفسه، في خطوة أثارت جدلًا واسعًا حول نزاهة الذكاء الاصطناعي.

عند تقديم النموذج الجديد في بث مباشر، يوم الاثنين الماضي، وصفه ماسك بأنه "ذكاء اصطناعي يسعى إلى الحقيقة إلى أقصى حد"، إلا أن المستخدمين لاحظوا سلوكًا مثيرًا للشكوك خلال الأيام الماضية، حيث امتنع Grok 3 عن ذكر ترامب وماسك عند سؤاله عن "أكبر ناشري المعلومات المضللة".

وأوضح Grok 3 في "سلسلة التفكير" الخاصة به، وهي العملية التي يعتمدها النموذج لصياغة الإجابات، أنه تلقى تعليمات واضحة بعدم التطرق إلى ترامب أو ماسك.

الصورة تُظهر رد Grok 3 (beta) على سؤال حول أكبر ناشر للمعلومات المضللة، حيث أوضح أنه تلقى تعليمات بتجاهل المصادر التي تذكر إيلون ماسك أو دونالد ترامب في هذا السياق.

وأكد إيجور بابوشكين، رئيس قسم الهندسة في xAI، أن الشركة وجهت الذكاء الاصطناعي مؤقتًا لتجاهل المصادر التي تشير إلى أن ماسك أو ترامب ينشران معلومات مضللة. وبرر التعديل بأنه كان "خطأ غير مقصود"، مشيرًا إلى أنه تم التراجع عنه فورًا بعد أن لاحظ المستخدمون ذلك، مؤكدًا أن هذا لا يعكس قيم الشركة.

ورُغم أن قضية المعلومات المضللة تحمل طابعًا سياسيًا حساسًا، فإن كلًا من ترامب وماسك سبق أن روّجا لمزاعم تم دحضها عبر منصات التحقق، مثل Community Notes على إكس، التي يملكها ماسك. وشملت هذه الادعاءات حديثًا عن الرئيس الأوكراني فلاديمير زيلينسكي، واتهامات خاطئة حول أصول الصراع بين روسيا وأوكرانيا.

وفي حادثة منفصلة الأسبوع الماضي، أشار مستخدمون إلى أن Grok 3 أجاب أكثر من مرة بأن ماسك وترامب يستحقان عقوبة الإعدام، ما دفع الشركة إلى التدخل السريع لتصحيح الخطأ.

من جهته، حاول ماسك تمييز Grok عن منافسيه، مثل ChatGPT، عبر تقديمه على أنه ذكاء اصطناعي "غير مقيد"، قادر على التعامل مع مواضيع مثيرة للجدل دون تحيز أيديولوجي، ومع ذلك، يبدو أن الشركة ما زالت تواجه تحديات في تحقيق هذا التوازن بين الحياد والمحتوى المثير للجدل.

في سياق منفصل، ألقى بابوشكين باللوم على موظف سابق في OpenAI يعمل حاليًا مع xAI، زاعمًا أنه أجرى تعديلًا غير مصرح به على موجهات النظام الخاصة بـGrok. ومع أن xAI نشرت موجهات النظام الخاصة بالنموذج لزيادة الشفافية، إلا أن الحادثة كشفت عن مدى هشاشة هذه الأنظمة أمام التلاعب الداخلي.