أعلنت شركة أنثروبيك، المطورة لبوت الدردشة Claude، أمس الأربعاء عن إطلاق "معهد أنثروبيك؛ كمبادرة بحثية تهدف لدراسة التحديات الكبرى التي تفرضها أنظمة الذكاء الاصطناعي "شديدة القوة" على المجتمعات والاقتصاد والقانون.
وتتزامن هذه الخطوة، حسب بيان صادر عن الشركة، مع سعيها لتوسيع قطاعها للسياسات العامة، وافتتاح أول مكتب لها في العاصمة الأمريكية واشنطن بحلول شهر أبريل/نيسان المقبل.
كما يتزامن تدشين المعهد، مع لحظة فارقة بالنسبة للشركة، إذ يأتي بعد أيام فقط من تثبيت وزارة الدفاع الأمريكية تصنيف أنثروبيك على أنها مخاطر على سلسلة التوريد ثم انتقال الخلاف إلى القضاء، وهو ما يعني محاولة الشركة تجاوز المعركة القانونية إلى ما هو أوسع عبر إعادة تقديم نفسها باعتبارها جهة تربط تطوير الذكاء الاصطناعي بالنقاش العام حول السلامة والشفافية والآثار الاجتماعية.
وحسب موقعه الإلكتروني، فإن المعهد سيركز على فهم وإدارة تداعيات أنظمة الذكاء الاصطناعي المتطورة، عبر الإجابة على تساؤلات ملحة ستحدد ما إذا كانت هذه التقنيات ستحقق قفزات نوعية في مجالات العلوم والأمن والاقتصاد، أم ستفرز مخاطر غير مسبوقة على البشرية.
وتربط أنثروبيك خطوة إنشاء المعهد بتسارع تطوير الذكاء الاصطناعي خلال السنوات الأخيرة، إذ تقول إن قدرات النماذج تتقدم بسرعة أكبر من توقعات كثيرين، مؤكدة أن السنوات القليلة المقبلة قد تفرض أسئلة مباشرة على الحكومات والمجتمعات، مثل تأثير هذه الأنظمة على الوظائف والاقتصاد، وطبيعة المخاطر الجديدة التي قد تخلقها، والقيم التي تعبّر عنها النماذج، والجهة التي يجب أن تعرف وتتدخل إذا بدأت الأنظمة في تحسين نفسها على نحو متسارع.
وسيترأس المعهد الشريك المؤسس جاك كلارك، الذي سيتولى منصبًا جديدًا داخل الشركة بصفته رئيسًا لقسم المنفعة العامة.
ويضم المعهد باحثين ومهندسين وخبراء اقتصاد وعلوم اجتماعية، كما يجمع ثلاث وحدات بحثية موجودة داخل أنثروبيك، هم فريق الاختبار المتقدم الذي يفحص حدود قدرات النماذج ومخاطرها، وفريق الآثار المجتمعية الذي يدرس استخدام الذكاء الاصطناعي في العالم الحقيقي، وفريق البحث الاقتصادي الذي يتابع أثره على الوظائف والاقتصاد الأوسع.
وتقول الشركة إن المعهد سيطلق أيضًا فرقًا جديدة، منها فرق تتابع توقع مسار تقدم الذكاء الاصطناعي وعلاقته بالنظام القانوني، لافتة إلى أنها تبني أيضًا فريقًا تحليليًا صغيرًا يساعد في جميع هذه المسارات البحثية وتقديمها إلى الجمهور والباحثين.
وبالتوازي مع إطلاق المعهد، وسّعت أنثروبيك فريق السياسات العامة لديها، وأسندت قيادته إلى سارة هيك، التي كانت تشغل سابقًا منصب رئيسة الشؤون الخارجية في الشركة.
وتركز هذه الوحدة، حسب أنثروبيك، على ملفات مثل سلامة النماذج وشفافيتها، وحماية مستهلكي الطاقة، والاستثمار في البنية التحتية، وضوابط التصدير، ودور الأنظمة الديمقراطية في قيادة سياسات الذكاء الاصطناعي.
ونشبت الأزمة بين أنثروبيك من جهة والبنتاجون من جهة أخرى بسبب موقف الشركة المتشدد تجاه الاستخدامات العسكرية؛ حيث حاولت "أنثروبيك" وضع ضمانات تمنع وزارة الدفاع الأمريكية من استخدام نماذجها في "المراقبة الجماعية" أو "الأسلحة ذاتية التشغيل" التي تقتل دون قرار بشري.
وواجه هذا الموقف رد فعل عنيف من إدارة الرئيس دونالد ترامب، التي وجهت الوكالات الفيدرالية بوقف التعامل مع الشركة، فيما وصف وزير الدفاع، بيت هيجسيث، الشركة بأنها "خطر على سلسلة الإمداد"، في خطوة تهدف لمحاصرتها داخل قطاع التعاقدات الدفاعية.
في المقابل، سلكت شركة OpenAI عبر ChatGPT مسارًا مختلفًا، إذ سارعت إلى طرح اتفاقها الخاص مع البنتاغون لنشر نماذجها داخل "شبكات عسكرية مُصنفة" بمعنى شبكات تعمل ضمن بيئات أمنية شديدة الحساسية.
وأكدت الشركة، عبر منشور يشرح مقاربتها، ورغم تأكيد الشركة أن قواعدها تمنع المراقبة الجماعية وأنظمة الأسلحة الذاتية واتخاذ قرارات آلية عالية المخاطر مثل نماذج التقييم الاجتماعي أو ما يشبهها.
وفي غضون ذلك، قفز روبوت الدردشة Claude التابع لشركة أنثروبيك إلى صدارة التطبيقات المجانية في متجر آبل بالولايات المتحدة بنهاية فبراير/شباط الماضي، متجاوزًا ChatGPT، وهو ما ربطته تقارير بصورة مباشرة بجدل محتدم حول حدود استخدام الذكاء الاصطناعي في عمليات البنتاجون والتسليح.