ایستادگی مدیرعامل آنتروپیک در برابر فشار پنتاگون برای حذف محدودیتهای هوش مصنوعی
داریو آمودی (Dario Amodei)، مدیرعامل شرکت آنتروپیک (Anthropic)، رسماً اعلام کرد که این شرکت از حذف تدابیر امنیتی مدل هوش مصنوعی کلود (Claude) برای استفادههای نظامی خودداری میکند. این تصمیم در پی ضربالاجل وزارت دفاع ایالات متحده (Pentagon) اتخاذ شده که از پیمانکاران هوش مصنوعی خواسته است اجازه هرگونه بهرهبرداری قانونی از سیستمهای خود در سامانههای طبقهبندیشده نظامی را صادر کنند. تنشها زمانی بالا گرفت که پنتاگون تهدید کرد قرارداد ۲۰۰ میلیون دلاری این شرکت را لغو و آن را به عنوان «خطر زنجیره تأمین» معرفی خواهد کرد.
آمودی ضمن تأکید بر اهمیت استراتژیک هوش مصنوعی در دفاع از دموکراسی، خاطرنشان کرد که سیستمهای فعلی برای سلاحهای کاملاً خودمختار به اندازه کافی قابلاعتماد نیستند. او معتقد است استفاده از این فناوری برای نظارت تودهای داخلی یا تسلیحات مستقل، با ارزشهای دموکراتیک در تضاد است.
در حال حاضر، مدل کلود در بخشهای مختلف دفاعی برای تحلیل دادههای اطلاعاتی، شبیهسازی و برنامهریزی عملیاتی استفاده میشود، اما آنتروپیک حاضر به واگذاری کنترل کامل لایههای امنیتی آن به ارتش نیست.
تهدید پنتاگون و واکنشهای حقوقی
وزارت دفاع آمریکا در نظر دارد با استناد به قانون تولید دفاعی، آنتروپیک را مجبور به همکاری کند. رابرت ویسمن (Robert Weissman)، رئیس سازمان پابلیک سیتیزن (Public Citizen)، معتقد است پنتاگون با تحت فشار گذاشتن عمومی آنتروپیک، قصد دارد پیامی به تمام شرکتهای بزرگ فناوری ارسال کند تا بدانند ارتش دسترسی بدون محدودیت به اختراعات آنها را انتظار دارد.
داریو آمودی در بیانیه رسمی خود گفت:
ما نمیتوانیم با وجدانی آسوده با درخواست آنها موافقت کنیم. استفاده از این سیستمها برای سلاحهای خودمختار خطر جدی برای رزمندگان و غیرنظامیان آمریکایی به همراه دارد.
نگرانی از رفتارهای غیرقابل پیشبینی هوش مصنوعی
دلیل اصلی پافشاری آنتروپیک بر حفظ خطوط قرمز، نتایج نگرانکننده مطالعات اخیر است. در تحقیقات دانشگاه کینگز لندن، مدلهای پیشرفته هوش مصنوعی از جمله کلود و جیپیتی در ۹۵ درصد سناریوهای شبیهسازیشده بحرانهای ژئوپلیتیک، به استفاده از تسلیحات هستهای روی آوردهاند. این عدم ثبات در تصمیمگیریهای حساس، نگرانیها درباره واگذاری کنترل کامل این ابزارها به بخشهای نظامی بدون نظارت شرکتهای سازنده را دوچندان کرده است.
لطفا در صورت مشاهده دیدگاههای حاوی توهین و فحاشی یا خلاف عرف جامعه با گزارش سریع آنها، به ما در حفظ سلامت بستر ارتباطی کاربران کمک کنید.