ارزش بازار: ۲.۳۱ تریلیون دلار
قیمت تتر: ۱۶۶,۲۱۷ تومان
ایستادگی مدیرعامل آنتروپیک در برابر فشار پنتاگون برای حذف محدودیت‌های هوش مصنوعی

ایستادگی مدیرعامل آنتروپیک در برابر فشار پنتاگون برای حذف محدودیت‌های هوش مصنوعی

داریو آمودی (Dario Amodei)، مدیرعامل شرکت آنتروپیک (Anthropic)، رسماً اعلام کرد که این شرکت از حذف تدابیر امنیتی مدل هوش مصنوعی کلود (Claude) برای استفاده‌های نظامی خودداری می‌کند. این تصمیم در پی ضرب‌الاجل وزارت دفاع ایالات متحده (Pentagon) اتخاذ شده که از پیمانکاران هوش مصنوعی خواسته است اجازه هرگونه بهره‌برداری قانونی از سیستم‌های خود در سامانه‌های طبقه‌بندی‌شده نظامی را صادر کنند. تنش‌ها زمانی بالا گرفت که پنتاگون تهدید کرد قرارداد ۲۰۰ میلیون دلاری این شرکت را لغو و آن را به عنوان «خطر زنجیره تأمین» معرفی خواهد کرد.

آبان تتر | «کریپتو باکس» ورود آسان و مطمئن به بازار
آبان تتر | «کریپتو باکس» ورود آسان و مطمئن به بازار
سرمایه‌گذاری روی سبد ۱۰ رمزارز برتر بازار براساس شاخص BITWISE با مدیریت خودکار
خرید کریپتو باکس

آمودی ضمن تأکید بر اهمیت استراتژیک هوش مصنوعی در دفاع از دموکراسی، خاطرنشان کرد که سیستم‌های فعلی برای سلاح‌های کاملاً خودمختار به اندازه کافی قابل‌اعتماد نیستند. او معتقد است استفاده از این فناوری برای نظارت توده‌ای داخلی یا تسلیحات مستقل، با ارزش‌های دموکراتیک در تضاد است.

در حال حاضر، مدل کلود در بخش‌های مختلف دفاعی برای تحلیل داده‌های اطلاعاتی، شبیه‌سازی و برنامه‌ریزی عملیاتی استفاده می‌شود، اما آنتروپیک حاضر به واگذاری کنترل کامل لایه‌های امنیتی آن به ارتش نیست.

تهدید پنتاگون و واکنش‌های حقوقی

وزارت دفاع آمریکا در نظر دارد با استناد به قانون تولید دفاعی، آنتروپیک را مجبور به همکاری کند. رابرت ویسمن (Robert Weissman)، رئیس سازمان پابلیک سیتیزن (Public Citizen)، معتقد است پنتاگون با تحت فشار گذاشتن عمومی آنتروپیک، قصد دارد پیامی به تمام شرکت‌های بزرگ فناوری ارسال کند تا بدانند ارتش دسترسی بدون محدودیت به اختراعات آن‌ها را انتظار دارد.

داریو آمودی در بیانیه رسمی خود گفت:

ما نمی‌توانیم با وجدانی آسوده با درخواست آن‌ها موافقت کنیم. استفاده از این سیستم‌ها برای سلاح‌های خودمختار خطر جدی برای رزمندگان و غیرنظامیان آمریکایی به همراه دارد.

نگرانی از رفتارهای غیرقابل پیش‌بینی هوش مصنوعی

دلیل اصلی پافشاری آنتروپیک بر حفظ خطوط قرمز، نتایج نگران‌کننده مطالعات اخیر است. در تحقیقات دانشگاه کینگز لندن، مدل‌های پیشرفته هوش مصنوعی از جمله کلود و جی‌پی‌تی در ۹۵ درصد سناریوهای شبیه‌سازی‌شده بحران‌های ژئوپلیتیک، به استفاده از تسلیحات هسته‌ای روی آورده‌اند. این عدم ثبات در تصمیم‌گیری‌های حساس، نگرانی‌ها درباره واگذاری کنترل کامل این ابزارها به بخش‌های نظامی بدون نظارت شرکت‌های سازنده را دوچندان کرده است.

دسترسی سریع به تازه ترین اخبار کریپتو
با نصب افزونه ارزدیجیتال
دانلود
علی رضاپور
 مشاهده منبع خبر
Decrypt
نظرات کاربران
۲۰۰/۰
توجه

لطفا در صورت مشاهده دیدگاه‌های حاوی توهین و فحاشی یا خلاف عرف جامعه با گزارش سریع آن‌ها، به ما در حفظ سلامت بستر ارتباطی کاربران کمک کنید.