آیا هوش مصنوعی پیشرفته باعث انقراض انسان میشود؟
نشست اخیر سازمان غیرانتفاعی هیومنیتی پلاس (Humanity+) به صحنه تقابل شدید میان متخصصان برجسته فناوری و ترنسهیومنیستها درباره آینده هوش مصنوعی عمومی (AGI) تبدیل شد.
در این مناظره، الیزر یادکوفسکی (Eliezer Yudkowsky)، از مخالفان سرسخت توسعه هوش مصنوعی، هشدار داد که ساخت هوش مصنوعی عمومی میتواند به نابودی بشریت منجر شود، در حالی که مدافعانی نظیر مکس مور (Max More) معتقدند این فناوری تنها راه نجات انسان از بیماری و پیری است.
هشدار درباره ماهیت غیرقابل کنترل هوش مصنوعی
الیزر یادکوفسکی در این نشست تأکید کرد که سیستمهای فعلی هوش مصنوعی بهدلیل ماهیت «جعبه سیاه» خود، غیرقابل درک و کنترل هستند. او معتقد است که بدون تغییر بنیادین در پارادایمهای فعلی، دستیابی به امنیت در حوزه هوش مصنوعی عمومی غیرممکن است.
واژه AGI به سیستمی اشاره دارد که برخلاف هوش مصنوعیهای فعلی، قادر به یادگیری و انجام هر نوع فعالیت ذهنی مشابه انسان است و میتواند با بهبود خودکار، به «تکینگی تکنولوژیک» برسد.
الیزر یادکوفسکی در بخشی از سخنان خود که بازتابدهنده دیدگاههای کتاب اخیرش است، گفت:
عنوان کتاب من این نیست که هوش مصنوعی «ممکن است» شما را بکشد؛ عنوان این است: اگر کسی آن را بسازد، همه میمیرند.
هوش مصنوعی به مثابه ابزاری برای جاودانگی یا استبداد
در مقابل، مکس مور استدلال کرد که توقف توسعه این فناوری میتواند فاجعهبارتر باشد. او معتقد است AGI بزرگترین شانس بشر برای غلبه بر فرسودگی بیولوژیک است. مکس مور در این باره گفت:
مهمترین مسئله برای من این است که هوش مصنوعی عمومی میتواند به ما کمک کند تا از انقراض تکتک انسانها بر اثر پیری جلوگیری کنیم. همه ما در حال مرگ هستیم و یکی پس از دیگری به سمت یک فاجعه پیش میرویم.
اندرس سندبرگ (Anders Sandberg) نیز با اتخاذ رویکردی میانه، ضمن ابراز نگرانی از پتانسیل هوش مصنوعی در کمک به بازیگران مخرب برای تولید سلاحهای بیولوژیک، مدعی شد که دستیابی به «امنیت نسبی» ممکن است.
از سوی دیگر، ناتاشا ویتا مور (Natasha Vita-More) ایده «همسویی» (Alignment) را یک طرح خوشبینانه و غیرعملی خواند و تأکید کرد که حتی میان انسانهای نزدیک نیز همسویی کامل وجود ندارد.
لطفا در صورت مشاهده دیدگاههای حاوی توهین و فحاشی یا خلاف عرف جامعه با گزارش سریع آنها، به ما در حفظ سلامت بستر ارتباطی کاربران کمک کنید.