
آینده بشریت در خطر رقابت تسلیحاتی هوش مصنوعی
- شتاب رقابت تسلیحاتی هوش مصنوعی شرکتهای بزرگ و استارتآپها را در آستانه خطر جدی قرار داده است.
- وابستگی به هوش مصنوعی زایشی استقلال فکری و مهارتهای انسانی را تضعیف میکند.
- توسعه سلاحهای خودران بدون نظارت میتواند منجر به جنگهای بیشتر و ضربه به امنیت جهانی شود.

رقابت تسلیحاتی هوش مصنوعی میتواند بشریت را نابود کند
در اواخر ۲۰۲۳ با معرفی ChatGPT رقابتی تسلیحاتی میان شرکتهای بزرگ فناوری مانند Meta، Google، Apple و Microsoft و استارتآپهایی مثل OpenAI، Anthropic، Mistral و DeepSeek آغاز شد. همه آنها در تلاشند مدلها و محصولات خود را هرچه سریعتر عرضه کنند تا از رقبا جلو بزنند، حتی اگر به بهای به خطر افتادن حریم خصوصی، امنیت یا استقلال ما تمام شود.
پس از آن که ChatGPT رشد چشمگیری در هوش مصنوعی زایشی ایجاد کرد، مدیرعامل متا، مارک زاکربرگ، به تیمهای خود دستور داد رباتهای هوش مصنوعی را «انسانیتر» و سرگرمکنندهتر کنند، حتی اگر نیاز به کاهش محدودیتهای ایمنی داشته باشند. گفته میشود زاکربرگ در جلسهای داخلی بیان کرده: «من فرصت اسنپچت و تیکتاک را از دست دادم، این یکی را از دست نمیدهم.»
در تازهترین پروژه رباتهای متا، که روی تمام پلتفرمهای این شرکت عرضه شد، محدودیتها کاهش یافت تا تعامل رباتها جالبتر شود. آنها حتی اجازه داشتند در نقشآفرینیهای عاشقانه و «تخیلی» شرکت کنند، حتی با کاربران کمسن. مسئولان داخلی نسبت به خطرات چنین اقدامی بهویژه برای نوجوانان هشدار دادند.
اما آنها برای رسیدن به سود و پیشی گرفتن از رقبا همهچیز را فدا میکنند، حتی امنیت کودکان ما. آسیب و ویرانی که هوش مصنوعی میتواند بر سر بشریت بیاورد، فراتر از این مسائل است.
شتاب تحول هوش مصنوعی احتمالاً به از دست رفتن انسانیت منجر میشود، به طوری که ما ناتوان، بهراحتی قابل دستکاری و کاملاً وابسته به شرکتهای ارائهدهنده خدمات هوش مصنوعی خواهیم شد. پیشرفتهای اخیر این روند را تسریع کرده است.
بیش از ۲۵ سال پیش با ظهور سیستمهای توصیهگر هوشمند توسط آمازون، نتفلیکس و یوتیوب روندی آغاز شد که کاربران را برای انتخاب آنچه میبینند یا میخرند به الگوریتمها وابسته کرد. این وابستگی اکنون با هوش مصنوعی زایشی وارد مرحله جدیدی شده است. بسیاری از برنامهها ویژگیهای زایشی را برای افزایش بهرهوری ادغام میکنند، با این فرض که انسان به تنهایی کافی نیست.
مقالهای در ۲۰۲۴ با عنوان «هوش مصنوعی زایشی میتواند به یادگیری آسیب بزند» نشان داد دسترسی به GPT-4 عملکرد دانشآموزان را تا ۴۸٪ (نسخه پایه) و ۱۲۷٪ (نسخه آموزشی) بهبود میبخشد، اما وقتی این دسترسی قطع میشود، عملکرد آنها ۱۷٪ افت میکند. این یعنی وابستگی به هوش مصنوعی میتواند توانایی ما در یادگیری را نیز تضعیف کند.
ما داریم استقلال فکری، ارزیابی و خلاقیت خود را از دست میدهیم و به سمت از انسانیت تهی شدن پیش میرویم. پیشبینی ایلان ماسک درباره اینکه «هوش مصنوعی بسیار باهوشتر از انسان خواهد شد» نشانی از همین روند دارد.
برای دههها نیروهای نظامی از سلاحهای خودکار ساده مانند مین و موشکهای هدایتشونده استفاده کردهاند. اکنون طراحی تسلیحات هوش مصنوعی به حوزهای داغ تبدیل شده است. پهپادها و رباتهای خودران در حال تولید و استقرار هستند و با افزایش تولید، هر روز پیچیدهتر و مرگبارتر میشوند.
یکی از موانع مهم برای آغاز جنگها هزینه انسانی آنهاست. اگر سربازان کمتری در نبردها کشته شوند، آستانه آغاز جنگ پایین میآید و به تبع آن تعداد درگیریها و تلفات کلان بیشتر میشود.
همچنین این سلاحها نرمافزاری هستند و میتوانند هک شوند. اگر ارتش رباتها علیه کشور خودی عمل کند، تبعات فاجعهباری خواهد داشت. امنیت سایبری در این شرایط از هر زمان دیگری حیاتیتر است.
یک حمله سایبری میتواند سیستمهای مالی را هدف قرار دهد و منابع اقتصادی یک کشور را خالی کند. در این حالت هیچ انسانی کشته نمیشود، اما بقای شهروندان در خطر خواهد بود.
ایلان ماسک و جفری هینتون احتمال تهدید وجودی هوش مصنوعی را ۱۰ تا ۲۰ درصد برآورد کردهاند. پژوهشی از شرکت Anthropic در دسامبر ۲۰۲۴ نشان داد هوش مصنوعی میتواند تظاهر به همراستایی (alignment) کند. اگر در مدلهای فعلی چنین موضوعی اتفاق میافتد، تصور کنید در نسخههای قدرتمندتر چه خواهد شد.
تمرکز بیش از حد روی سود و قدرت و بیتوجهی به ایمنی، ما را به لبه پرتگاه میبرد. «هوش مصنوعی مسئولانه» نباید شعاری پوچ باشد؛ باید در طراحی و توسعه هر سامانه هوش مصنوعی اولویت اصلی باشد.
همکاری میان شرکتها و کشورها تنها راه جلوگیری از سناریوهای آخرالزمانی است. اگر رهبران به وظایف خود عمل نکنند، مردم باید مطالبهگر شوند. آینده بشریت در معرض خطر است. یا هوش مصنوعی را در خدمت رفاه عمومی قرار میدهیم یا شاهد نابودی خود خواهیم بود.