cointelegraph
cointelegraph
.

درخواست ویتالیک بوترین برای توقف موقت ابررایانه‌ها در مواجهه با ظهور هوش مصنوعی خطرناک

key-pointمفاهیم کلیدی
  • پیشنهاد بوترین برای توقف موقت محاسبات صنعتی در صورت ظهور هوش مصنوعی خطرناک
  • نگرانی بوترین از ظهور هوش مصنوعی فوق هوشمند تا پنج سال آینده
  • حمایت مشروط بوترین از توقف محاسبات صنعتی در صورت نبود قوانین مسئولیت‌پذیری مناسب برای توسعه‌دهندگان هوش مصنوعی
درخواست ویتالیک بوترین برای توقف موقت ابررایانه‌ها در مواجهه با ظهور هوش مصنوعی خطرناک

توقف موقت در صورت ظهور هوش مصنوعی خطرناک

ویتالیک بوترین، هم‌بنیانگذار اتریوم، می‌گوید یک توقف موقت در دسترس بودن محاسبات در مقیاس جهانی می‌تواند راهی برای «خرید زمان بیشتر برای بشریت» در صورت ظهور یک شکل مضر از هوش مصنوعی فوق‌العاده باشد.

در یک پست وبلاگی در ۵ ژانویه که به دنبال پست نوامبر ۲۰۲۳ او در حمایت از ایده «شتاب دفاعی» (d/acc) منتشر شد، بوترین گفت که هوش مصنوعی فوق‌العاده می‌تواند تنها پنج سال با ما فاصله داشته باشد و نمی‌توان تضمین کرد که نتیجه آن مثبت خواهد بود.

بوترین می‌گوید یک «توقف نرم» در سخت‌افزارهای محاسباتی در مقیاس صنعتی می‌تواند گزینه‌ای برای کند کردن توسعه هوش مصنوعی باشد اگر این اتفاق بیفتد - کاهش قدرت محاسباتی جهانی تا ۹۹٪ برای ۱ تا ۲ سال «برای خرید زمان بیشتر برای آمادگی بشریت».

یک هوش مصنوعی فوق‌العاده یک مدل نظری هوش مصنوعی است که معمولاً به عنوان بسیار باهوش‌تر از باهوش‌ترین انسان‌ها در تمام زمینه‌های تخصصی تعریف می‌شود. بسیاری از مدیران فناوری و پژوهشگران نگرانی‌های خود را درباره هوش مصنوعی ابراز کرده‌اند و بیش از ۲۶۰۰ نفر در یک نامه سرگشاده در مارس ۲۰۲۳ خواستار توقف توسعه هوش مصنوعی به دلیل «خطرات عمیق برای جامعه و بشریت» شدند.

بوترین اشاره کرد که پست او در معرفی d/acc تنها «درخواست‌های مبهمی برای عدم ساخت اشکال خطرناک هوش مصنوعی فوق‌العاده» داشت و می‌خواست نظرات خود را درباره چگونگی مقابله با سناریویی که در آن «خطر هوش مصنوعی بالا است» به اشتراک بگذارد.

با این حال، بوترین گفت که او تنها در صورتی از یک توقف نرم سخت‌افزاری حمایت می‌کند که «متقاعد شود که به چیزی قوی‌تر از قوانین مسئولیت نیاز داریم» - که به این معنی است که کسانی که از هوش مصنوعی استفاده، آن را مستقر یا توسعه می‌دهند می‌توانند به دلیل خسارات ناشی از مدل تحت پیگرد قانونی قرار گیرند.

او اشاره کرد که پیشنهادات برای یک توقف سخت‌افزاری شامل یافتن مکان تراشه‌های هوش مصنوعی و الزام به ثبت آنها است، اما پیشنهاد داد که سخت‌افزارهای هوش مصنوعی در مقیاس صنعتی می‌توانند به تراشه‌ای مجهز شوند که تنها در صورتی به آنها اجازه ادامه کار می‌دهد که هر هفته سه امضا از نهادهای بین‌المللی بزرگ دریافت کنند.

بوترین نوشت: «این امضاها مستقل از دستگاه خواهند بود (در صورت تمایل، حتی می‌توانیم اثبات بدون افشا را که آنها در یک بلاکچین منتشر شده‌اند، الزامی کنیم)، بنابراین این موضوع به صورت همه یا هیچ خواهد بود. هیچ راه عملی برای مجاز کردن ادامه کار یک دستگاه بدون مجاز کردن تمام دستگاه‌های دیگر وجود نخواهد داشت.»

ایده d/acc که توسط بوترین حمایت می‌شود، طرفدار یک رویکرد محتاطانه در توسعه فناوری است، در مقابل شتاب موثر (e/acc) که خواستار تغییرات فناوری بدون محدودیت و کنترل است.

لینک خبرVector.svg
ترجمه شده توسط تیم فیدبین