cointelegraph
cointelegraph
.

چالش‌های امنیتی و حقوقی ظهور "کارمندان دیجیتال" در اقتصاد جهانی

key-pointمفاهیم کلیدی
  • سال ۲۰۲۵ به عنوان سال ظهور "اقتصاد عاملی" با محوریت عوامل هوش مصنوعی پیش‌بینی می‌شود.
  • عوامل هوش مصنوعی به عنوان کارمندان دیجیتال مستقل عمل می‌کنند و می‌توانند وظایف پیچیده را انجام دهند.
  • استفاده از این عوامل می‌تواند چالش‌های امنیتی و حریم خصوصی جدیدی ایجاد کند و نیاز به قوانین به‌روز را افزایش دهد.
چالش‌های امنیتی و حقوقی ظهور "کارمندان دیجیتال" در اقتصاد جهانی

باید قبل از خودکار شدن Copilot، هوش مصنوعی مسئولانه را تقویت کنیم

جنسن هوانگ، مدیرعامل انویدیا، در نوامبر ۲۰۲۴ پیش‌بینی کرد که سال ۲۰۲۵ «سال عوامل هوش مصنوعی» خواهد بود. این موضوع راه را برای عصر جدیدی به نام اقتصاد عاملی هموار می‌کند. هوانگ عوامل هوش مصنوعی را به عنوان «کارمندان دیجیتال» توصیف کرد و پیش‌بینی کرد که روزی انویدیا ۵۰ هزار کارمند انسانی و بیش از ۱۰۰ میلیون عامل هوش مصنوعی خواهد داشت و هر سازمانی احتمالاً شاهد رشد مشابهی در کارگران هوش مصنوعی خواهد بود.

با این حال، توصیف عوامل هوش مصنوعی به عنوان «کارگران دیجیتال» بسیار ساده‌انگارانه است و پیامدهای این فناوری را نادیده می‌گیرد. ما همواره به فناوری به عنوان یک ابزار نگاه کرده‌ایم، اما هوش مصنوعی عاملی بیش از یک ابزار است. هوش مصنوعی عاملی فراتر از انجام یک وظیفه ساده عمل می‌کند و یک تغییر اساسی در نحوه تعامل ما با فناوری ایجاد می‌کند.

برخلاف هوش مصنوعی مولد (GenAI) که به دستورالعمل‌های انسانی وابسته است و نمی‌تواند به طور مستقل وظایف پیچیده چندمرحله‌ای را انجام دهد، هوش مصنوعی عاملی از شبکه‌هایی از عوامل استفاده می‌کند که یاد می‌گیرند، سازگار می‌شوند و با هم کار می‌کنند. عوامل هوش مصنوعی می‌توانند با یکدیگر تعامل داشته باشند و از یکدیگر یاد بگیرند و توانایی تصمیم‌گیری مستقل، یادگیری از تجربه، سازگاری با شرایط متغیر و برنامه‌ریزی اقدامات پیچیده چندمرحله‌ای را دارند و به طور مؤثر به عنوان یک شریک فعال عمل می‌کنند نه فقط یک ابزار واکنشی برای اجرای دستورات از پیش تعیین شده.

هر فرد و هر چیزی می‌تواند یک عامل هوش مصنوعی داشته باشد که به طور مستقل به نمایندگی از آنها کار کند. افراد می‌توانند از آنها برای کمک در زندگی روزمره یا حرفه‌ای خود استفاده کنند، در حالی که سازمان‌ها می‌توانند از آنها به عنوان دستیار یا کارگر یا یک شبکه از کارگران استفاده کنند. شما حتی می‌توانید یک عامل هوش مصنوعی برای یک عامل هوش مصنوعی دیگر تصور کنید. کاربردهای هوش مصنوعی عاملی بی‌پایان و تنها محدود به تخیل ما هستند.

این موضوع بسیار هیجان‌انگیز است و مزایای زیادی می‌تواند داشته باشد، اما خطرات آن نیز بسیار زیاد است. عوامل هوش مصنوعی، به ویژه سیستم‌های چندعاملی، نه تنها بسیاری از آسیب‌پذیری‌های اخلاقی، قانونی، امنیتی و سایر مشکلات موجود در هوش مصنوعی مولد را به طور تصاعدی تشدید می‌کنند، بلکه مشکلات جدیدی نیز ایجاد می‌کنند.

مدل‌های هوش مصنوعی مبتنی بر داده هستند. با هوش مصنوعی عاملی، نیاز به داده‌های شخصی و اختصاصی و وابستگی به آنها به طور تصاعدی افزایش می‌یابد و همچنین آسیب‌پذیری‌ها و خطرات نیز افزایش می‌یابد. پیچیدگی این سیستم‌ها انواع مختلفی از سوالات حریم خصوصی را مطرح می‌کند. چگونه می‌توانیم اطمینان حاصل کنیم که اصول حفاظت از داده‌ها مانند به حداقل رساندن داده‌ها و محدودیت هدف رعایت می‌شوند؟ چگونه می‌توانیم از نشت داده‌های شخصی در یک سیستم هوش مصنوعی عاملی جلوگیری کنیم؟ آیا کاربران عوامل هوش مصنوعی می‌توانند از حقوق موضوعات داده، مانند حق فراموش شدن، استفاده کنند اگر تصمیم بگیرند استفاده از عامل هوش مصنوعی را متوقف کنند؟ آیا کافی است فقط به «یک» عامل اطلاع دهیم و انتظار داشته باشیم که آن را به کل شبکه عوامل «پخش» کند؟

عوامل هوش مصنوعی می‌توانند دستگاه‌های ما را کنترل کنند و ما باید آسیب‌پذیری‌های احتمالی چنین عواملی را در صورتی که روی رایانه، تلفن هوشمند یا هر دستگاه اینترنت اشیا ما اجرا شوند، بررسی کنیم. اگر هرگونه آسیب‌پذیری امنیتی وجود داشته باشد، این موضوع به یک برنامه کاربردی که به خطر افتاده محدود نمی‌شود. «تمام زندگی شما» - یعنی تمام اطلاعات شما در تمام دستگاه‌های شما و بیشتر - به خطر می‌افتد. این موضوع برای افراد و سازمان‌ها صادق است. علاوه بر این، این آسیب‌پذیری‌های امنیتی می‌توانند به سایر سیستم‌های هوش مصنوعی عاملی که عامل «به خطر افتاده» شما با آنها تعامل داشته است، «نشت» کنند.

فرض کنید یک عامل (یا مجموعه‌ای از عوامل) از دستورالعمل‌های امنیتی سختگیرانه پیروی می‌کند. فرض کنید آنها با دیگران (یا مجموعه‌ای از عوامل) که به دلیل عدم وجود اقدامات امنیت سایبری مناسب به خطر افتاده‌اند، تعامل دارند. چگونه می‌توانیم اطمینان حاصل کنیم که عوامل به خطر افتاده به عنوان یک «ویروس» عمل نمی‌کنند تا تمام عواملی که با آنها تعامل دارند را آلوده کنند؟ پیامدهای چنین سناریویی می‌تواند ویرانگر باشد. این «ویروس» می‌تواند در عرض چند میلی‌ثانیه منتشر شود و به طور بالقوه کل سیستم‌ها در سراسر کشورها فروپاشند. هرچه اتصالات/تعاملات پیچیده‌تر و درهم‌تنیده‌تر باشند، خطر فروپاشی بیشتر است.

ما قبلاً نمونه‌هایی از سیستم‌های هوش مصنوعی مولد جانبدارانه را دیده‌ایم. در زمینه عوامل هوش مصنوعی، هرگونه جانبداری موجود از طریق زنجیره اجرای وظایف منتقل می‌شود و تأثیر آن را تشدید می‌کند. چگونه می‌توانیم از تبعیض جلوگیری کنیم یا مقررات قانونی را که انصاف را تضمین می‌کنند، اجرا کنیم وقتی که جانبداری در عامل هوش مصنوعی «جاسازی» شده است؟ چگونه می‌توانیم اطمینان حاصل کنیم که عوامل هوش مصنوعی جانبداری موجود در یک مدل زبان بزرگ خاص (LLM) را تشدید نمی‌کنند؟

مردم می‌خواهند از فرآیند تصمیم‌گیری یک عامل آگاه باشند. شرکت‌ها باید اطمینان حاصل کنند که تعاملات هوش مصنوعی شفاف هستند و به کاربران اجازه می‌دهند در صورت لزوم مداخله کنند یا از آنها انصراف دهند. در سیستم‌های عاملی و زنجیره اجرای وظایف، چگونه می‌توانیم مسئولیت‌پذیری را تعریف کنیم؟ آیا این مسئولیت یک عامل خاص است؟ یا سیستم عاملی؟ و اگر سیستم‌های عاملی با یکدیگر تعامل داشته باشند چه اتفاقی می‌افتد؟ چگونه می‌توانیم قابلیت ردیابی و محافظ‌های مناسب را ایجاد کنیم؟

ما هنوز نتوانسته‌ایم این مسائل را در مدل‌های زبان بزرگ و برنامه‌های هوش مصنوعی مولد حل کنیم. چگونه می‌توانیم اطمینان حاصل کنیم که می‌توانیم چیزی بسیار پیچیده‌تر را ایمن کنیم؟

فراتر از این خطرات، می‌تواند انواع آسیب‌های اجتماعی در مقیاس جهانی وجود داشته باشد. قانون‌گذاران هنوز سیستم‌های هوش مصنوعی عاملی را در نظر نگرفته‌اند. آنها هنوز در تلاش برای درک چگونگی محافظت از مدل‌های زبان بزرگ و برنامه‌های هوش مصنوعی مولد هستند. در عصر اقتصاد عاملی، توسعه‌دهندگان، شرکت‌های فناوری، سازمان‌ها و قانون‌گذاران باید مفهوم «هوش مصنوعی مسئولانه» را بازنگری کنند. اجرای حاکمیت هوش مصنوعی و اقدامات مناسب هوش مصنوعی مسئولانه برای هر سازمان یا برنامه کافی نیست. این رویکرد باید جامع‌تر و فراگیرتر باشد و همکاری بین‌المللی در زمینه هوش مصنوعی عاملی ایمن و مطمئن ممکن است نه یک انتخاب بلکه یک ضرورت باشد.

دکتر مراو اوزر به سازمان‌ها کمک می‌کند تا سیستم‌های هوش مصنوعی مسئولانه را پیاده‌سازی کنند و خطرات مرتبط با هوش مصنوعی را کاهش دهند. او در حال توسعه و تدریس دوره‌های فناوری‌های نوظهور در دانشگاه ویک فارست و دانشگاه کرنل است و قبلاً استاد فین‌تک در مدرسه بازرگانی راتگرز بوده است. او همچنین بنیان‌گذار Emerging Technologies Mastery، یک شرکت مشاوره وب ۳ و هوش مصنوعی (و نوآوری مسئولانه) است و دارای دکترای از مدرسه بازرگانی استرن دانشگاه نیویورک است. این مقاله برای اهداف اطلاعاتی عمومی است و نباید به عنوان مشاوره قانونی یا سرمایه‌گذاری تلقی شود. دیدگاه‌ها، افکار و نظرات بیان شده در اینجا صرفاً متعلق به نویسنده است و لزوماً منعکس‌کننده دیدگاه‌ها و نظرات کوین تلگراف نیست.

لینک خبرVector.svg
ترجمه شده توسط تیم فیدبین