چالشهای امنیتی و حقوقی ظهور "کارمندان دیجیتال" در اقتصاد جهانی
- سال ۲۰۲۵ به عنوان سال ظهور "اقتصاد عاملی" با محوریت عوامل هوش مصنوعی پیشبینی میشود.
- عوامل هوش مصنوعی به عنوان کارمندان دیجیتال مستقل عمل میکنند و میتوانند وظایف پیچیده را انجام دهند.
- استفاده از این عوامل میتواند چالشهای امنیتی و حریم خصوصی جدیدی ایجاد کند و نیاز به قوانین بهروز را افزایش دهد.
باید قبل از خودکار شدن Copilot، هوش مصنوعی مسئولانه را تقویت کنیم
جنسن هوانگ، مدیرعامل انویدیا، در نوامبر ۲۰۲۴ پیشبینی کرد که سال ۲۰۲۵ «سال عوامل هوش مصنوعی» خواهد بود. این موضوع راه را برای عصر جدیدی به نام اقتصاد عاملی هموار میکند. هوانگ عوامل هوش مصنوعی را به عنوان «کارمندان دیجیتال» توصیف کرد و پیشبینی کرد که روزی انویدیا ۵۰ هزار کارمند انسانی و بیش از ۱۰۰ میلیون عامل هوش مصنوعی خواهد داشت و هر سازمانی احتمالاً شاهد رشد مشابهی در کارگران هوش مصنوعی خواهد بود.
با این حال، توصیف عوامل هوش مصنوعی به عنوان «کارگران دیجیتال» بسیار سادهانگارانه است و پیامدهای این فناوری را نادیده میگیرد. ما همواره به فناوری به عنوان یک ابزار نگاه کردهایم، اما هوش مصنوعی عاملی بیش از یک ابزار است. هوش مصنوعی عاملی فراتر از انجام یک وظیفه ساده عمل میکند و یک تغییر اساسی در نحوه تعامل ما با فناوری ایجاد میکند.
برخلاف هوش مصنوعی مولد (GenAI) که به دستورالعملهای انسانی وابسته است و نمیتواند به طور مستقل وظایف پیچیده چندمرحلهای را انجام دهد، هوش مصنوعی عاملی از شبکههایی از عوامل استفاده میکند که یاد میگیرند، سازگار میشوند و با هم کار میکنند. عوامل هوش مصنوعی میتوانند با یکدیگر تعامل داشته باشند و از یکدیگر یاد بگیرند و توانایی تصمیمگیری مستقل، یادگیری از تجربه، سازگاری با شرایط متغیر و برنامهریزی اقدامات پیچیده چندمرحلهای را دارند و به طور مؤثر به عنوان یک شریک فعال عمل میکنند نه فقط یک ابزار واکنشی برای اجرای دستورات از پیش تعیین شده.
هر فرد و هر چیزی میتواند یک عامل هوش مصنوعی داشته باشد که به طور مستقل به نمایندگی از آنها کار کند. افراد میتوانند از آنها برای کمک در زندگی روزمره یا حرفهای خود استفاده کنند، در حالی که سازمانها میتوانند از آنها به عنوان دستیار یا کارگر یا یک شبکه از کارگران استفاده کنند. شما حتی میتوانید یک عامل هوش مصنوعی برای یک عامل هوش مصنوعی دیگر تصور کنید. کاربردهای هوش مصنوعی عاملی بیپایان و تنها محدود به تخیل ما هستند.
این موضوع بسیار هیجانانگیز است و مزایای زیادی میتواند داشته باشد، اما خطرات آن نیز بسیار زیاد است. عوامل هوش مصنوعی، به ویژه سیستمهای چندعاملی، نه تنها بسیاری از آسیبپذیریهای اخلاقی، قانونی، امنیتی و سایر مشکلات موجود در هوش مصنوعی مولد را به طور تصاعدی تشدید میکنند، بلکه مشکلات جدیدی نیز ایجاد میکنند.
مدلهای هوش مصنوعی مبتنی بر داده هستند. با هوش مصنوعی عاملی، نیاز به دادههای شخصی و اختصاصی و وابستگی به آنها به طور تصاعدی افزایش مییابد و همچنین آسیبپذیریها و خطرات نیز افزایش مییابد. پیچیدگی این سیستمها انواع مختلفی از سوالات حریم خصوصی را مطرح میکند. چگونه میتوانیم اطمینان حاصل کنیم که اصول حفاظت از دادهها مانند به حداقل رساندن دادهها و محدودیت هدف رعایت میشوند؟ چگونه میتوانیم از نشت دادههای شخصی در یک سیستم هوش مصنوعی عاملی جلوگیری کنیم؟ آیا کاربران عوامل هوش مصنوعی میتوانند از حقوق موضوعات داده، مانند حق فراموش شدن، استفاده کنند اگر تصمیم بگیرند استفاده از عامل هوش مصنوعی را متوقف کنند؟ آیا کافی است فقط به «یک» عامل اطلاع دهیم و انتظار داشته باشیم که آن را به کل شبکه عوامل «پخش» کند؟
عوامل هوش مصنوعی میتوانند دستگاههای ما را کنترل کنند و ما باید آسیبپذیریهای احتمالی چنین عواملی را در صورتی که روی رایانه، تلفن هوشمند یا هر دستگاه اینترنت اشیا ما اجرا شوند، بررسی کنیم. اگر هرگونه آسیبپذیری امنیتی وجود داشته باشد، این موضوع به یک برنامه کاربردی که به خطر افتاده محدود نمیشود. «تمام زندگی شما» - یعنی تمام اطلاعات شما در تمام دستگاههای شما و بیشتر - به خطر میافتد. این موضوع برای افراد و سازمانها صادق است. علاوه بر این، این آسیبپذیریهای امنیتی میتوانند به سایر سیستمهای هوش مصنوعی عاملی که عامل «به خطر افتاده» شما با آنها تعامل داشته است، «نشت» کنند.
فرض کنید یک عامل (یا مجموعهای از عوامل) از دستورالعملهای امنیتی سختگیرانه پیروی میکند. فرض کنید آنها با دیگران (یا مجموعهای از عوامل) که به دلیل عدم وجود اقدامات امنیت سایبری مناسب به خطر افتادهاند، تعامل دارند. چگونه میتوانیم اطمینان حاصل کنیم که عوامل به خطر افتاده به عنوان یک «ویروس» عمل نمیکنند تا تمام عواملی که با آنها تعامل دارند را آلوده کنند؟ پیامدهای چنین سناریویی میتواند ویرانگر باشد. این «ویروس» میتواند در عرض چند میلیثانیه منتشر شود و به طور بالقوه کل سیستمها در سراسر کشورها فروپاشند. هرچه اتصالات/تعاملات پیچیدهتر و درهمتنیدهتر باشند، خطر فروپاشی بیشتر است.
ما قبلاً نمونههایی از سیستمهای هوش مصنوعی مولد جانبدارانه را دیدهایم. در زمینه عوامل هوش مصنوعی، هرگونه جانبداری موجود از طریق زنجیره اجرای وظایف منتقل میشود و تأثیر آن را تشدید میکند. چگونه میتوانیم از تبعیض جلوگیری کنیم یا مقررات قانونی را که انصاف را تضمین میکنند، اجرا کنیم وقتی که جانبداری در عامل هوش مصنوعی «جاسازی» شده است؟ چگونه میتوانیم اطمینان حاصل کنیم که عوامل هوش مصنوعی جانبداری موجود در یک مدل زبان بزرگ خاص (LLM) را تشدید نمیکنند؟
مردم میخواهند از فرآیند تصمیمگیری یک عامل آگاه باشند. شرکتها باید اطمینان حاصل کنند که تعاملات هوش مصنوعی شفاف هستند و به کاربران اجازه میدهند در صورت لزوم مداخله کنند یا از آنها انصراف دهند. در سیستمهای عاملی و زنجیره اجرای وظایف، چگونه میتوانیم مسئولیتپذیری را تعریف کنیم؟ آیا این مسئولیت یک عامل خاص است؟ یا سیستم عاملی؟ و اگر سیستمهای عاملی با یکدیگر تعامل داشته باشند چه اتفاقی میافتد؟ چگونه میتوانیم قابلیت ردیابی و محافظهای مناسب را ایجاد کنیم؟
ما هنوز نتوانستهایم این مسائل را در مدلهای زبان بزرگ و برنامههای هوش مصنوعی مولد حل کنیم. چگونه میتوانیم اطمینان حاصل کنیم که میتوانیم چیزی بسیار پیچیدهتر را ایمن کنیم؟
فراتر از این خطرات، میتواند انواع آسیبهای اجتماعی در مقیاس جهانی وجود داشته باشد. قانونگذاران هنوز سیستمهای هوش مصنوعی عاملی را در نظر نگرفتهاند. آنها هنوز در تلاش برای درک چگونگی محافظت از مدلهای زبان بزرگ و برنامههای هوش مصنوعی مولد هستند. در عصر اقتصاد عاملی، توسعهدهندگان، شرکتهای فناوری، سازمانها و قانونگذاران باید مفهوم «هوش مصنوعی مسئولانه» را بازنگری کنند. اجرای حاکمیت هوش مصنوعی و اقدامات مناسب هوش مصنوعی مسئولانه برای هر سازمان یا برنامه کافی نیست. این رویکرد باید جامعتر و فراگیرتر باشد و همکاری بینالمللی در زمینه هوش مصنوعی عاملی ایمن و مطمئن ممکن است نه یک انتخاب بلکه یک ضرورت باشد.
دکتر مراو اوزر به سازمانها کمک میکند تا سیستمهای هوش مصنوعی مسئولانه را پیادهسازی کنند و خطرات مرتبط با هوش مصنوعی را کاهش دهند. او در حال توسعه و تدریس دورههای فناوریهای نوظهور در دانشگاه ویک فارست و دانشگاه کرنل است و قبلاً استاد فینتک در مدرسه بازرگانی راتگرز بوده است. او همچنین بنیانگذار Emerging Technologies Mastery، یک شرکت مشاوره وب ۳ و هوش مصنوعی (و نوآوری مسئولانه) است و دارای دکترای از مدرسه بازرگانی استرن دانشگاه نیویورک است. این مقاله برای اهداف اطلاعاتی عمومی است و نباید به عنوان مشاوره قانونی یا سرمایهگذاری تلقی شود. دیدگاهها، افکار و نظرات بیان شده در اینجا صرفاً متعلق به نویسنده است و لزوماً منعکسکننده دیدگاهها و نظرات کوین تلگراف نیست.
لیست 10 صرافی معتبر ارز دیجیتال برای کاربران ایرانی 🇮🇷
بهترین صرافیهای ارز دیجیتال ایرانی و خارجی را بشناسید!
در این مقاله، 10 صرافی برتر با امکاناتی مانند امنیت بالا، کارمزد کم، پشتیبانی 24 ساعته و تنوع رمزارزها بررسی شدهاند.
👈 اگر به دنبال انتخاب امنترین و مناسبترین صرافی هستید، همین حالا کلیک کنید!