
هوش مصنوعی با دقت ۹۷٪ حملات سمریزی آدرس کیف پول را شناسایی میکند
- ابزار AI جدید با دقت ۹۷٪ حملات سمریزی آدرس کیف پول را شناسایی میکند.
- بیش از ۲۷۰ میلیون تلاش سمریزی در BNB Chain و اتریوم بین ژوئیه ۲۰۲۲ تا ژوئن ۲۰۲۴ ثبت شده است.
- سیستم مبتنی بر یادگیری ماشینی و دادههای مصنوعی، خود را با تاکتیکهای جدید مهاجمان بهروزرسانی میکند.

ابزار AI با دقت ۹۷٪ در جلوگیری از حملات سمریزی آدرس
شرکت امنیت سایبری کریپتو Trugard و پروتکل اعتماد آنچین Webacy یک سیستم مبتنی بر هوش مصنوعی برای تشخیص حملات سمریزی آدرس کیف پول کریپتو توسعه دادهاند. بر اساس اطلاعیه ۲۱ مه که با Cointelegraph به اشتراک گذاشته شد، این ابزار بخشی از مجموعه ابزارهای تصمیمگیری کریپتو Webacy است و «از یک مدل یادگیری ماشینی نظارتشده که بر روی دادههای تراکنش زنده آموزش دیده است، همراه با تحلیلهای آنچین، مهندسی ویژگی و زمینه رفتاری بهره میبرد.»
ابزار جدید ادعا میکند که در موارد حمله شناختهشده امتیاز موفقیت ۹۷٪ دارد.
«سمریزی آدرس یکی از کمگزارششدهترین اما پرهزینهترین کلاهبرداریها در کریپتو است و از سادهترین فرض سوءاستفاده میکند: آنچه میبینید همان چیزی است که به دست میآورید»، مایکا ایسوگاوا، همبنیانگذار Webacy، بیان کرد.

حمله سمریزی آدرس چیست؟
در این کلاهبرداری، مهاجمان مقادیر اندکی ارز دیجیتال را از یک آدرس کیف پول که شباهت زیادی به آدرس واقعی قربانی دارد (معمولاً با کاراکترهای ابتدای و انتهایی یکسان) ارسال میکنند. هدف این است که کاربر به اشتباه آدرس مهاجم را کپی کرده و در تراکنشهای بعدی استفاده کند و بدین ترتیب سرمایه خود را از دست بدهد. این روش از اعتماد کاربران به تطابق جزئی آدرس یا تاریخچه کلیپبورد سوءاستفاده میکند.
آمار حملات
مطالعهای در ژانویه ۲۰۲۵ نشان داد که بیش از ۲۷۰ میلیون تلاش سمریزی آدرس در BNB Chain و اتریوم بین ۱ ژوئیه ۲۰۲۲ تا ۳۰ ژوئن ۲۰۲۴ رخ داده است. از این میان حدود ۶۰۰۰ تلاش موفق بوده که منجر به خسارات بیش از ۸۳ میلیون دلار شده است.
نحوه عملکرد سیستم AI
جرمی اوکانر، مدیر ارشد فناوری Trugard، به Cointelegraph گفت تیم آنها تخصص عمیقی در امنیت سایبری دنیای Web2 دارد که از روزهای اولیه کریپتو به دادههای Web3 اعمال کردهاند. برخلاف سیستمهای موجود که بر قواعد ثابت یا فیلترینگ ساده تراکنشها متکیاند، این ابزار از یادگیری ماشینی برای تشخیص الگوها و زمینهها استفاده میکند.
اوکانر توضیح داد که دادههای آموزشی مصنوعی برای شبیهسازی سناریوهای حمله تولید شده و مدل با استفاده از یادگیری نظارتشده آموزش دیده است. سپس مدل با دادههای واقعی جدید بهروزرسانی میشود تا با تاکتیکهای نوظهور مهاجمان همگام بماند. او افزود: «ما یک لایه تولید داده مصنوعی ساختهایم که به مدل اجازه میدهد همواره در برابر سناریوهای سمریزی مختلف آزمایش و مقاوم باقی بماند.»
لینک خبر