Wp Header Logo 1055.png

شفقنا – پژوهش جدیدی از دانشگاه نیویورک نشان می‌دهد که مجرمان سایبری می‌توانند از مدل‌های هوش مصنوعی زبان بزرگ (LLM) برای اجرای خودکار حملات باج‌افزاری استفاده کنند.

به گزارش سرویس ترجمه شفقنا، این سیستم‌های هوش مصنوعی قادرند تمامی مراحل یک حمله را، از نفوذ به سیستم‌های کامپیوتری تا سرقت یا رمزگذاری فایل‌ها و نگارش پیام‌های تهدیدآمیز به قربانیان را به‌تنهایی انجام دهند. این مطالعه به عنوان یک هشدار اولیه برای کمک به متخصصان دفاع سایبری منتشر شده است.

پژوهشگران برای اثبات این مفهوم، یک نمونه اولیه بدافزار با نام «باج‌افزار ۳.۰» ساختند. این سیستم در فرآیند آزمایش، به اشتباه توسط شرکت امنیتی ESET به عنوان یک بدافزار واقعی کشف شد که نشان‌دهنده پیچیدگی و پنهان‌کاری بالای این ابزارهای هوش مصنوعی است.

این بدافزار از دستورالعمل‌های متنی برای برقراری ارتباط با مدل‌های هوش مصنوعی متن‌باز استفاده می‌کند که فاقد محدودیت‌های ایمنی مدل‌های تجاری هستند. در نتیجه، هوش مصنوعی اسکریپت‌های حمله اختصاصی و منحصر به فردی را برای هر سیستم قربانی تولید می‌کند.

چرا این تهدید جدید خطرناک است؟

• غیرقابل شناسایی بودن: از آنجایی که هر حمله، کدهای کاملاً جدید و متغیری تولید می‌کند، بدافزار قادر است از شناسایی توسط نرم‌افزارهای امنیتی سنتی که بر مبنای تشخیص امضاها کار می‌کنند، فرار کند.

• هزینه بسیار پایین: اجرای یک حمله کامل با استفاده از مدل‌های تجاری، تنها حدود ۰.۷۰ دلار هزینه دارد. این هزینه در صورت استفاده از مدل‌های متن‌باز به صفر می‌رسد که به مجرمان سایبری با مهارت کمتر اجازه می‌دهد تا حملات پیشرفته‌ای را اجرا کنند.

• پیام‌های باج‌خواهی شخصی‌سازی شده: این سیستم می‌تواند با اشاره به فایل‌های کشف‌شده در سیستم قربانی، پیام‌های باج‌خواهی شخصی‌سازی شده تولید کند که فشار روانی بر روی افراد را افزایش می‌دهد.

پژوهشگران با انجام این کار در محیط کنترل‌شده آزمایشگاهی، اطلاعات فنی حیاتی را در اختیار جامعه دفاع سایبری قرار داده‌اند تا برای توسعه راهکارهای شناسایی و مقابله با این تهدید نوظهور آماده شوند. توصیه‌های آن‌ها شامل نظارت بر دسترسی به فایل‌های حساس و توسعه قابلیت‌های تشخیص رفتارهای حملات تولید شده توسط هوش مصنوعی است.

این خبر را اینجا ببینید.

source

ecokhabari.com

توسط ecokhabari.com