شفقنا – پژوهش جدیدی از دانشگاه نیویورک نشان میدهد که مجرمان سایبری میتوانند از مدلهای هوش مصنوعی زبان بزرگ (LLM) برای اجرای خودکار حملات باجافزاری استفاده کنند.
به گزارش سرویس ترجمه شفقنا، این سیستمهای هوش مصنوعی قادرند تمامی مراحل یک حمله را، از نفوذ به سیستمهای کامپیوتری تا سرقت یا رمزگذاری فایلها و نگارش پیامهای تهدیدآمیز به قربانیان را بهتنهایی انجام دهند. این مطالعه به عنوان یک هشدار اولیه برای کمک به متخصصان دفاع سایبری منتشر شده است.
پژوهشگران برای اثبات این مفهوم، یک نمونه اولیه بدافزار با نام «باجافزار ۳.۰» ساختند. این سیستم در فرآیند آزمایش، به اشتباه توسط شرکت امنیتی ESET به عنوان یک بدافزار واقعی کشف شد که نشاندهنده پیچیدگی و پنهانکاری بالای این ابزارهای هوش مصنوعی است.
این بدافزار از دستورالعملهای متنی برای برقراری ارتباط با مدلهای هوش مصنوعی متنباز استفاده میکند که فاقد محدودیتهای ایمنی مدلهای تجاری هستند. در نتیجه، هوش مصنوعی اسکریپتهای حمله اختصاصی و منحصر به فردی را برای هر سیستم قربانی تولید میکند.
چرا این تهدید جدید خطرناک است؟
• غیرقابل شناسایی بودن: از آنجایی که هر حمله، کدهای کاملاً جدید و متغیری تولید میکند، بدافزار قادر است از شناسایی توسط نرمافزارهای امنیتی سنتی که بر مبنای تشخیص امضاها کار میکنند، فرار کند.
• هزینه بسیار پایین: اجرای یک حمله کامل با استفاده از مدلهای تجاری، تنها حدود ۰.۷۰ دلار هزینه دارد. این هزینه در صورت استفاده از مدلهای متنباز به صفر میرسد که به مجرمان سایبری با مهارت کمتر اجازه میدهد تا حملات پیشرفتهای را اجرا کنند.
• پیامهای باجخواهی شخصیسازی شده: این سیستم میتواند با اشاره به فایلهای کشفشده در سیستم قربانی، پیامهای باجخواهی شخصیسازی شده تولید کند که فشار روانی بر روی افراد را افزایش میدهد.
پژوهشگران با انجام این کار در محیط کنترلشده آزمایشگاهی، اطلاعات فنی حیاتی را در اختیار جامعه دفاع سایبری قرار دادهاند تا برای توسعه راهکارهای شناسایی و مقابله با این تهدید نوظهور آماده شوند. توصیههای آنها شامل نظارت بر دسترسی به فایلهای حساس و توسعه قابلیتهای تشخیص رفتارهای حملات تولید شده توسط هوش مصنوعی است.
این خبر را اینجا ببینید.
source