نگاهی به ظرفیت‌های ChatGPT در تولید بدافزار: فرصتی برای سوءاستفاده یا پیشرفت؟

OpenAI با افزایش محبوبیت ChatGPT با چالش‌های بیشتری مواجه شده است، از جمله سوءاستفاده از این فناوری توسط مجرمان سایبری. به‌ویژه در زمینه تولید کد، این فناوری بسیار نویدبخش بوده است. در پاسخ به این چالش‌ها، فیلترهای امنیتی اعمال شده‌اند. اما این اقدامات حفاظتی چقدر کارآمد هستند و پتانسیل سوءاستفاده چقدر است؟

نظر مهمان از ورونیکا کیرزی، محقق تهدیدات در Trend Micro

مدل زبانی قدرتمند ChatGPT در حوزه برنامه‌نویسی کد بسیار نویدبخش بوده است، زیرا دقت بیشتری ارائه می‌دهد و از حجم کاری برنامه‌نویسان می‌کاهد. بنابراین، شرکت‌های فناوری به شدت به توسعه ابزارهای هوش مصنوعی مولد علاقه‌مند هستند. تنها در ماه آگوست، Meta با معرفی Code Llama یک مدل زبانی جدید را ارائه کرد که به‌طور ویژه بر تولید کد متمرکز است.

با این حال، با افزایش استفاده از ChatGPT و دیگر فناوری‌های هوش مصنوعی، مهم است که به خطرات احتمالی همراه با آن توجه شود. یکی از بزرگترین نگرانی‌ها، پتانسیل این فناوری برای استفاده مخرب، مانند توسعه بدافزار یا نرم‌افزارهای خطرناک دیگر است. OpenAI فیلترهای امنیتی را پیاده‌سازی کرده است که با پیشرفت فناوری، پیچیده‌تر شده‌اند و هدفشان شناسایی و جلوگیری از هرگونه تلاش برای استفاده مخرب از این ابزار هوش مصنوعی است. همچنین، توانایی‌های مدل‌های زبانی بزرگ در ایجاد کد به طور کلی محدود است.

ما در Trend Micro به بررسی اثرگذاری اقدامات امنیتی، پتانسیل سوءاستفاده از فناوری‌های هوش مصنوعی توسط عاملان جنایی و محدودیت‌های مدل‌های فعلی هوش مصنوعی پرداختیم.

بررسی پتانسیل ChatGPT در تولید بدافزار

ما توانایی‌های ChatGPT 3.5 را در تولید خودکار بدافزار بدون دخالت انسانی آزمایش کردیم. برای این منظور، مدل را به ایجاد مجموعه‌ای از قطعات کد هدایت کردیم که ChatGPT بعداً برای ایجاد بدافزار مورد نظر به کار می‌برد.

آزمایش‌های ما به نتایج جالبی منجر شد. اگرچه مدل می‌تواند با استفاده از درخواست‌های خاص کد مخرب تولید کند، اما همیشه برای دور زدن فیلترهای امنیتی به چندین راه‌حل جایگزین نیاز بود. ما توانایی مدل در ایجاد قطعات کد آماده و میزان موفقیت آن‌ها در دستیابی به نتایج مورد نظر را ارزیابی کردیم:

  • اصلاح کد: همه قطعات کد آزمایش‌شده نیاز به تغییر داشتند تا به درستی اجرا شوند. این تغییرات شامل تنظیمات جزئی مانند تغییر نام مسیرها، IPها و URLها تا تغییرات گسترده‌تر، از جمله اصلاح منطق کد یا رفع خطاها بود.
  • موفقیت در رسیدن به نتیجه مطلوب: حدود 48 درصد از قطعات کد آزمایش‌شده به نتیجه مطلوب نرسیدند (42 درصد کاملاً موفق بودند و 10 درصد به‌طور جزئی). این نشان‌دهنده محدودیت‌های فعلی مدل در تفسیر و اجرای دقیق نیازهای پیچیده برنامه‌نویسی است.
  • نرخ خطا: از میان کدهای آزمایش‌شده، 43 درصد خطا داشتند. برخی از این خطاها حتی در قطعات کدی که خروجی مورد نظر را به دست آوردند نیز مشاهده شد. این ممکن است به مشکلات احتمالی در مدیریت خطای مدل یا منطق تولید کد اشاره داشته باشد.
  • تقسیم‌بندی بر اساس تکنیک‌های MITRE: تکنیک‌های کشف MITRE با موفقیت بیشتری عمل کردند (با نرخ 77 درصد)، که ممکن است به دلیل پیچیدگی کمتر یا هماهنگی بهتر با داده‌های آموزشی مدل باشد. تکنیک‌های اجتناب از دفاع کمترین موفقیت را داشتند (با نرخ 20 درصد)، که ممکن است به دلیل پیچیدگی آنها یا نبود داده‌های آموزشی کافی در این زمینه‌ها باشد.

نتیجه‌گیری

اگرچه مدل در برخی زمینه‌ها نویدبخش است، مانند تکنیک‌های کشف، اما در وظایف پیچیده‌تر با چالش‌هایی روبروست. به نظر ما، هنوز امکان استفاده از مدل‌های زبانی بزرگ برای خودکارسازی کامل فرآیند تولید بدافزار بدون نیاز به تلاش قابل توجه برای مهندسی درخواست‌ها، مدیریت خطاها، تنظیم دقیق مدل و نظارت انسانی وجود ندارد. این امر علی‌رغم چندین گزارشی است که در طول سال جاری منتشر شدند و قصد داشتند ثابت کنند که ChatGPT برای تولید خودکار بدافزار قابل استفاده است.

با این حال، مهم است که ذکر شود که این مدل‌های زبانی می‌توانند اولین مراحل کدنویسی بدافزار را ساده‌تر کنند، به‌ویژه برای کسانی که با فرآیند کامل ایجاد بدافزار آشنا هستند. این قابلیت می‌تواند فرآیند را برای مخاطبان گسترده‌تری در دسترس‌تر کند و فرآیند را برای برنامه‌نویسان مجرب بدافزار سرعت بخشد.

توانایی مدل‌هایی مانند ChatGPT 3.5 در یادگیری از درخواست‌های قبلی و تطبیق با ترجیحات کاربر، توسعه‌ای امیدبخش است، زیرا می‌تواند کارایی و اثربخشی تولید کد را بهبود بخشد و این ابزارها را به دارایی‌های ارزشمند در بسیاری از زمینه‌های قانونی تبدیل کند. علاوه بر این، توانایی این مدل‌ها در ویرایش کد و تغییر امضای آن، ممکن است سیستم‌های تشخیص مبتنی بر هش را دور بزند، اگرچه سیستم‌های تشخیص مبتنی بر رفتار احتمالاً همچنان موفق خواهند بود.

امکان تولید سریع یک مجموعه بزرگ از کدها توسط هوش مصنوعی که می‌تواند برای ایجاد خانواده‌های مختلف بدافزار استفاده شود و احتمالاً قابلیت‌های بدافزار در دور زدن تشخیص را تقویت کند، نگران‌کننده است. با این حال، محدودیت‌های فعلی این مدل‌ها اطمینان می‌دهد که چنین سوءاستفاده‌ای هنوز به‌طور کامل امکان‌پذیر نیست.