نگاهی به ظرفیتهای ChatGPT در تولید بدافزار: فرصتی برای سوءاستفاده یا پیشرفت؟

OpenAI با افزایش محبوبیت ChatGPT با چالشهای بیشتری مواجه شده است، از جمله سوءاستفاده از این فناوری توسط مجرمان سایبری. بهویژه در زمینه تولید کد، این فناوری بسیار نویدبخش بوده است. در پاسخ به این چالشها، فیلترهای امنیتی اعمال شدهاند. اما این اقدامات حفاظتی چقدر کارآمد هستند و پتانسیل سوءاستفاده چقدر است؟
نظر مهمان از ورونیکا کیرزی، محقق تهدیدات در Trend Micro
مدل زبانی قدرتمند ChatGPT در حوزه برنامهنویسی کد بسیار نویدبخش بوده است، زیرا دقت بیشتری ارائه میدهد و از حجم کاری برنامهنویسان میکاهد. بنابراین، شرکتهای فناوری به شدت به توسعه ابزارهای هوش مصنوعی مولد علاقهمند هستند. تنها در ماه آگوست، Meta با معرفی Code Llama یک مدل زبانی جدید را ارائه کرد که بهطور ویژه بر تولید کد متمرکز است.
با این حال، با افزایش استفاده از ChatGPT و دیگر فناوریهای هوش مصنوعی، مهم است که به خطرات احتمالی همراه با آن توجه شود. یکی از بزرگترین نگرانیها، پتانسیل این فناوری برای استفاده مخرب، مانند توسعه بدافزار یا نرمافزارهای خطرناک دیگر است. OpenAI فیلترهای امنیتی را پیادهسازی کرده است که با پیشرفت فناوری، پیچیدهتر شدهاند و هدفشان شناسایی و جلوگیری از هرگونه تلاش برای استفاده مخرب از این ابزار هوش مصنوعی است. همچنین، تواناییهای مدلهای زبانی بزرگ در ایجاد کد به طور کلی محدود است.
ما در Trend Micro به بررسی اثرگذاری اقدامات امنیتی، پتانسیل سوءاستفاده از فناوریهای هوش مصنوعی توسط عاملان جنایی و محدودیتهای مدلهای فعلی هوش مصنوعی پرداختیم.
بررسی پتانسیل ChatGPT در تولید بدافزار
ما تواناییهای ChatGPT 3.5 را در تولید خودکار بدافزار بدون دخالت انسانی آزمایش کردیم. برای این منظور، مدل را به ایجاد مجموعهای از قطعات کد هدایت کردیم که ChatGPT بعداً برای ایجاد بدافزار مورد نظر به کار میبرد.
آزمایشهای ما به نتایج جالبی منجر شد. اگرچه مدل میتواند با استفاده از درخواستهای خاص کد مخرب تولید کند، اما همیشه برای دور زدن فیلترهای امنیتی به چندین راهحل جایگزین نیاز بود. ما توانایی مدل در ایجاد قطعات کد آماده و میزان موفقیت آنها در دستیابی به نتایج مورد نظر را ارزیابی کردیم:
- اصلاح کد: همه قطعات کد آزمایششده نیاز به تغییر داشتند تا به درستی اجرا شوند. این تغییرات شامل تنظیمات جزئی مانند تغییر نام مسیرها، IPها و URLها تا تغییرات گستردهتر، از جمله اصلاح منطق کد یا رفع خطاها بود.
- موفقیت در رسیدن به نتیجه مطلوب: حدود 48 درصد از قطعات کد آزمایششده به نتیجه مطلوب نرسیدند (42 درصد کاملاً موفق بودند و 10 درصد بهطور جزئی). این نشاندهنده محدودیتهای فعلی مدل در تفسیر و اجرای دقیق نیازهای پیچیده برنامهنویسی است.
- نرخ خطا: از میان کدهای آزمایششده، 43 درصد خطا داشتند. برخی از این خطاها حتی در قطعات کدی که خروجی مورد نظر را به دست آوردند نیز مشاهده شد. این ممکن است به مشکلات احتمالی در مدیریت خطای مدل یا منطق تولید کد اشاره داشته باشد.
- تقسیمبندی بر اساس تکنیکهای MITRE: تکنیکهای کشف MITRE با موفقیت بیشتری عمل کردند (با نرخ 77 درصد)، که ممکن است به دلیل پیچیدگی کمتر یا هماهنگی بهتر با دادههای آموزشی مدل باشد. تکنیکهای اجتناب از دفاع کمترین موفقیت را داشتند (با نرخ 20 درصد)، که ممکن است به دلیل پیچیدگی آنها یا نبود دادههای آموزشی کافی در این زمینهها باشد.
نتیجهگیری
اگرچه مدل در برخی زمینهها نویدبخش است، مانند تکنیکهای کشف، اما در وظایف پیچیدهتر با چالشهایی روبروست. به نظر ما، هنوز امکان استفاده از مدلهای زبانی بزرگ برای خودکارسازی کامل فرآیند تولید بدافزار بدون نیاز به تلاش قابل توجه برای مهندسی درخواستها، مدیریت خطاها، تنظیم دقیق مدل و نظارت انسانی وجود ندارد. این امر علیرغم چندین گزارشی است که در طول سال جاری منتشر شدند و قصد داشتند ثابت کنند که ChatGPT برای تولید خودکار بدافزار قابل استفاده است.
با این حال، مهم است که ذکر شود که این مدلهای زبانی میتوانند اولین مراحل کدنویسی بدافزار را سادهتر کنند، بهویژه برای کسانی که با فرآیند کامل ایجاد بدافزار آشنا هستند. این قابلیت میتواند فرآیند را برای مخاطبان گستردهتری در دسترستر کند و فرآیند را برای برنامهنویسان مجرب بدافزار سرعت بخشد.
توانایی مدلهایی مانند ChatGPT 3.5 در یادگیری از درخواستهای قبلی و تطبیق با ترجیحات کاربر، توسعهای امیدبخش است، زیرا میتواند کارایی و اثربخشی تولید کد را بهبود بخشد و این ابزارها را به داراییهای ارزشمند در بسیاری از زمینههای قانونی تبدیل کند. علاوه بر این، توانایی این مدلها در ویرایش کد و تغییر امضای آن، ممکن است سیستمهای تشخیص مبتنی بر هش را دور بزند، اگرچه سیستمهای تشخیص مبتنی بر رفتار احتمالاً همچنان موفق خواهند بود.
امکان تولید سریع یک مجموعه بزرگ از کدها توسط هوش مصنوعی که میتواند برای ایجاد خانوادههای مختلف بدافزار استفاده شود و احتمالاً قابلیتهای بدافزار در دور زدن تشخیص را تقویت کند، نگرانکننده است. با این حال، محدودیتهای فعلی این مدلها اطمینان میدهد که چنین سوءاستفادهای هنوز بهطور کامل امکانپذیر نیست.