نگرانیهای امنیتی ابزارهای هوش مصنوعی: مطالعهای از Zscaler

یک پژوهش جدید از متخصصان امنیت ابری Zscaler نشان میدهد که شرکتها با وجود نگرانیهای امنیتی قابل توجه، تحت فشار هستند تا ابزارهای هوش مصنوعی مولد (GenAI) را سریعاً به کار گیرند. بر اساس نظرسنجی "همه نگاهها به امنیت GenAI" که از بیش از ۹۰۰ تصمیمگیرنده IT در سطح جهان انجام شده، ۸۹ درصد از شرکتها ابزارهای هوش مصنوعی مولد مانند ChatGPT را به عنوان یک خطر امنیتی بالقوه میبینند (۹۹ درصد در آلمان)، اما ۹۵ درصد (۸۸ درصد در آلمان) از آنها به نوعی برای شرکت خود استفاده میکنند.
نگرانکنندهتر این است که ۲۳ درصد (۲۵ درصد در آلمان) از تصمیمگیرندگان IT استفاده از این ابزارها را اصلاً نظارت نمیکنند و ۳۳ درصد (۴۰ درصد در آلمان) هنوز تدابیر امنیتی اضافی مرتبط با GenAI را پیادهسازی نکردهاند – هرچند بسیاری از آنها این موضوع را در دستور کار دارند. وضعیت بهویژه در شرکتهای کوچکتر (۵۰۰ تا ۹۹۹ کارمند) برجسته است، جایی که همان تعداد سازمانها در سطح جهان از ابزارهای GenAI استفاده میکنند (۹۵ درصد)، اما حتی ۹۴ درصد خطرات مرتبط با آن را تشخیص میدهند.
پیشبرد استفاده از هوش مصنوعی توسط مسئولان IT
«ابزارهای GenAI، مانند ChatGPT و دیگر ابزارها، وعده مزایای عظیمی از لحاظ سرعت، نوآوری و کارایی برای شرکتها دارند»، تاکید میکند Sanjay Kalra، معاون رئیس مدیریت محصول در Zscaler. «با توجه به عدم وضوح فعلی در مورد تدابیر امنیتی آنها، تنها ۳۹ درصد از شرکتها معرفی آن را به عنوان یک فرصت میبینند نه یک تهدید. این نه تنها یکپارچگی دادههای کسبوکار و مشتریان آنها را به خطر میاندازد، بلکه یک پتانسیل عظیم را نیز از دست میدهند.»
فشار برای بهکارگیری سریع چنین ابزارهایی اما از بخشهای فرضی در شرکتها نمیآید. با وجود علاقه عمومی به این ابزارها، به نظر میرسد که نیروهای کارمند محرک اصلی پشت علاقه و استفاده فعلی نیستند – تنها پنج درصد از پاسخدهندگان اعلام کردند که استفاده از این گروه کاربران ناشی میشود. در عوض، ۵۹ درصد (۶۰ درصد در آلمان) اعلام کردند که استفاده مستقیماً توسط تیمهای IT پیشبرده میشود. این نتیجه نشان میدهد که بخش IT میتواند کنترل بر استفاده ایمن از این ابزارها را بازپس گیرد.
معرفی با دقت ابزارهای هوش مصنوعی
«این واقعیت که تیمهای IT فرمان را در دست دارند باید به مدیران حس خوبی بدهد»، Kalra توضیح میدهد. «این نشان میدهد که تیم IT میتواند سرعت معرفی GenAI را بهطور استراتژیک کند کند و تدابیر امنیتی را مدیریت کند، قبل از اینکه استفاده در شرکت بیشتر گسترش یابد. اما مهم است که تشخیص دهیم که فرصت برای معرفی و مدیریت امن به سرعت کاهش مییابد.» با توجه به اینکه ۵۱ درصد (۴۰ درصد در آلمان) از پاسخدهندگان تا پایان سال انتظار افزایش قابل توجهی در علاقه به ابزارهای GenAI دارند، شرکتها باید سریع عمل کنند تا شکاف بین استفاده و امنیت را پر کنند.
Zscaler توصیه میکند که برای اطمینان از استفاده امن از GenAI در شرکت، مراحل زیر انجام شود:
- پیادهسازی یک معماری Zero Trust جامع برای مجاز کردن فقط برنامههای هوش مصنوعی و کاربران تأیید شده برای دسترسی به آنها.
- انجام ارزیابیهای جامع ریسک امنیتی برای برنامههای هوش مصنوعی جدید، برای شناسایی و پاسخ به نقاط ضعف.
- ایجاد یک سیستم جامع ثبتوقایع برای پیگیری تمام درخواستها و پاسخهای هوش مصنوعی.
- فعالسازی اقدامات پیشگیری از دستدادن دادهها مبتنی بر Zero Trust برای محافظت از خروج اطلاعات در همه فعالیتهای هوش مصنوعی.
روششناسی
در اکتبر ۲۰۲۳، Zscaler از Sapio Research برای انجام یک نظرسنجی از ۹۰۱ تصمیمگیرنده IT (ITDMs) در ده بازار (استرالیا و نیوزیلند، فرانسه، آلمان، هند، ایتالیا، هلند، سنگاپور، اسپانیا، بریتانیا و ایرلند، آمریکا) سفارش داد. این تصمیمگیرندگان IT در شرکتهایی با بیش از ۵۰۰ کارمند و در صنایع مختلف کار میکنند. ()