نگرانی‌های امنیتی ابزارهای هوش مصنوعی: مطالعه‌ای از Zscaler

یک پژوهش جدید از متخصصان امنیت ابری Zscaler نشان می‌دهد که شرکت‌ها با وجود نگرانی‌های امنیتی قابل توجه، تحت فشار هستند تا ابزارهای هوش مصنوعی مولد (GenAI) را سریعاً به کار گیرند. بر اساس نظرسنجی "همه نگاه‌ها به امنیت GenAI" که از بیش از ۹۰۰ تصمیم‌گیرنده IT در سطح جهان انجام شده، ۸۹ درصد از شرکت‌ها ابزارهای هوش مصنوعی مولد مانند ChatGPT را به عنوان یک خطر امنیتی بالقوه می‌بینند (۹۹ درصد در آلمان)، اما ۹۵ درصد (۸۸ درصد در آلمان) از آن‌ها به نوعی برای شرکت خود استفاده می‌کنند.

نگران‌کننده‌تر این است که ۲۳ درصد (۲۵ درصد در آلمان) از تصمیم‌گیرندگان IT استفاده از این ابزارها را اصلاً نظارت نمی‌کنند و ۳۳ درصد (۴۰ درصد در آلمان) هنوز تدابیر امنیتی اضافی مرتبط با GenAI را پیاده‌سازی نکرده‌اند – هرچند بسیاری از آن‌ها این موضوع را در دستور کار دارند. وضعیت به‌ویژه در شرکت‌های کوچکتر (۵۰۰ تا ۹۹۹ کارمند) برجسته است، جایی که همان تعداد سازمان‌ها در سطح جهان از ابزارهای GenAI استفاده می‌کنند (۹۵ درصد)، اما حتی ۹۴ درصد خطرات مرتبط با آن را تشخیص می‌دهند.

پیشبرد استفاده از هوش مصنوعی توسط مسئولان IT

«ابزارهای GenAI، مانند ChatGPT و دیگر ابزارها، وعده مزایای عظیمی از لحاظ سرعت، نوآوری و کارایی برای شرکت‌ها دارند»، تاکید می‌کند Sanjay Kalra، معاون رئیس مدیریت محصول در Zscaler. «با توجه به عدم وضوح فعلی در مورد تدابیر امنیتی آن‌ها، تنها ۳۹ درصد از شرکت‌ها معرفی آن را به عنوان یک فرصت می‌بینند نه یک تهدید. این نه تنها یکپارچگی داده‌های کسب‌وکار و مشتریان آن‌ها را به خطر می‌اندازد، بلکه یک پتانسیل عظیم را نیز از دست می‌دهند.»

فشار برای به‌کارگیری سریع چنین ابزارهایی اما از بخش‌های فرضی در شرکت‌ها نمی‌آید. با وجود علاقه عمومی به این ابزارها، به نظر می‌رسد که نیروهای کارمند محرک اصلی پشت علاقه و استفاده فعلی نیستند – تنها پنج درصد از پاسخ‌دهندگان اعلام کردند که استفاده از این گروه کاربران ناشی می‌شود. در عوض، ۵۹ درصد (۶۰ درصد در آلمان) اعلام کردند که استفاده مستقیماً توسط تیم‌های IT پیش‌برده می‌شود. این نتیجه نشان می‌دهد که بخش IT می‌تواند کنترل بر استفاده ایمن از این ابزارها را بازپس گیرد.

معرفی با دقت ابزارهای هوش مصنوعی

«این واقعیت که تیم‌های IT فرمان را در دست دارند باید به مدیران حس خوبی بدهد»، Kalra توضیح می‌دهد. «این نشان می‌دهد که تیم IT می‌تواند سرعت معرفی GenAI را به‌طور استراتژیک کند کند و تدابیر امنیتی را مدیریت کند، قبل از اینکه استفاده در شرکت بیشتر گسترش یابد. اما مهم است که تشخیص دهیم که فرصت برای معرفی و مدیریت امن به سرعت کاهش می‌یابد.» با توجه به اینکه ۵۱ درصد (۴۰ درصد در آلمان) از پاسخ‌دهندگان تا پایان سال انتظار افزایش قابل توجهی در علاقه به ابزارهای GenAI دارند، شرکت‌ها باید سریع عمل کنند تا شکاف بین استفاده و امنیت را پر کنند.

Zscaler توصیه می‌کند که برای اطمینان از استفاده امن از GenAI در شرکت، مراحل زیر انجام شود:

  • پیاده‌سازی یک معماری Zero Trust جامع برای مجاز کردن فقط برنامه‌های هوش مصنوعی و کاربران تأیید شده برای دسترسی به آن‌ها.
  • انجام ارزیابی‌های جامع ریسک امنیتی برای برنامه‌های هوش مصنوعی جدید، برای شناسایی و پاسخ به نقاط ضعف.
  • ایجاد یک سیستم جامع ثبت‌وقایع برای پیگیری تمام درخواست‌ها و پاسخ‌های هوش مصنوعی.
  • فعال‌سازی اقدامات پیش‌گیری از دست‌دادن داده‌ها مبتنی بر Zero Trust برای محافظت از خروج اطلاعات در همه فعالیت‌های هوش مصنوعی.

روش‌شناسی

در اکتبر ۲۰۲۳، Zscaler از Sapio Research برای انجام یک نظرسنجی از ۹۰۱ تصمیم‌گیرنده IT (ITDMs) در ده بازار (استرالیا و نیوزیلند، فرانسه، آلمان، هند، ایتالیا، هلند، سنگاپور، اسپانیا، بریتانیا و ایرلند، آمریکا) سفارش داد. این تصمیم‌گیرندگان IT در شرکت‌هایی با بیش از ۵۰۰ کارمند و در صنایع مختلف کار می‌کنند. ()