مقدمه
هوش مصنوعی (AI) در سالهای اخیر از یک فناوری نوظهور به یک نیروی تحولآفرین در بسیاری از حوزهها تبدیل شده است؛ از سلامت و آموزش گرفته تا اقتصاد دیجیتال و امنیت اطلاعات. با این حال، همانقدر که AI توانمندساز کسبوکارها و دولتهاست، میتواند در دستان مهاجمان سایبری به سلاحی بسیار قدرتمند تبدیل شود.
از نگاه استاندارد ISO/IEC 27001:2022، این فناوری یک «تهدید نوین» در لایههای مرتبط با تهدیدات انسانی، تکنولوژیک و کنترلهای فنی محسوب میشود.
در این مقاله به مهمترین خطرات AI، سناریوهای واقعی حمله و اقدامات پیشنهادی برای کاهش ریسک میپردازیم.
1. خودکارسازی و تسریع فرایند حملات سایبری
پیشتر مهاجمان برای طراحی بدافزار، اسکن آسیبپذیریها یا اجرای حملات فیشینگ، نیازمند دانش فنی و زمان زیاد بودند. اما امروز مدلهای زبانی و ابزارهای هوشمند میتوانند:
- ایمیلهای فیشینگ را کاملاً طبیعی و شخصیسازی شده بنویسند.
- آسیبپذیریها را بهسرعت شناسایی و دستهبندی کنند.
- کد مخرب را بدون اشتباه و با قابلیت تغییر سریع تولید کنند.
- حملات تکرارشونده (Bruteforce، Credential Stuffing، Reconnaissance) را بهصورت 24/7 و خودکار انجام دهند.
نتیجه:
مهاجمان کمتجربه نیز میتوانند حملات پیچیده انجام دهند و حجم حملات با شدت بالا افزایش یابد.
2. حملات فیشینگ مبتنی بر AI — تهدیدی فراتر از انسان
AI قادر است:
- لحن نوشتاری افراد را تقلید کند
- پیامهای HR، بانکی یا اداری را بازسازی کند
- صدای افراد را جعل کند (Voice Cloning)
- حتی در تماس تلفنی، پاسخهای لحظهای تولید کند
این موضوع باعث افزایش حملات Business Email Compromise (BEC) و Social Engineering شده است.
با AI، سرعت و موفقیت حملات مهندسی اجتماعی تا چند برابر افزایش مییابد.
3. بدافزارهای تولیدشده توسط AI
یکی از تهدیدات نگرانکننده، ظهور بدافزارهایی است که:
- ساخت و بهروزرسانی آنها خودکار است
- در لحظه کد خود را برای عبور از آنتیویروس تغییر میدهند
- با رفتار شبکه سازگار میشوند (Adaptive Malware)
- قابلیت تصمیمگیری در زمان اجرا دارند
این نسل جدید بدافزارها با مفهوم «Malware-as-a-Service + AI» میتوانند سازمانها را با تهدیدهای ناشناخته (Zero-day-like behavior) مواجه کنند.
4. Deepfake و جعل هویت دیجیتال
یکی از خطرات جدی، استفاده از AI برای تولید:
- تصاویر جعلی
- ویدئوهای جعلشده
- بازتولید صوت
- هویت دیجیتال کامل
در حملات سایبری، Deepfake میتواند باعث:
- دسترسی غیرمجاز به سیستمهای احرازهویت چهره/صدا
- فریب کارکنان برای انتقال مالی
- انتشار اخبار جعلی برای ایجاد بیاعتمادی
شود.
در سطح ملی نیز Deepfake یک ابزار عملیات روانی محسوب میشود.
5. حملات AI روی زنجیره تأمین و زیرساختهای حیاتی
AI میتواند به مهاجم کمک کند در شبکههای صنعتی (ICS/SCADA) رفتار عادی را تقلید کند و باعث:
- تشخیص دشوار نفوذ
- اختلال تدریجی در سیستم کنترل صنعتی
- دستکاری دادههای حسگرها
- عملیات مخفیانه بلندمدت
شود.
حملات «بینقص و نامرئی» در صنایع، بخش انرژی و زیرساختهای ملی از نگرانیهای اصلی نهادهای امنیتی بینالمللی است.
6. خطر سوءاستفاده از مدلهای هوش مصنوعی طرف ثالث (Third-party AI Models)
در صورتی که سازمانها از مدلهای بیرونی استفاده کنند، ریسکهای زیر مطرح است:
- نشت دادههای حساس هنگام ارسال به سرویس AI
- مسمومسازی مدل (Model Poisoning)
- حملات نابودی یکپارچگی مدل (Model Corruption)
- استفاده دوباره از اطلاعات کاربران برای آموزش مدل
- نقض الزامات قانونی و استانداردهای امنیت اطلاعات
از نگاه ISO 27001، این بخش زیر کنترلهای A.5.23 – کنترلهای مربوط به تأمینکنندگان و Third-party services قرار میگیرد.
7. افزایش حملات Zero-day با کمک AI
AI میتواند در تحلیل کد و تست نفوذ:
- الگوهای آسیبپذیری را سریعتر شناسایی کند
- الگوهای رفتاری جدید بسازد
- نسخههای مختلف exploit را در چند ثانیه تولید کند
این روند احتمال کشف و سوءاستفاده گسترده از آسیبپذیریهای Zero-day را افزایش میدهد.
چگونه میتوان در برابر تهدیدات AI دفاع کرد؟
براساس اصول ISO/IEC 27001:2022، سازمانها باید کنترلهای زیر را اجرا کنند:
✔ ۱. سیاست امنیتی اختصاصی برای AI
به عنوان بخشی از A.5.1 – سیاستهای امنیت اطلاعات، لازم است:
- سیاست استفاده از AI
- مدیریت ریسک مدلها
- نحوه ارسال دادهها به سرویسهای هوش مصنوعی
تدوین و اعمال شود.
✔ ۲. آموزش کارکنان (A.6.3)
مهندسی اجتماعی و فیشینگ مبتنی بر AI فقط با ابزار قابل کنترل نیست —
آموزش مستمر ضروری است.
✔ ۳. محافظت در برابر بدافزارهای نسل جدید (A.8.7)
استفاده از:
- EDR/XDR
- تحلیل رفتاری (Behavior Analytics)
- Zero Trust Architecture
راهکارهای ضروری دفاعی است.
✔ ۴. بررسی امنیت تأمینکنندگان AI (A.5.19 و A.5.23)
هر سرویس ابری / مدل هوش مصنوعی باید از نظر:
- محل پردازش داده
- سیاست حفظ حریم خصوصی
- رعایت استانداردها
- نحوه ذخیرهسازی داده
ارزیابی شود.
✔ ۵. تقویت احراز هویت و جلوگیری از جعل هویت
- MFA
- احراز هویت بیومتریک چندمرحلهای
- تحلیل ریسک تراکنش
برای مقابله با Deepfake ضروری هستند.
✔ ۶. مانیتورینگ و تحلیل رفتار شبکه
AI بد را باید با AI خوب مقابله کرد:
سامانههای UEBA، SIEM، NDR مبتنی بر هوش مصنوعی برای کشف ناهنجاری ضروریاند.
جمعبندی
هوش مصنوعی فرصتهای فراوانی برای بهبود امنیت، بهرهوری و کارایی سازمانها فراهم میکند.
اما در عین حال، تهدیدات ناشی از آن — از فیشینگ هوشمند گرفته تا بدافزارهای خودتکاملیاب و Deepfake — به سرعت در حال رشد هستند.
راهکار مقابله:
تفکر امنیتی جدید + کنترلهای استاندارد ISO 27001 + هوش مصنوعی دفاعی.







افزودن نظر