خانه » چگونه AI چهره تهدیدات سایبری را دگرگون کرده است؟
مقالات ویژه‌ها

چگونه AI چهره تهدیدات سایبری را دگرگون کرده است؟

هوش مصنوعی در سال‌های اخیر به یکی از عوامل تحول‌ساز در امنیت سایبری تبدیل شده است؛ اما این فناوری علاوه بر مزایا، تهدیدات جدی نیز ایجاد می‌کند. مهاجمان اکنون می‌توانند با استفاده از AI فرایندهای حمله را خودکار کنند، ایمیل‌های فیشینگ بسیار طبیعی بسازند، بدافزارهای خودتکامل‌یاب تولید کنند و از تکنیک‌های Deepfake برای جعل هویت بهره ببرند. همچنین AI در کشف آسیب‌پذیری‌ها، ایجاد حملات Zero-day و نفوذ به زیرساخت‌های حیاتی نقش پررنگی دارد. استفاده از مدل‌های هوش مصنوعی طرف ثالث نیز منجر به ریسک‌های جدیدی مثل نشت داده یا مسموم‌سازی مدل می‌شود. برای مقابله با این تهدیدات، سازمان‌ها باید سیاست امنیتی اختصاصی برای AI تدوین کنند، آموزش کارکنان را تقویت کنند، از ابزارهای دفاعی نوین مانند EDR/XDR و Zero Trust بهره بگیرند و امنیت تأمین‌کنندگان مدل‌های هوش مصنوعی را بر اساس توصیه‌های استاندارد ISO/IEC 27001:2022 ارزیابی نمایند.

مقدمه

هوش مصنوعی (AI) در سال‌های اخیر از یک فناوری نوظهور به یک نیروی تحول‌آفرین در بسیاری از حوزه‌ها تبدیل شده است؛ از سلامت و آموزش گرفته تا اقتصاد دیجیتال و امنیت اطلاعات. با این حال، همان‌قدر که AI توانمندساز کسب‌وکارها و دولت‌هاست، می‌تواند در دستان مهاجمان سایبری به سلاحی بسیار قدرتمند تبدیل شود.
از نگاه استاندارد ISO/IEC 27001:2022، این فناوری یک «تهدید نوین» در لایه‌های مرتبط با تهدیدات انسانی، تکنولوژیک و کنترل‌های فنی محسوب می‌شود.

در این مقاله به مهم‌ترین خطرات AI، سناریوهای واقعی حمله و اقدامات پیشنهادی برای کاهش ریسک می‌پردازیم.

1. خودکارسازی و تسریع فرایند حملات سایبری

پیش‌تر مهاجمان برای طراحی بدافزار، اسکن آسیب‌پذیری‌ها یا اجرای حملات فیشینگ، نیازمند دانش فنی و زمان زیاد بودند. اما امروز مدل‌های زبانی و ابزارهای هوشمند می‌توانند:

  • ایمیل‌های فیشینگ را کاملاً طبیعی و شخصی‌سازی شده بنویسند.
  • آسیب‌پذیری‌ها را به‌سرعت شناسایی و دسته‌بندی کنند.
  • کد مخرب را بدون اشتباه و با قابلیت تغییر سریع تولید کنند.
  • حملات تکرارشونده (Bruteforce، Credential Stuffing، Reconnaissance) را به‌صورت 24/7 و خودکار انجام دهند.

نتیجه:
مهاجمان کم‌تجربه نیز می‌توانند حملات پیچیده انجام دهند و حجم حملات با شدت بالا افزایش یابد.

2. حملات فیشینگ مبتنی بر AI — تهدیدی فراتر از انسان

AI قادر است:

  • لحن نوشتاری افراد را تقلید کند
  • پیام‌های HR، بانکی یا اداری را بازسازی کند
  • صدای افراد را جعل کند (Voice Cloning)
  • حتی در تماس تلفنی، پاسخ‌های لحظه‌ای تولید کند

این موضوع باعث افزایش حملات Business Email Compromise (BEC) و Social Engineering شده است.

با AI، سرعت و موفقیت حملات مهندسی اجتماعی تا چند برابر افزایش می‌یابد.

3. بدافزارهای تولیدشده توسط AI

یکی از تهدیدات نگران‌کننده، ظهور بدافزارهایی است که:

  • ساخت و به‌روزرسانی آن‌ها خودکار است
  • در لحظه کد خود را برای عبور از آنتی‌ویروس تغییر می‌دهند
  • با رفتار شبکه سازگار می‌شوند (Adaptive Malware)
  • قابلیت تصمیم‌گیری در زمان اجرا دارند

این نسل جدید بدافزارها با مفهوم «Malware-as-a-Service + AI» می‌توانند سازمان‌ها را با تهدیدهای ناشناخته (Zero-day-like behavior) مواجه کنند.

4. Deepfake و جعل هویت دیجیتال

یکی از خطرات جدی، استفاده از AI برای تولید:

  • تصاویر جعلی
  • ویدئوهای جعل‌شده
  • بازتولید صوت
  • هویت دیجیتال کامل

در حملات سایبری، Deepfake می‌تواند باعث:

  • دسترسی غیرمجاز به سیستم‌های احرازهویت چهره/صدا
  • فریب کارکنان برای انتقال مالی
  • انتشار اخبار جعلی برای ایجاد بی‌اعتمادی

شود.
در سطح ملی نیز Deepfake یک ابزار عملیات روانی محسوب می‌شود.

5. حملات AI روی زنجیره تأمین و زیرساخت‌های حیاتی

AI می‌تواند به مهاجم کمک کند در شبکه‌های صنعتی (ICS/SCADA) رفتار عادی را تقلید کند و باعث:

  • تشخیص دشوار نفوذ
  • اختلال تدریجی در سیستم کنترل صنعتی
  • دستکاری داده‌های حسگرها
  • عملیات مخفیانه بلندمدت

شود.
حملات «بی‌نقص و نامرئی» در صنایع، بخش انرژی و زیرساخت‌های ملی از نگرانی‌های اصلی نهادهای امنیتی بین‌المللی است.

6. خطر سوءاستفاده از مدل‌های هوش مصنوعی طرف ثالث (Third-party AI Models)

در صورتی که سازمان‌ها از مدل‌های بیرونی استفاده کنند، ریسک‌های زیر مطرح است:

  • نشت داده‌های حساس هنگام ارسال به سرویس AI
  • مسموم‌سازی مدل (Model Poisoning)
  • حملات نابودی یکپارچگی مدل (Model Corruption)
  • استفاده دوباره از اطلاعات کاربران برای آموزش مدل
  • نقض الزامات قانونی و استانداردهای امنیت اطلاعات

از نگاه ISO 27001، این بخش زیر کنترل‌های A.5.23 – کنترل‌های مربوط به تأمین‌کنندگان و Third-party services قرار می‌گیرد.

7. افزایش حملات Zero-day با کمک AI

AI می‌تواند در تحلیل کد و تست نفوذ:

  • الگوهای آسیب‌پذیری را سریع‌تر شناسایی کند
  • الگوهای رفتاری جدید بسازد
  • نسخه‌های مختلف exploit را در چند ثانیه تولید کند

این روند احتمال کشف و سوءاستفاده گسترده از آسیب‌پذیری‌های Zero-day را افزایش می‌دهد.

چگونه می‌توان در برابر تهدیدات AI دفاع کرد؟

براساس اصول ISO/IEC 27001:2022، سازمان‌ها باید کنترل‌های زیر را اجرا کنند:

✔ ۱. سیاست امنیتی اختصاصی برای AI

به عنوان بخشی از A.5.1 – سیاست‌های امنیت اطلاعات، لازم است:

  • سیاست استفاده از AI
  • مدیریت ریسک مدل‌ها
  • نحوه ارسال داده‌ها به سرویس‌های هوش مصنوعی

تدوین و اعمال شود.

✔ ۲. آموزش کارکنان (A.6.3)

مهندسی اجتماعی و فیشینگ مبتنی بر AI فقط با ابزار قابل کنترل نیست —
آموزش مستمر ضروری است.

✔ ۳. محافظت در برابر بدافزارهای نسل جدید (A.8.7)

استفاده از:

  • EDR/XDR
  • تحلیل رفتاری (Behavior Analytics)
  • Zero Trust Architecture

راهکارهای ضروری دفاعی است.

✔ ۴. بررسی امنیت تأمین‌کنندگان AI (A.5.19 و A.5.23)

هر سرویس ابری / مدل هوش مصنوعی باید از نظر:

  • محل پردازش داده
  • سیاست حفظ حریم خصوصی
  • رعایت استانداردها
  • نحوه ذخیره‌سازی داده

ارزیابی شود.

✔ ۵. تقویت احراز هویت و جلوگیری از جعل هویت

  • MFA
  • احراز هویت بیومتریک چندمرحله‌ای
  • تحلیل ریسک تراکنش

برای مقابله با Deepfake ضروری هستند.

✔ ۶. مانیتورینگ و تحلیل رفتار شبکه

AI بد را باید با AI خوب مقابله کرد:
سامانه‌های UEBA، SIEM، NDR مبتنی بر هوش مصنوعی برای کشف ناهنجاری ضروری‌اند.

جمع‌بندی

هوش مصنوعی فرصت‌های فراوانی برای بهبود امنیت، بهره‌وری و کارایی سازمان‌ها فراهم می‌کند.
اما در عین حال، تهدیدات ناشی از آن — از فیشینگ هوشمند گرفته تا بدافزارهای خودتکامل‌یاب و Deepfake — به سرعت در حال رشد هستند.

راهکار مقابله:
تفکر امنیتی جدید + کنترل‌های استاندارد ISO 27001 + هوش مصنوعی دفاعی.

مهدی منصوری

درباره نویسنده

مهدی منصوری

افزودن نظر

برای ارسال نظر کلیک کنید