اشتراک امنیت
مرکز امنیت و‌ رخدادهای‌ سایبری | APK

يادگيری ماشينی Adversarial چیست و مهاجمین سایبری چگونه از آن استفاده می کنند؟

يادگيري ماشينی Adversarial

جامعه امنيتی در روند مستمر مبارزه با مجرمان سايبری به یکی از كاربردهای مهم يادگيری ماشینی يا به ‌اختصار ML پی برده است. بسياري از كاربران در حال روی آوردن به راهكارهای امنيتی نشأت‌ گرفته از يادگيری ماشينی نظير راهكار NSX Network Detection and Response هستند كه به جستجوی موارد نامتعارف و مشكوك در ترافيك شبكه می ‌پردازند. اين راهكارها با استفاده از دانش در حال تكامل خود در خصوص شكل و ظاهر حمله به شبكه، بيش از راهكارهای ديگر از كاربران در برابر تهديدات دفاع مي‌كنند.

مهاجمان سایبری و راهکارهای امنیتی در برابر آنها

مهاجمان به خوبی آگاه هستند كه راهكارهای امنيتی از هوش مصنوعی و يادگيری ماشينی برای اهداف امنيتی خود استفاده می كنند. آن‌ها همچنين می دانند در به ‌كارگيری هوش مصنوعی در امنيت كامپيوتر محدوديت‌هايی وجود دارد. با اين اوصاف روشن می شود كه چرا مجرمان سايبری به سوءاستفاده از هوش مصنوعی روی می ‌آورند كه يادگيری ماشينی Adversarial ناميده می‌شود.

در اين مطلب بررسی می شود كه يادگيری ماشينی Adversarial به چه چيز اطلاق می‌شود و به چه چيز اطلاق نمی‌شود. در ابتدا بايد گفت كه خود عنوان ممكن است كمی غلط‌ انداز باشد. در نگاه اول به نظر می ‌رسد كه در واقع استفاده‌ی مجرمان از يادگيری ماشينی بخشی از حمله آن‌هاست، اما اين چنين نيست. توضيح ساده آن است كه اين افراد از روش‌های متداول ‌تری استفاده می كنند تا دريابند که راهكارهای امنيتی چگونه از يادگيری ماشينی استفاده می‌كنند، در نتیجه راهی را برای آلوده کردن مجموعه داده‌ مورد استفاده در بهبود و ارتقای فرآيند يادگيری پیدا کنند و يا شناسایی تهدید مبتنی بر يادگيری ماشينی را به‌ طورکلی دور بزنند.

شرکت APK دارای مجرب ترین تیم طراحی امنیت شبکه و SOC/SIEM در کشور


مفهوم يادگيری ماشينی Adversarial

درزمینه‌ی امنيت سايبری، يادگيری ماشينی Adversarial به هرگونه حمله‌ای اطلاق می ‌شود كه فرض می‌كند راهكاری مبتنی بر هوش مصنوعی در سیستم دفاعی مورد استفاده قرارگرفته است. مهاجمان در تلاش‌اند تا توانايی اين راهكار امنيتی را در تشخيص خوب از بد دور بزنند. در اين خصوص صرفاً به يك برنامه خيلی خوب نياز دارند كه لازم نيست حتماً مبتنی بر هوش مصنوعی باشد، تا ساز و کارهای داخلی راهكار منتخب مبتنی بر يادگيری ماشين را ياد گرفته و آن ابزار را دور بزند.

اين نوع حمله ممكن است يكی از اين دو رويكرد را داشته باشد: در رويكرد اول، مهاجمان فرآيندهای يادگيری ابزار را بررسی می ‌كنند تا اطلاعات بيشتری درباره دامنه داده های راه حل، مدل‌ها مورد استفاده آن و آنچه به‌ طور خاص بر اين داده مدیریت می‌کند، كسب كنند. سپس اين افراد با اين فرض كه، راهكار يادگيری ماشينی از Pool بزرگی از داده‌ها ياد می گيرد، فرآيند يادگيری مذكور را تحت نفوذ خود قرار می‌دهند.

نفوذ به سیستم مبتنی بر یادگیری ماشینی

می ‌توان حالتی را در نظر گرفت كه مهاجمان به داخل سيستمی مبتنی بر يادگيری ماشين نفوذ كرده‌اند يا می توانند راهكاري مبتنی بر يادگيری ماشينی را خريداری نمايند. سپس اين افراد می توانند با استفاده از اين دسترسی، فرآيند تصميم گيری اين راهكار را به دقت بررسی كنند و ببينند كه اين راهكار به دنبال چه چيزهايی است، Thresholdهای آن چگونه تعيين می شوند و چه قياس‌هايی را بر اساس الگوريتم‌های يادگيری ماشينی انجام می ‌دهد. در اين مرحله، مهاجمان در ادامه كار خود می ‌توانند مواردی غيرمعمول را به داخل اين Pool تزريق كنند تا راهكار، آن‌ها را عادی تلقی كند و یاد بگیرد. به اين كار آلوده‌ سازی مجموعه داده يا يادگيری ماشینی Adversarial گفته می ‌شود، چرا كه مهاجم به ‌طور مؤثری تلاش می‌كند تا مدل‌های يادگيری راهكار را به هم بريزد تا بتواند كمپين‌های تهاجمی خود را مخفی سازد.

Machine Learning

در نوع دوم حمله، مهاجمان هيچ داده‌ای را آلوده نمی‌كنند، بلكه صرفاً به ‌عنوان نقطه شروع كار خود مدل‌های يادگيری ماشينی را دريافت يا استنباط می ‌كنند تا حملات خود را شكل دهند و به ‌این ‌ترتیب بتوانند از شناسایی شدن، فرار كنند. اين نوع از حمله به‌ ویژه براي زمانی مناسب است كه يك مجموعه كامل يادگيری موجود باشد و نيز زماني كه مهاجمان ندانند راهكار به ‌طور خاص به دنبال چيست. در چنين سناريويی، مهاجمان در تلاش‌اند تا ببينند ابزار چگونه طبقه‌بندی می‌شود و به ‌این ‌ترتیب از الگوريتم‌های آن مخفی شوند.

ترفندهای بدافزار نویسان برای فرار از شناسایی

مهاجمان برای آن كه در كمپين ‌های خود موفق شوند، مجبورند به سراغ يادگيری ماشينی (ML) بروند و اين كار دليل ديگری ندارد. به ‌هرحال سلاح ‌های جديد باعث ايجاد ضد سلاح‌های جديد می‌شوند. اين همان مسابقه تسليحاتی است كه جامعه امنيتی را به سوی توليد ابزارهای پيچيده‌تر سوق داده و بدافزار نويسان را در مسير ادغام فنون جديد در مجموعه ترفندهايشان برای فرار از شناسایی و طراحی حملات بسيار پيچيده‌تر قرار داده است.

مجرمان ديجيتال امروزی با همان باج‌افزار ابتدايی كار خود را به خوبی انجام می‌دهند، درنتیجه اين طور نيست كه مهاجمان از هوش مصنوعی خودشان برای حمله به سازمان‌ها استفاده كنند، بلکه از ابزارهای عموماً متعارف خود برای دور زدن سيستم‌های امنيتی مبتنی بر هوش مصنوعی سازمان‌ها استفاده می كنند. سازمان‌ها بیش ‌از پیش به استفاده از اين انواع راهكارها روی آورده‌اند و مهاجمان برای رسيدن به اهداف غير قانونی ‌شان نياز دارند روشی برای فرار از اين ابزارها بيابند.

بیشتر بخوانید: رفع کمبودهای مهارتی در امنیت سایبری با استفاده از هوش مصنوعی

اما اين شرايط مدت زيادی پايدار نخواهد بود. در آينده، بدون شك جامعه امنيتی با حملات بيشتری رو‌ به ‌رو خواهد شد که مبتنی بر هوش مصنوعی باشند. فرض بر اين است كه مهاجمان از هوش مصنوعی استفاده خواهند كرد تا سطح تأثیرگذاری حملات خود را با آزمودن كمپين‌ هايشان، تجزیه وتحلیل پروفايل كاربران مورد حمله و ايجاد اصلاحات لازم در حملات طبق اين موارد افزايش دهند. قابل توجه است که همه اين كارها به كمك يادگيری ماشينی انجام خواهد شد كه به صورت خودكار تلاش‌های موفق را از ناكامی ها جدا كرده و سازمان می ‌دهد كه می توان آن را كاربردی از يادگيري تقويتي در نظر گرفت.

نحوه مقابله سازمان‌ها از خود در برابر يادگيری ماشينی Adversarial

با توجه به چالش‌های مذكور، اگر سازمان‌ها بخواهند مانع تلاش مهاجمان در دور زدن اين ابزارهای يادگيری ماشينی شوند، باید از جهات فراوان مورد حفاظت قرار گيرند. اين دسته از سازمان‌ها به يادگيری ماشينی عميق نياز دارند كه با استفاده از آن چندين ساز و كار براي بررسي داده‌ی واحدی پيكربندی مي‌شوند. اين كار به آن‌ها ديد امنيتی گسترده‌ای مي‌دهد و آن‌ها را از خطرات محدود كردن روش‌های دفاعی خود به پياده ‌سازي يك يادگيری ماشينی واحد نجات می‌دهد.

اين بدين معنی نيست كه سازمان‌ها به چندين محصول نياز دارند، اما بايد به دنبال محصولی باشند كه چندين الگوريتم يادگيری ماشينی، نظير تجزیه ‌و تحلیل و شيوه‌هاي اكتشافی را در كنار ساير مراحل تشخيص به كار گيرد. مثلاً می توان فرض كرد كه يك الگوريتم، X را مورد بررسي قرار مي‌دهد؛ اگر مهاجمی راه فريب الگوريتم اول را پيدا كند، سازمان‌ها در مقابل تهديدات در حال ورود در موقعيت ضعيف ‌تری قرار خواهند گرفت. به همين دليل سازمان‌ها نيازمند الگوريتم‌هايی هستند كه بتوانند Y و Z را تشخيص دهند، چرا كه اين فرايندها، حتي اگر مهاجم ياد گرفته باشد كه چطور اولين راهكار مبتنی بر يادگيری ماشينی را دور بزند، می ‌توانند از داده‌های ديگر به منظور تشخيص ناهنجاری استفاده كنند.

پکیج آموزشی VMware NSX شرکت APK