نمیتوان انکار کرد که هوش مصنوعی مولد یا همان GenAI یکی از مهمترین پیشرفتهای فناوری در سالهای اخیر بوده که نویدبخش پیشرفتهای بینظیری نیز بوده تا بشریت را قادر سازد تا بیش از هر زمان دیگری کارها را به انجام برساند. با استفاده از قدرت هوش مصنوعی برای یادگیری و سازگاری، GenAI اساساً نحوه تعامل ما با فناوری و همچنین با یکدیگر را تغییر داده ، راههای جدیدی را برای نوآوری، کارایی و خلاقیت ایجاد کرده و تقریباً در هر صنعتی، ازجمله امنیت سایبری، انقلابی عظیم ایجاد کرده است. همانطور که ما به کشف پتانسیل آن ادامه میدهیم، GenAI تضمین میکند آینده را به روشی که ما تازه در حال تصور آن هستیم بازنویسی کند.
خوب در مقابل شر
اساساً، GenAI بهخودیخود هیچ انگیزه پنهانی ندارد. به زبان ساده، نه خوب است و نه بد. همان فناوری که به فردی که صدای خود را ازدستداده است اجازه میدهد صحبت کند به مجرمان سایبری نیز اجازه میدهد تا چشمانداز تهدیدات را تغییر دهند و آن را بازتعریف کنند. ما دیدهایم که مجرمان به روشهای بیشماری از GenAI استفاده میکنند، از نوشتن ایمیلها یا متنهای فیشینگ مؤثرتر، ایجاد وبسایتها یا کدهای مخرب گرفته تا تولید دیپفیک، قربانی گرفتن با کلاهبرداری یا انتشار اطلاعات نادرست. این فعالیتهای مخرب پتانسیل ایجاد آسیب های قابلتوجهی را به دنیای نا آماده ما دارند. درگذشته، فعالیتهای مجرمانه سایبری با محدودیتهایی مانند «دانش محدود» یا «نیروی انسانی محدود» روبرو بودند. این امر در گذشته زمانبر بود به عنوان مثال مصداق آن در ساخت ایمیل یا متون فیشینگ مشهود است. مجرمان سایبری معمولاً محدود به زبانهایی بودند که میتوانستند صحبت کنند یا بنویسند، و اگر قربانیان خارج از زبان مادری خود را هدف قرار میدادند، پیامها اغلب با دستور زبان ضعیف و اشتباهات املایی پر میشد. مرتکبین میتوانستند از خدمات ترجمه رایگان یا ارزان استفاده کنند، اما حتی آنها نیز قادر به ترجمه کامل و دقیق نبودند.
بیشتر بخوانید: هوش مصنوعی مولد یا generative AI چیست؟ و چه قابلیت هایی دارد؟
درنتیجه، یک ایمیل فیشینگ که به زبان X نوشتهشده اما به زبان Y ترجمهشده است، معمولاً به عنوان یک ایمیل نامناسب یا هرزنامه تلقی میشود که اکثر مردم آن را نادیده میگیرند، زیرا واضح است که “تقلبی به نظر میرسد”. با معرفی GenAI، بسیاری از این محدودیتها از بین رفته است. مدلهای زبانی بزرگ و مدرن یا LLM میتوانند کل ایمیلها را در کمتر از 5 ثانیه، با استفاده از هر زبانی بهدلخواه و تقلید از هر سبک نوشتاری بنویسند. این مدلها این کار را نهتنها با ترجمه دقیق کلمات، بلکه همچنین به شکلی دقیق بین زبانهای مختلف انجام میدهند، که درنتیجه پیامهایی شفاف و بدون اشتباه تایپی و بهمانند هر ایمیل قانونی قانعکننده مینمایند. مهاجمان دیگر نیازی به دانستن اصول اولیه زبان دیگری ندارند. آنها میتوانند اعتماد کنند که GenAI کار قابلاعتمادی انجام میدهد. آزمایشگاه مک آفی این روندها را دنبال میکند و بهصورت دورهای آزمایشهایی را برای تأیید مشاهدات انجام میدهد.
برای مشاوره رایگان جهت (باز)طراحی امنیت شبکه و یا انجام تست نفوذ مطابق با الزامات افتا با کارشناسان شرکت APK تماس بگیرید. |
اشارهشده است که نسلهای قبلی LLM آنهایی که در دوره ۲۰۲۰ منتشر شدند میتوانستند ایمیلهای فیشینگ تولید کنند که میتواند ۲ نفر از هر ۱۰ قربانی را در معرض خطر جدی قرار دهد. بااینحال، نتایج آزمایش اخیر نشان داد که نسلهای جدیدتر LLM دوران 2023/2024 قادر به ایجاد ایمیلهای فیشینگ هستند که بسیار قانعکنندهتر و تشخیص آن توسط انسان بسیار سختتر است. درنتیجه، آنها این پتانسیل رادارند که تا 49 درصد بیشتر از یک ایمیل فیشینگ نوشتهشده توسط انسان، قربانیان بیشتری را با خطر مواجه کنند. بر این اساس، ما مشاهده میکنیم که توانایی انسان برای شناسایی ایمیلها/متون فیشینگ در طول زمان با انتشار نسلهای جدید LLM کاهشیافته است:
شکل بالا چگونه توانایی انسان برای شناسایی فیشینگ با انتشار نسلهای جدیدتر LLM کاهش یافته را نمایش می دهد.
اینیک تغییر اجتنابناپذیر ایجاد میکند، جایی که مجرمان میتوانند اثربخشی حملات خود را افزایش دهند درحالیکه شناسایی آنها برای قربانیان سختتر و دشوارتر میشود.
بیشتر بخوانید: بررسی امنیت و ایمنی سیستمهای هوش مصنوعی
مجرمان همچنین از GenAI برای کمک برای ایجاد بدافزار استفاده میکنند، و درحالیکه GenAI تا امروز نمیتواند کد بدافزاری ایجاد کند که بهطور کامل غیرقابلشناسایی باشد ، غیرقابلانکار است که با تسریع زمان ورود به بازار برای نوشتن بدافزار بهطور قابلتوجهی به مجرمان سایبری کمک میکند. علاوه بر این، ایجاد بدافزار که ازلحاظ تاریخی در حوزه امور پیچیده بود، اکنون بیشازپیش برای مجرمان وتازهکاران قابلدسترسی بوده، زیرا GenAI کمبود مهارت را با کمک به توسعه کد نویسی برای اهداف مخرب فراهم میکند. درنهایت، اینیک چشمانداز کلی و خطرناکتر ایجاد میکند، جایی که همه بازیگران بد به لطف GenAI در سطح بالایی از توانایی قرار میگیرند.
مقابلهبهمثل کردن
ازآنجاییکه سرنخهایی که به آنها تکیه میکردیم دیگر وجود ندارند، برای شناسایی محتوای خطرناک GenAI به روشهای ظریفتر و با وضوح بیشتر نیاز است. شرایط و قراین همچنان از اهمیت ویژه ای برخوردار هستند و این چیزی است که کاربران باید به آن توجه کنند.. دفعه بعد که ایمیل یا متن غیرمنتظرهای دریافت میشود،باید از خود پرسید: آیا واقعاً مشترک این سرویس بوده ایم؟ آیا تاریخ خرید ادعاشده با آنچه ازکارت اعتباری دریافت می شود مطابقت دارد؟ آیا این شرکت معمولاً از این طریق ارتباط برقرار میکند یا اصلاً؟
چه کسی این درخواست را مطرح کرده است؟ آیا برای واقعی بودن بیشازاندازه خوب نیست؟ اگر نمیتوان پاسخهای خوبی یافت، احتمالاً با یک کلاهبرداری روبرو هستیم. خبر خوب این است که مدافعان این حملات نیز از هوش مصنوعی استفاده کردهاند تا با آن به مبارزه با این نوع اقدامات بپردازند. حفاظت از کلاهبرداری نوشتاری یا McAfee از هوش مصنوعی برای کاوش بیشتر در پیامهای متنی در راستای جلوگیری از کلاهبرداری استفاده میکند . هوش مصنوعی اختصاصی در حوزه محتوای GenAI، مانند آشکارساز Deepfake McAfee، میتواند به کاربران کمک کند تا محتوای دیجیتال را با اطمینان بیشتری مرور کنند. هوشیار بودن و مبارزه با استفادههای مخرب از هوش مصنوعی این امکان را میدهد تا با خیال راحت در این دنیای دیجیتال جدید و هیجانانگیز حرکت کرده و با اطمینان از همه فرصتهایی که ارائه میدهد استفاده کنیم.