دریافت ویدیو
در حال بارگذاری ...

بررسی انواع تست نفوذ به مدل‌های هوش مصنوعی مثل Prompt Injection و Jailbreak

در این ویدیو قرار است در مورد روش‌های نفوذ به مدل‌های هوش مصنوعی صحبت شود. مدل‌های AI غیرقابل نفوذ نیستند— حملاتی مانند Prompt Injection، Jailbreak و داده‌های آلوده می‌توانند امنیت آن‌ها را تهدید کنند. در این ویدیو، روش‌های تست نفوذ از جمله Sandboxing، Red teaming و اسکن‌های خودکار برای حفاظت از مدل‌های زبانی بزرگ (LLMs) معرفی می‌شوند. همچنین، راهکارهای عملی برای ایمن‌سازی داده‌های حساس و افزایش امنیت در سامانه‌های مبتنی بر AI ارائه خواهد شد.

ویدیوهای مرتبط