در این ویدیو قرار است در مورد روشهای نفوذ به مدلهای هوش مصنوعی صحبت شود. مدلهای AI غیرقابل نفوذ نیستند— حملاتی مانند Prompt Injection، Jailbreak و دادههای آلوده میتوانند امنیت آنها را تهدید کنند. در این ویدیو، روشهای تست نفوذ از جمله Sandboxing، Red teaming و اسکنهای خودکار برای حفاظت از مدلهای زبانی بزرگ (LLMs) معرفی میشوند. همچنین، راهکارهای عملی برای ایمنسازی دادههای حساس و افزایش امنیت در سامانههای مبتنی بر AI ارائه خواهد شد.