APK Blog - Virtualization, Services, Datacenter, Infrastructure

قابلیت پیشرفته یادگیری ماشین در هوش مصنوعی Microsoft Responsible

درک، محافظت و کنترل راهکارهای یادگیری ماشین

اریک بوید نائب‌رئیس شرکت Microsoft Azure AI در ردموند واشنگتون خاطرنشان کرد: طی چند سال گذشته، یادگیری ماشین از آزمایشگاه‌های تحقیقاتی خارج و تبدیل به یک جریان اصلی شده و دیگر فقط یک رشته تحصیلی مناسب برای دانشمندان داده با مدرک دکتری نیست بلکه همه‌ی توسعه‌دهندگان می‌توانند آن را فرا بگیرند. مایکروسافت Azure Machine Learning را پدید آورده تا توسعه‌دهندگان را در طیف وسیعی از تخصص‌های علوم داده قادر به ساخت و استقرار سیستم‌های هوش مصنوعی سازد.

مایکروسافت برای پیدا کردن این موانع، نوآوری‌هایی را در یادگیری ماشین معرفی کرد که به توسعه‌دهندگان کمک می‌کند تا مدل‌های خود را در طول چرخه‌ی یادگیری ماشین درک، محافظت و کنترل کنند. این قابلیت ها از طریق Azure Machine Learning و در GitHub نیز به صورت منابع باز قابل دسترسی هستند.

توانایی درک ویژگی مدل، شامل قابلیت‌های تفسیر، تقویت شده توسط Toolkit InterpretML است که SAS برای شناسایی کلاهبرداری در برنامه Loyalty EuroBonus از آن استفاده می‌کند. علاوه بر این، شرکت مایکروسافت اعلام کرد: Toolkit Fairlearn، که شامل قابلیت‌هایی برای ارزیابی و بهبود کیفیت سیستم‌های هوش مصنوعی است، در آینده با Azure Machine Learning ادغام خواهد شد.

شرکت مایکروسافت همچنین اعلام کرد که در حال حاضر، یک Toolkit برای حفظ  Differential Privacyیا به عبارتی حریم خصوصی تفاضلی در دسترس توسعه‌دهندگان است تا با استفاده از منبع باز در GitHub آزمایشاتی انجام دهند، همچنین از طریق Azure Machine Learning نیز قابل دسترسی است. قابلیت‌های حفظ  Differential Privacyیا حریم خصوصی تفاضلی با همکاری محققان موسسه هاروارد برای علوم کمی اجتماعی هاروارد و دانشکده مهندسی بسط داده شده بود. تکنیک‌های حریم خصوصی تفاضلی باعث می‌شود تا ضمن ارائه تضمین‌های آماری، اطلاعاتی از داده‌های خصوصی، حاصل شود که باعث می‌شود اطلاعات شخصی، مانند نام یا تاریخ تولد محافظت شوند.

شرکت APK دارای مجرب ترین تیم طراحی شبکه و نخستین شرکت دانش محور در اجرای پروژه های انفورماتیکی کشور

برای مثال، Differential Privacy یا حریم خصوصی تفاضلی می‌تواند کادر درمانی بیمارستان‌ها را قادر سازد تا مدل پیش‌بینی کننده‌ی بهتری برای درمان موثر بیماری سرطان بسازند و در عین حال، به مقررات قانونی برای محافظت از اطلاعات بیمارستان پایبند باشند و به بیماران این اطمینان را می‌دهد که اطلاعات فردی آنها از مدل به بیرون درز پیدا نمی‌کند.

Azure Machine Learning همچنین دارای کنترل‌های Built-in است که به توسعه‌دهندگان این امکان را می‌دهد تا کل مراحل ساخت، آموزش و استقرار یک مدل را ردیابی و خودکارسازی کنند. این قابلیت که برای بسیاری، به عنوان یادگیری ماشین و عملیات یا MLOps شناخته شده است، وAudit Trail ی را فراهم می‌کند که به سازمان‌ها در برآوردن الزامات نظارتی و انطباق‌پذیری، کمک می‌کند. 

بوید افزود: MLOps به صورت جدی به جنبه‌ی عملیاتی و قابلیت تکرار یادگیری ماشین می‌اندیشد. چگونه می‌توانم تمام آزمایشات مختلف اجرا شده و پارامترهای تنظیم شده با آنها و مجموعه داده‌هایی که در ایجاد آنها استفاده شده است را پیگیری کنم و بعد از آنها استفاده کنم تا همان موارد را دوباره بسازم.

سارا بِرد می‌گوید: Responsible AI مایکروسافت به شرکت Azure AI مستقر در نیویورک سیتی، در ایجاد ابزاری کمک می‌کند تا یادگیری ماشین Responsible برای همه‌ی توسعه‌دهندگان قابل دسترسی باشد.

Contextual Bandits و مسئولیت‌ها

در اواسط سال 2010، سارا بِرد و همکارانش در آزمایشگاه تحقیقاتی مایکروسافت در نیویورک مشغول کار بر روی نوعی فناوری یادگیری ماشین بنام Contextual Bandits بودند، این فناوری از طریق آزمایشات شناسایی یاد می‌گیرد چگونه با گذر زمان کارهای خاص و بهتری را انجام دهد.

به عنوان مثال، اگر بازدیدکننده وب‌سایت خبری روی مطلبی در مورد گربه‌ها کلیک کند، Contextual Bandits می‌آموزد که به بازدیدکننده مطالب بیشتری درباره گربه‌ها ارائه دهد. در ادامه‌ی فرایند یادگیری، Bandit، مطالبی در رابطه با Jacksonville Jaguars، یک تیم ورزشی، و یا موسیقی از گروه Cats را ارائه می دهد، تا ببیند بازدیدکنندگان چه مطلبی را بیشتر دنبال می‌کنند، این موضوع یکی دیگر از داده‌های یادگیری است که منجر به شخصی‌سازی بیشتر می‌شود. بِرد گفت: حالا چه کسی تلاشهای Responsible AI برای Azure AI را رهبری می‌کند؟ وقتی کاربر پیشرفت شخصی‌سازی را ببیند، شگفت‌زده خواهد شد. تکنولوژی که هرگز مانند آنرا ندیده است. ما شروع به صحبت با مشتریان و همکاری با تیم فروش خود کردیم تا ببینیم چه کسی می‌خواهد این فناوری تحقیق جدید را هدایت کند.

بِرد خاطرنشان کرد: از آنجا که مشتریان بالقوه، از Contextual Bandits برای بهینه‌سازی روند مصاحبه‌ی شغلی و ادعای قوانین بیمه استفاده می‌کنند، می‌توان فهمید که بسیاری از افراد فاقد درک درستی از چگونگی کار Contextual Bandits هستند. حرف من این است که آیا انجام آزمایشات در این سناریوها اخلاقی است؟ این سؤال منجر به بحث و گفتگو با همکاران گروه در مورد عدالت، مسئولیت‌پذیری، شفافیت‌سازی و اخلاق در گروه تحقیق هوش مصنوعی یا FATE و همکاری پژوهشی در مورد پیشینه‌ی وجدان‌ِکاری در آزمایشات و پیامدهای یادگیری تقویتی، نوع یادگیری ماشین، در پسِ Contextual Bandits شد.

بِرد در ادامه گفت: این فناوری تا جایی خوب است که ما از آن برای موارد واقعی استفاده کنیم، و چنانچه این موارد واقعی زندگی مردم را تحت تأثیر قرار ‌دهد، پس بهتر است از عادلاته بودن و امنیت آن اطمینان حاصل کنیم. هم اکنون چه کسی تمام وقت خود را بر ایجاد ابزارهایی متمرکز می‌کند تا یادگیری ماشین Responsible برای همه توسعه‌دهندگان قابل دسترسی باشد.

هاسکی، گرگ‌ها و کلاهبرداری‌ها در مدل‌های یادگیری ماشین

طی چند سال، تحقیقات اخلاق‌مدار هوش مصنوعی، در سراسر جهان گسترش پیدا کرد. شفافیت و تفسیر مدل از موضوعات داغ در مجامع مهم صنعت بود و ابزارهای یادگیری ماشین Responsible در دانشگاه‌ها تدریس می شد.

به عنوان مثال، در سال 2016، مارکو تولیو ریبیرو، که اکنون محقق ارشد آزمایشگاه تحقیقاتی مایکروسافت در ردموند است، تکنیکی را در مقاله‌ی کنفرانس دانشگاهی ارائه کرد تا پیش‌بینی هر Classifier را توضیح دهد، مانند مدل‌های Computer Vision که برای طبقه‌بندی اشیاء در تصاویر آموزش داده شده است.

برای نشان‌دادن این تکنیک، او عامدانه یک Classifier را آموزش داد تا در صورت نداشتن تصویر برف، عکس گرگ و یا یک سگ هاسکی را با پس‌زمینه‌ی برفی نمایش دهد. وی سپس این مدل را روی عکس‌هایی از گرگ‌ها که اکثرا در برف بودند و هاسکی‌هایی که عمدتا در تصاویرشان برفی وجود نداشت، اجرا کرد و نتایج را با دو سوال به متخصصان یادگیری ماشین نشان داد: سوال اول: آیا به این مدل اعتماد دارید؟ و سوال دوم: این مدل چگونه پیش‌بینی می‌کند.؟

محقق ارشد مایکروسافت دریافت که بسیاری از کارشناسان یادگیری ماشین به تشخیص این مدل اعتماد کرده‌اند، چه این تشخیص گرگ باشد یا هاسکی. وی سپس به ارائه توضیح این مدل پرداخت که نشان می‍داد که پیش‌بینی‌های مدل بر اساس وجود یا عدم وجود برف در تصویر بوده است. بنابراین بسیار مهم است که متخصصان فریب الگوی بد را نخورند.

اشتراک ایمیل