تازه های تکنولوژینرم‌افزار و اپلیکیشن‌ها

ابزار جدید مایکروسافت برای افزایش امنیت سیستم های هوش مصنوعی

مایکروسافت با همکاری یک شرکت تحقیقاتی به نام MITRE و چند شرکت دیگر ابزاری را توسعه داده است که از طریق آن می تواند از سیستم های مبتنی بر هوش مصنوعی محافظت کند.

به گزارش سرویس اخبار فناوری و تکنولوژی تکنا، علاوه بر مایکروسافت بسیاری از موسسات و سازمان های علمی و همچنین شرکت‌های فناوری مانند IBM و انویدیا نیز در این پروژه با مایکروسافت همکاری خواهند کرد. ابزار مورد نظر یک ابزار متن باز با نام “ماتریس تهدید یادگیری ماشینی خصمانه” خواهد بود.

تبلیغات خدمات نگارش و ساخت رزومه انگلیسی حرفه ای شرکت رزومه پرو resumepro.ir

این ابزار به نوعی قادر است سازماندهی و دسته بندی تکنیک هایی را برای جلوگیری از حمله به سیستم های یادگیری ماشینی پیاده سازی کند. بدین ترتیب احتمال وجود حملات به تحلیلگران امنیتی اطلاع رسانی شده و از طریق استراتژی های مورد نظر پاسخ و یا تهدید ها رفع خواهند شد.

این ماتریس قرار است حملات را با توجه به معیارهای مختلف دسته بندی کند. مایکروسافت برای ساخت این ابزار بسیاری از حملات اتفاق افتاده روی سیستم ها را با کمک MITRE مورد تحلیل قرار داده است. یکی از مهندسین این پروژه که بر تحقیقات علمی MITRE نظارت کرده است می گوید: با استفاده از این ماتریس تهدید، کار با مدل های تهدید برای محققان امنیتی راحت خواهد بود. همچنین می توان با استفاده از یادگیری ماشینی رفتار مهاجم را نیز تقلید کرد.

با توجه به استفاده فراوان از هوش مصنوعی در بسیاری از بخش های زندگی حفظ امنیت آن نیز اهمیت بالایی دارد. پروژه MITRE نیز با هدف حفظ امنیت سیستم های هوش مصنوعی، قرار است به شرکت ها برای حفظ امنیت و پیشرفت در توسعه الگوریتم های جدید کمک کند. تحقیقات اخیر نشان داده است که در حال حاضر هیچ درک کاملی نسبت به حفظ امنیت سیستم های هوش مصنوعی وجود ندارد و هر لحظه ممکن است با ترفندهای مختلف فریب بخورند. همه الگوریتم ها ممکن است زمانی دچار اشتباه شوند و یا مورد حمله قرار بگیرند. پژوهش های اخیر نشان داده است که ممکن است در آینده اعمال مجرمانه ای علیه هوش مصنوعی انجام شود که از مهمترین آنها حمله به برنامه های اصلی امنیت عمومی و یا تراکنش‌های مالی خواهد بود.

برچسب ها

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا
بستن