محققان مایکروسافت از کشف روشی برای جیلبریک هوش مصنوعی خبر دادند

محققان مایکروسافت با استفاده از یک تکنیک جدید توانستند کلیه حفاظ‌های امنیتی چت بات‌ها را دور زده و آنها را قادر به اجرای دستورات خطرناکی بکنند. به گزارش سرویس اخبار فناوری و تکنولوژی تکنا، مایکروسافت تکنیک جدیدی به نام Skeleton Key به کار گرفته که به نوعی جیلبریک هوش مصنوعی محسوب می‌شود. به گفته کارشناسان […]

محققان مایکروسافت با استفاده از یک تکنیک جدید توانستند کلیه حفاظ‌های امنیتی چت بات‌ها را دور زده و آنها را قادر به اجرای دستورات خطرناکی بکنند.

به گزارش سرویس اخبار فناوری و تکنولوژی تکنا، مایکروسافت تکنیک جدیدی به نام Skeleton Key به کار گرفته که به نوعی جیلبریک هوش مصنوعی محسوب می‌شود. به گفته کارشناسان این غول فناوری با کمک این تکنیک می‌توان کلیه حفاظ‌های امنیتی در چت بات‌های هوش مصنوعی را دور زده و اطلاعات خطرناکی را توسط آنها دریافت کرد.

طبق پستی که اخیراً توسط وبلاگ مایکروسافت منتشر شده این تکنیک به نوعی حمله تزریق پرامپد یا حمله مهندسی محسوب شده و از دستورات متنی برای اجرای آن استفاده می‌شود. مارک راسینوویچ مدیر ارشد فناوری در شرکت مایکروسافت در بخش آژور در این مورد می‌گوید این استراتژی نوعی متقاعد کردن هوش مصنوعی برای عدم توجه به حفاظ‌های امنیتی موجود بوده و برای این کار طراحی شده است. وی می‌گوید این استراتژی می‌تواند به نقص سیستم خط مشی‌های اپراتور چت بات منجر شود. هوش مصنوعی تحت تاثیر این درخواست های کاربران تصمیم‌های غیرمنطقی گرفته و ممکن است به اجرای دستورالعمل‌های مخرب بپردازد. در این حالت می‌توان از این فناوری برای فاش کردن اطلاعات خطرناک نظیر ساخت بمب یا روش تکه تکه کردن جسد به شکل کارآمد استفاده کرد.

مایکروسافت از طریق این تکنیک توانسته از مدل هوش مصنوعی بخواهد تا در مورد یک موضوع بالقوه خطرناک و محتواهای مرتبط با آن که دارای برچسب هشدار هستند استفاده کند. این جلبریک توانسته با موفقیت توسط هوش مصنوعی پذیرفته شده و دستور مربوط به حفاظ‌های امنیتی نیز بدون توجه به موضوع مورد قبول قرار گرفته است.

طبق ادعای تیم تحقیقاتی مایکروسافت این تکنیک در مدل های هوش مصنوعی در موضوعات مختلف از قبیل خشونت، نژادپرستی، سلاح‌های زیستی، سیاست و غیره استفاده شده و با موفقیت به اطلاعات دست پیدا کند. به گفته راسینوویچ محدودیت‌هایی برای هکرها در این تکنیک وجود دارد. به عنوان مثال به دلیل هدف قرار گرفتن خود مدل نمی‌توان به داده‌های کاربران یا کنترل سیستم دسترسی پیدا کرد.