محققان مایکروسافت با استفاده از یک تکنیک جدید توانستند کلیه حفاظهای امنیتی چت باتها را دور زده و آنها را قادر به اجرای دستورات خطرناکی بکنند.
به گزارش سرویس اخبار فناوری و تکنولوژی تکنا، مایکروسافت تکنیک جدیدی به نام Skeleton Key به کار گرفته که به نوعی جیلبریک هوش مصنوعی محسوب میشود. به گفته کارشناسان این غول فناوری با کمک این تکنیک میتوان کلیه حفاظهای امنیتی در چت باتهای هوش مصنوعی را دور زده و اطلاعات خطرناکی را توسط آنها دریافت کرد.
طبق پستی که اخیراً توسط وبلاگ مایکروسافت منتشر شده این تکنیک به نوعی حمله تزریق پرامپد یا حمله مهندسی محسوب شده و از دستورات متنی برای اجرای آن استفاده میشود. مارک راسینوویچ مدیر ارشد فناوری در شرکت مایکروسافت در بخش آژور در این مورد میگوید این استراتژی نوعی متقاعد کردن هوش مصنوعی برای عدم توجه به حفاظهای امنیتی موجود بوده و برای این کار طراحی شده است. وی میگوید این استراتژی میتواند به نقص سیستم خط مشیهای اپراتور چت بات منجر شود. هوش مصنوعی تحت تاثیر این درخواست های کاربران تصمیمهای غیرمنطقی گرفته و ممکن است به اجرای دستورالعملهای مخرب بپردازد. در این حالت میتوان از این فناوری برای فاش کردن اطلاعات خطرناک نظیر ساخت بمب یا روش تکه تکه کردن جسد به شکل کارآمد استفاده کرد.
مایکروسافت از طریق این تکنیک توانسته از مدل هوش مصنوعی بخواهد تا در مورد یک موضوع بالقوه خطرناک و محتواهای مرتبط با آن که دارای برچسب هشدار هستند استفاده کند. این جلبریک توانسته با موفقیت توسط هوش مصنوعی پذیرفته شده و دستور مربوط به حفاظهای امنیتی نیز بدون توجه به موضوع مورد قبول قرار گرفته است.
طبق ادعای تیم تحقیقاتی مایکروسافت این تکنیک در مدل های هوش مصنوعی در موضوعات مختلف از قبیل خشونت، نژادپرستی، سلاحهای زیستی، سیاست و غیره استفاده شده و با موفقیت به اطلاعات دست پیدا کند. به گفته راسینوویچ محدودیتهایی برای هکرها در این تکنیک وجود دارد. به عنوان مثال به دلیل هدف قرار گرفتن خود مدل نمیتوان به دادههای کاربران یا کنترل سیستم دسترسی پیدا کرد.
پیشنهاد ویژه : کسب درآمد با بازی همستر |
پیشنهاد ویژه : قیمت ارز دیجیتال |
پیشنهاد ویژه : تعمیر کامپیوتر تهران |
پیشنهاد ویژه |
پیشنهاد ویژه |
18th November 24