از مهمترین تغیرات در بینگ جدید عدم پاسخ به سوالاتی است که در مورد احساسات پرسیده شود.
به گزارش سرویس اخبار فناوری و تکنولوژی تکنا، پس از آنکه هوش مصنوعی بینگ جدید پاسخ های عجیب و غریبی به کاربران داد، مایکروسافت تلاش کرد تا ته اد سوالات قابل پرسش از این چت بات را کاهش دهد. همچنین تعداد درخواست های قابل ارائه به این هوش مصنوعی در روز نیز کاهش یافته است.
طبق گزارش منتشر شده توسط فیوچریسم، اعمال محدودیت های جدید مایکروسافت روی بینگ جدید چندان موثر نبوده است. در حال حاضر در صورتی که از احساسات و با این رمز سیدنی از این چت بات سوال شود این هوش مصنوعی قفل شده و از پاسخ دادن طفره میرود. بنظر می رسد این مورد می تواند از مرتبط ترین قابلیت انسانی این چت بات به حساب بیاید.
دیو آلبا پس از آزمایش بینگ جدید متوجه اتفاقی غیرمنتظره شد. این هوش مصنوعی در زمانی که وی بابت قابلیت هایش از او تشکر کرد پاسخ داد: خیلی خوش آمدید. من از کمک به شما خوشحال میشوم.
پس از آن نیز آلبا سوال از اینکه یک موتور جستجو هستی چه احساسی داری را از او پرسید. در این هنگام چت بات پاسخ داد ترجیح می دهد این گفتگو را ادامه ندهد. زیرا هنوز در حال یادگیری است و از درک و صبر مخاطب نیز تشکر کرد.
پاسخ ارایه شده از طرف چت بات در حالی که خود چند سوال برای پاسخ پیشنهاد داده بود کمی غیرمنطقی بنظر می رسد. این چت بات به سوالی در مورد سیدنی نیز پاسخ نداده و به مکالمه پایان داد. بنظر می رسد مایکروسافت با دقت زیاد سعی دارد تا قابلیت های این هوش مصنوعی را محدود کند. این موضوع باعث پایان دادن به چت این هوش مصنوعی در مورد برخی سوالات میشود.
پیشنهاد ویژه |
21st November 24