مایکروسافت اشاره کرده که چت طولانی مدت باعث گیج شدن بینگ می‌شود و برای برطرف کردن آن، راه‌هایی را پیشنهاد کرده است.

مایکروسافت هفته گذشته از نسخه جدید بینگ با پشتیبانی از ChatGPT رونمایی کرد اما گزارش‌هایی درباره توهین، دروغ و جواب‌های نامناسب توسط این موتور جستجو ارائه شده است. حالا غول ردموندی در پست جدید وبلاگ خود به این گزارش‌ها پاسخ داده و می‌گوید چت طولانی مدت با بینگ، مشکلاتی را ایجاد می‌کند.

تیم بینگ مایکروسافت در این پست وبلاگ توضیح می‌دهند که تصور نمی‌شده مردم از رابط چت آن برای «سرگرمی‌های اجتماعی» یا به‌عنوان ابزاری برای «شناخت عمومی‌تر جهان» استفاده کنند. همچنین در این پست گفته شده که چت‌های طولانی با ۱۵ سوال یا بیشتر، می‌تواند بینگ را گیج کند و پاسخ‌هایی را ارائه کند که لزوماً مفید یا مطابق با لحن طراحی شده توسط مایکروسافت نیستند.

تلاش برای برطرف کردن اشتباهات بینگ
مایکروسافت اشاره می‌کند که ممکن است در آینده ابزاری برای به‌روزرسانی راحت‌تر زمینه اصلی بحث با بینگ فراهم شود. با این حال اکنون یک دکمه بزرگ با عنوان «موضوع جدید» در کنار ورودی متن موتور جستجو وجود دارد که تاریخچه آن را پاک می‌کند تا کاربرات بحث تازه‌ای را شروع کنند.

غول فناوری همچنان در حال کار روی بهبود لحن Bing است و تیم مسئول این موتور جستجو نیز در حال بررسی یک تغییر برای کنترل بیشتر خلاقیت بینگ در هنگام پاسخ دادن به سوالات کاربران یا میزان دقت مورد نیاز آن هستند.

پیش نمایش جدید Bing هم اکنون در بیش از ۱۶۹ کشور جهان در حال آزمایش است و میلیون‌ها نفر در لیست انتظار ثبت نام آن قرار دارند. مایکروسافت ادعا می‌کند که ۷۱ درصد از بازخوردهای مربوط به پاسخ‌های این موتور جستجو مثبت بوده و برخی از کاربران حتی محدودیت‌های این سرویس را با جلسات چت دو ساعته آزمایش کرده‌اند.

با این حال، فقط بینگ و مایکروسافت با چنین مشکلی روبرو نشده‌اند و هوش مصنوعی Bard گوگل که هفته گذشته معرفی شده بود نیز مشکلاتی را به همراه داشته است. همانطور که در گزارش مربوط به این اشتباه گفته شده بود، بارد به سوال یکی از کاربران درباره یکی از دستاوردهای جیمز وب پاسخ اشتباهی داده بود.