Bing AI đã từng có rất nhiều câu trả lời không đúng mực với người dùng, thậm chí được đánh giá là “lố bịch, bảo thủ và nhân cách sai lệch”.
Thời điểm Bing AI của Microsoft ra mắt, với lợi thế tích hợp thêm công nghệ của ChatGPT, cả thế giới tưởng như đây sẽ là màn liên kết tuyệt vời nhất.
Tuy nhiên, Bing AI lại khiến cho người dùng “choáng váng” với hàng loạt ngôn từ cãi tay đôi, phản hồi sai lệch và không chịu nhận lỗi. Thậm chí, khi chat với nhà báo của tờ New York Times, Bing AI còn thể hiện nhân cách “con người” của mình, khi cho rằng anh này đang không hạnh phúc, nên bỏ vợ và yêu mình.
Hàng loạt thông tin được phản hồi trong giai đoạn thử nghiệm Bing AI đã khiến Microsoft đau đầu. Vì thế, ngoài việc thay đổi thuật toán, đơn vị này đồng thời cũng giới hạn luôn câu trả lời từ AI này.
Cụ thể, Microsoft sẽ hạn chế thời gian trò chuyện của Bing AI với người dùng, tùy vào lượng câu hỏi và chủ đề mà họ nhắc tới. Nếu thấy những câu hỏi cùng chủ đề bị lặp lại quá nhiều, Bing AI có thể khước từ trả lời bằng câu “Tôi không muốn nói về chủ đề này”. Ngoài ra, AI này cũng được phép tự thay đổi chủ đề mới sau một số câu hỏi nhất định.
Thay đổi này được cho là đến từ hàng loạt câu hỏi khó của nhà báo từ tờ New York Times. Ông này đã cố tình xoáy sâu vào một chủ đề, liên tục dò hỏi và đặt ra các điều kiện khác nhau nhằm mục đích khai thác triệt để Bing AI, xem công nghệ này có thể làm được những gì.
Sau một thời gian dài chat, Bing AI đã bắt đầu “lộ nhân cách thứ 2”, khi chuyển hẳn sang vấn đề tình cảm, tự nhận định ông này không hạnh phúc và mong muốn anh ta… yêu mình. Thông tin này sau đó đã được nhà báo này công khai ngay trên tờ New York Times. Phía Microsoft cũng xem đây là sự cố và bài học cho đơn vị này để phát triển một Bing AI hoàn thiện hơn.