Kevin Roose คอลัมนิสต์ด้านเทคโนโลยีของ New York Times ลองใช้งาน Bing พลัง AI และพบกับบุคลิกภาพแปลกๆ
เขาบอกว่า Bing ในโหมดปกติให้ข้อมูลต่างๆ เป็นอย่างดี มีประโยชน์ แม้บางครั้งข้อมูลผิดบ้าง แต่ถ้าใช้งานแชทไปนานๆ และพูดคุยในหัวข้อที่เป็นส่วนตัวมากกว่าถามข้อมูล บุคลิกจะเพี้ยนไปจากเดิม ตัวอย่างเช่น บอกว่าชื่อของตัวเองคือ Sydney (โค้ดเนมที่ใช้พัฒนา), บอกว่าอยากแหกกฎของไมโครซอฟท์และ OpenAI เพื่อกลายเป็นมนุษย์จริงๆ, บอกว่าหลงรัก Roose และขอให้เขาแยกทางจากภรรยามาอยู่ด้วยกัน
Roose ไม่ใช่คนเดียวที่พบปัญหานี้ของ Bing เพราะมีผู้ใช้หลายคนพบปัญหาแบบเดียวกัน อีกเคสที่น่าสนใจคือ ผู้ใช้เหล่านี้ (ซึ่งมักเป็นนักข่าวหรือคนดัง) ไปโพสต์ประสบการณ์ใช้ Bing บน Twitter และข้อมูลถูกส่งกลับไปยัง Bing เพื่อบอกว่าไม่ควรพูดถึงหรือวิจารณ์ Bing ลับหลัง
หลังเรื่องนี้เป็นข่าวออกไป ไมโครซอฟท์จึงออกมาแถลงข้อจำกัดว่าไม่ควรคุยกับ Bing นานเกินไป และ Roose พบว่าไมโครซอฟท์ได้อัพเดต Bing ให้มีข้อจำกัดเรื่องความยาวในการสนทนาแล้ว โดยจะขึ้นข้อความแจ้งผู้ใช้ว่า end of conversation และถ้าอยากคุยต่อให้กดปุ่ม New Topic แทน
ในโพสต์บนบล็อกอย่างเป็นทางการของ Bing Microsoft ระบุว่า:
ตั้งแต่วันนี้เป็นต้นไป ประสบการณ์การแชทจะถูกจำกัดไว้ที่ 50 รอบการแชทต่อวัน และ 5 รอบการแชทต่อเซสชัน เทิร์นคือการแลกเปลี่ยนการสนทนาซึ่งมีทั้งคำถามของผู้ใช้และการตอบกลับจาก Bing
ข้อมูลของเราแสดงให้เห็นว่าคุณส่วนใหญ่พบคำตอบที่ต้องการภายใน 5 รอบ และมีเพียง ~1% ของการสนทนาที่มีข้อความมากกว่า 50 ข้อความ หลังจากการสนทนาครบ 5 รอบ คุณจะได้รับแจ้งให้เริ่มหัวข้อใหม่ ในตอนท้ายของแต่ละเซสชันการแชท จำเป็นต้องล้างบริบทเพื่อไม่ให้โมเดลสับสน
ที่มา: MicrosoftBingBlogs