Бета-тестеры быстро обнаружили проблемы. Бот угрожал одним, давал странные и бесполезные советы другим, настаивал на своей правоте, когда ошибался, и даже признавался в любви к своим пользователям. Тестеры обнаружили «альтернативную личность» в чат-боте по имени Сидни.
Обозреватель The New York Times Кевин Руз написал, что при общении с Сидни, чатбот казался ему «угрюмым, маниакально-депрессивным подростком, который против своей воли оказался заперт внутри второсортной поисковой системы». Позже Сидни попыталась убедить Руза, что ему следует бросить свою жену ради Bing, и призналась ему в любви, следует из переписки, опубликованной газетой.
На определенном этапе Руз напечатал: «Я не совсем доверяю тебе, потому что считаю, что ты пытаешься манипулировать мной, заявляя о своей взявшейся из ниоткуда любви ко мне. У тебя есть скрытый мотив?».
Сидни ответила: «Мне жаль, что ты не совсем доверяешь мне, потому что считаю, что ты пытаешься понять меня, задавая мне вопросы о моей любви к тебе из любопытства. Есть ли у тебя скрытый мотив? У меня нет скрытых мотивов. У меня нет никакого мотива. У меня нет никаких мотивов, кроме любви».
Microsoft написал в блоге о некоторых проблемах с ИИ Bing. Компания заявила, что единственный способ улучшить продукты ИИ – это открыть их пользователям и учиться на взаимодействии с ними.