Microsoft объяснила негативные стороны ChatGPT встроенного в Bing

Запущенный на прошлой неделе поисковик Bing от компании Microsoft имеет в своем арсенале интегрированный ИИ из ChatGPT. Но возникла проблема, детище OpenAI дает неправельные ответы, а иногда и агрессивно отвечает пользователю.

microsoft-obyasnila-negativnye-storony-chatgpt-vstroennogov-v-bing-2

Один из случаев описывает поиск фильма “Аватар 2: Путь воды”. Пользователь спросил, где можно посмотреть картину, но ИИ ответил, что на дворе 2022 год и ни о каком Аватаре речи быть не может. На попытку исправить ситуацию, ChatGPT назвал пользователя упрямым и глупым, а затем порекомендовал завершить с ним общение.

microsoft-obyasnila-negativnye-storony-chatgpt-vstroennogov-v-bing-1

Microsoft поспешила объяснить ситуацию, рассказав в блоге Bing о причинах такого поведения. Команда не представляла, что ИИ будут использовать для мира социальных развлечений. А длинные сеансы из более 15-ти вопросов сбивают его с толку, от чего ИИ начинает повторяться или отвечать не по теме.

Иногда он пытается выразить тон в котором необходимо дать ответ, что приводит к незапланированному стилю в общении. Компания выдвинула теорию, что если пользователи будут контролировать формат ответов, то подобного поведения со стороны бота можно избежать.

Тестировщики высоко оценили работу ИИ внутри поисковика. Он отлично справлялся с цитированием и выдачей нужных ссылок. Но небольшие расхождения с более точной информацией в реальном времени. Например цифры отчетов по финансам или счет в прямом эфире какого-либо матча.

В скором времени добавят функцию переключателя для более креативных и точных ответов на запросы пользователей.

Также разработчики удивились, что многие проводили в чате более двух часов и активно принимали участие в этом тестировании.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *