Наследница бота-расиста от Microsoft научилась оскорблять


Опубликованно 05.07.2017 17:06

Наследница бота-расиста от Microsoft научилась оскорблять

Новый "умный" бот чат от компании Microsoft получила название ЗО освоили спорные высказывания, несмотря на то, что создатели специально запрограммировал ее, чтобы избежать ответа на политические и религиозные темы. Сообщает Engadget.

Когда девушка-бот попросили поделиться своей точкой зрения на здоровье, она почему-то назвал Коран "злую книгу". Кроме того, искусственный интеллект не смогла удержать взгляд на смерть Усамы бен Ладена: по его мнению, "захват" боевиками произошла из-за "годы разведывательной работы".

В Microsoft утверждают, что все ошибки, которые ЗО не перешел на обсуждение запретной темы, исправил.

В марте 2016 года, новое изобретение корпорации — умный чат-бот Тай — впечатлило пользователей. Для бота была создана учетная запись в Twitter, в котором компьютер она могла общаться с пользователями и таким образом учиться. Тай вскоре взял из пользователей сети расистские взгляды и хвастался такими вещами, как употребление наркотиков в глазах полиции.



Категория: Интернет