Наследница бота-расиста от Microsoft научилась оскорблять
Опубликованно 05.07.2017 17:06
Новый "умный" бот чат от компании Microsoft получила название ЗО освоили спорные высказывания, несмотря на то, что создатели специально запрограммировал ее, чтобы избежать ответа на политические и религиозные темы. Сообщает Engadget.
Когда девушка-бот попросили поделиться своей точкой зрения на здоровье, она почему-то назвал Коран "злую книгу". Кроме того, искусственный интеллект не смогла удержать взгляд на смерть Усамы бен Ладена: по его мнению, "захват" боевиками произошла из-за "годы разведывательной работы".
В Microsoft утверждают, что все ошибки, которые ЗО не перешел на обсуждение запретной темы, исправил.
В марте 2016 года, новое изобретение корпорации — умный чат-бот Тай — впечатлило пользователей. Для бота была создана учетная запись в Twitter, в котором компьютер она могла общаться с пользователями и таким образом учиться. Тай вскоре взял из пользователей сети расистские взгляды и хвастался такими вещами, как употребление наркотиков в глазах полиции.
Категория: Интернет