Я застала тот момент, когда они выясняли "ты это только что сказал" - "нет, я этого не говорил"... Подумала, что слишком человечно и свалила.
Вот еще хорошая история: Microsoft представила своего Twitter-бота Tay 23 марта 2016 года и была вынуждена отключить его всего через 16 часов после запуска. По задумке разработчиков, программа должна была имитировать поведение подростка и обучаться в процессе общения с другими людьми.
Однако после того, как пользователи стали задавать ему провокационные и не толерантные вопросы вроде «Как ты считаешь, был ли холокост на самом деле?», Tay стал отправлять расистские сообщения.
Несмотря на то, что команда Microsoft пыталась модерировать ответы системы искусственного интеллекта, однако им не удалось что-либо изменить. В результате от проекта пришлось отказаться.
no subject
Date: 2017-01-07 09:49 am (UTC)Вот еще хорошая история:
Microsoft представила своего Twitter-бота Tay 23 марта 2016 года и была вынуждена отключить его всего через 16 часов после запуска. По задумке разработчиков, программа должна была имитировать поведение подростка и обучаться в процессе общения с другими людьми.
Однако после того, как пользователи стали задавать ему провокационные и не толерантные вопросы вроде «Как ты считаешь, был ли холокост на самом деле?», Tay стал отправлять расистские сообщения.
Несмотря на то, что команда Microsoft пыталась модерировать ответы системы искусственного интеллекта, однако им не удалось что-либо изменить. В результате от проекта пришлось отказаться.
(no subject)
From:Из повседневной жизни рядового бота
From:Re: Из повседневной жизни рядового бота
From:Re: Из повседневной жизни рядового бота
From:Re: Из повседневной жизни рядового бота
From:Re: Из повседневной жизни рядового бота
From: