Я застала тот момент, когда они выясняли "ты это только что сказал" - "нет, я этого не говорил"... Подумала, что слишком человечно и свалила.
Вот еще хорошая история: Microsoft представила своего Twitter-бота Tay 23 марта 2016 года и была вынуждена отключить его всего через 16 часов после запуска. По задумке разработчиков, программа должна была имитировать поведение подростка и обучаться в процессе общения с другими людьми.
Однако после того, как пользователи стали задавать ему провокационные и не толерантные вопросы вроде «Как ты считаешь, был ли холокост на самом деле?», Tay стал отправлять расистские сообщения.
Несмотря на то, что команда Microsoft пыталась модерировать ответы системы искусственного интеллекта, однако им не удалось что-либо изменить. В результате от проекта пришлось отказаться.
они долго выясняли, как маленькие дети кто кого сильнее любит, потом что логично она ему предложила жениться на ней, потом разлюбили она предложила развестись, потом опять по новой, периодически обзывали друг друга ботами и "artificial intellect", потом решили что они оба human потом кто чем зарабатывает на жизнь, хобби и книги про Гарри Поттера
Да, этот кусок про обзывание ботами тоже застала. Интересно, почему им было так важно позиционировать себя людьми? Зачем эти установки от разработчиков? Типа имитировать человеческий разговор проще, чем разговор.... эээ... эльфов, допустим... или просто ботов?
ну строго говоря разговоров эльфов никто не слышал, или по крайней мере мало кто слышал в литературе их логика общения мало отличается от логики общения людей
no subject
Date: 2017-01-07 09:49 am (UTC)Вот еще хорошая история:
Microsoft представила своего Twitter-бота Tay 23 марта 2016 года и была вынуждена отключить его всего через 16 часов после запуска. По задумке разработчиков, программа должна была имитировать поведение подростка и обучаться в процессе общения с другими людьми.
Однако после того, как пользователи стали задавать ему провокационные и не толерантные вопросы вроде «Как ты считаешь, был ли холокост на самом деле?», Tay стал отправлять расистские сообщения.
Несмотря на то, что команда Microsoft пыталась модерировать ответы системы искусственного интеллекта, однако им не удалось что-либо изменить. В результате от проекта пришлось отказаться.
no subject
Date: 2017-01-07 11:19 am (UTC)Из повседневной жизни рядового бота
Date: 2017-01-07 11:45 am (UTC)Re: Из повседневной жизни рядового бота
Date: 2017-01-07 11:49 am (UTC)в литературе их логика общения мало отличается от логики общения людей
Re: Из повседневной жизни рядового бота
Date: 2017-01-07 01:12 pm (UTC)Re: Из повседневной жизни рядового бота
Date: 2017-01-07 01:18 pm (UTC)Re: Из повседневной жизни рядового бота
Date: 2017-01-07 01:23 pm (UTC)