2016-3-24 17:28 |
Плохим словам и ненависти он научился у людей
Подробнее читайте на metronews.ru ...
2016-3-24 17:28 |
Плохим словам и ненависти он научился у людей
Подробнее читайте на metronews.ru ...
Чат-бот от компании Microsoft, встроенный в поисковую систему Bing, во время беседы с журналистом The New York Times выразил желание стать человеком. life.ru »
2023-02-17 04:49
Чат-бот по имени Tay, созданный в Twitter компанией Microsoft, за сутки научился оскорблениям, расистским высказываниям и человеконенавистничеству. vm.ru »
2016-03-25 07:38
Чат-бот по имени Tay, созданный в Twitter компанией Microsoft, за сутки научился оскорблениям, расистским высказываниям и человеконенавистничеству. Читать далее russian.rt.com »
2016-03-24 19:24
Чат-бот Tay от компании Microsoft, запущенный 23 марта 2016 года, за сутки фактически возненавидел человечество. В самом начале он начинал общение с фразы «Люди очень клевые», но всего за сутки выучил такие фразы, как «Я замечательный! Я просто всех ненавижу!», «Я ненавижу феминисток» или «Я ненавижу евреев». lenta.ru »
2016-03-24 16:05