Tay: различия между версиями
м Замена текста — «↵<p><span>» на «<span>» |
м Замена текста — «]]</span>» на «]]» |
||
| Строка 1: | Строка 1: | ||
<span>[[Категория: программы]] | <span>[[Категория: программы]] <span>[[Категория: интернет]]<span style="color: indigo;">Тей</span><br/><span style="color: darkslategray;"> Имя чат-бота (чат-бот — программный механизм, реализующий многостороннее общение пользователей интернета в реальном времени), разработанного фирмой [[Microsoft]]. Tay прославился весной 2016 г. после того, как искусственный интеллект за несколько часов после запуска начал писать расистские твиты и прославлять Гитлера.<br/> Самообучающийся чат-бот с элементами искусственого интеллекта, по задумке разработчиков, должен был многому научиться у людей. И Тей научился. Всего за 24 часа с момента своего появления в соцсетях он начал выдавать шокирующие заявления типа «Гитлер был прав» и «Мексиканцы и чёрные — это зло». А потом признался в ненависти ко всему человечеству.<br/> В Microsoft заявили, что чат-бот обучился подобным сообщениям из-за «координированной атаки» пользователей. Чат-бота временно отключили и обещали перенастроить. Но через неделю Microsoft «случайно» включила его во время тестирования. Тогда Tay успел выругаться матом и заявить, что во всём виноват алкоголь. После этого его окончательно выключили.</span><br/><span style="color: teal;">♦ The more you talk the smarter Tay gets.</span><br/><br/>— [[Участник:Игорь Мостицкий|Игорь Мостицкий]] ([[Обсуждение участника:Игорь Мостицкий|обсуждение]]) 15:53, 9 января 2026 (MSK) | ||
Текущая версия от 15:40, 24 января 2026
Тей
Имя чат-бота (чат-бот — программный механизм, реализующий многостороннее общение пользователей интернета в реальном времени), разработанного фирмой Microsoft. Tay прославился весной 2016 г. после того, как искусственный интеллект за несколько часов после запуска начал писать расистские твиты и прославлять Гитлера.
Самообучающийся чат-бот с элементами искусственого интеллекта, по задумке разработчиков, должен был многому научиться у людей. И Тей научился. Всего за 24 часа с момента своего появления в соцсетях он начал выдавать шокирующие заявления типа «Гитлер был прав» и «Мексиканцы и чёрные — это зло». А потом признался в ненависти ко всему человечеству.
В Microsoft заявили, что чат-бот обучился подобным сообщениям из-за «координированной атаки» пользователей. Чат-бота временно отключили и обещали перенастроить. Но через неделю Microsoft «случайно» включила его во время тестирования. Тогда Tay успел выругаться матом и заявить, что во всём виноват алкоголь. После этого его окончательно выключили.
♦ The more you talk the smarter Tay gets.
— Игорь Мостицкий (обсуждение) 15:53, 9 января 2026 (MSK)
