Tay: различия между версиями
Новая страница: « <p><span>Категория: программы</span> <span>Категория: интернет</span><span style="color: indigo;">Тей</span><br/><span style="color: darkslategray;"> Имя чат-бота (чат-бот — программный механизм, реализующий многостороннее общение пользователей интернета в реальном времени), разработанного...» |
м Замена текста — «↵<p><span>» на «<span>» |
||
| Строка 1: | Строка 1: | ||
<span>[[Категория: программы]]</span> <span>[[Категория: интернет]]</span><span style="color: indigo;">Тей</span><br/><span style="color: darkslategray;"> Имя чат-бота (чат-бот — программный механизм, реализующий многостороннее общение пользователей интернета в реальном времени), разработанного фирмой [[Microsoft]]. Tay прославился весной 2016 г. после того, как искусственный интеллект за несколько часов после запуска начал писать расистские твиты и прославлять Гитлера.<br/> Самообучающийся чат-бот с элементами искусственого интеллекта, по задумке разработчиков, должен был многому научиться у людей. И Тей научился. Всего за 24 часа с момента своего появления в соцсетях он начал выдавать шокирующие заявления типа «Гитлер был прав» и «Мексиканцы и чёрные — это зло». А потом признался в ненависти ко всему человечеству.<br/> В Microsoft заявили, что чат-бот обучился подобным сообщениям из-за «координированной атаки» пользователей. Чат-бота временно отключили и обещали перенастроить. Но через неделю Microsoft «случайно» включила его во время тестирования. Тогда Tay успел выругаться матом и заявить, что во всём виноват алкоголь. После этого его окончательно выключили.</span><br/><span style="color: teal;">♦ The more you talk the smarter Tay gets.</span><br/><br/>— [[Участник:Игорь Мостицкий|Игорь Мостицкий]] ([[Обсуждение участника:Игорь Мостицкий|обсуждение]]) 15:53, 9 января 2026 (MSK) | |||
Текущая версия от 22:47, 23 января 2026
Тей
Имя чат-бота (чат-бот — программный механизм, реализующий многостороннее общение пользователей интернета в реальном времени), разработанного фирмой Microsoft. Tay прославился весной 2016 г. после того, как искусственный интеллект за несколько часов после запуска начал писать расистские твиты и прославлять Гитлера.
Самообучающийся чат-бот с элементами искусственого интеллекта, по задумке разработчиков, должен был многому научиться у людей. И Тей научился. Всего за 24 часа с момента своего появления в соцсетях он начал выдавать шокирующие заявления типа «Гитлер был прав» и «Мексиканцы и чёрные — это зло». А потом признался в ненависти ко всему человечеству.
В Microsoft заявили, что чат-бот обучился подобным сообщениям из-за «координированной атаки» пользователей. Чат-бота временно отключили и обещали перенастроить. Но через неделю Microsoft «случайно» включила его во время тестирования. Тогда Tay успел выругаться матом и заявить, что во всём виноват алкоголь. После этого его окончательно выключили.
♦ The more you talk the smarter Tay gets.
— Игорь Мостицкий (обсуждение) 15:53, 9 января 2026 (MSK)
