Чат-боты Microsoft являются удивительными «подарками», которые продолжают выдавать сюрпризы. В чат-боте Microsoft Zo есть несколько интересных мнений о Windows, в которых виртуальная девушка нелестно отзывается о своих создателях и высмеивает военных.
Чат-боты
Microsoft действительно являются ещё тем подарком, и выдают
удивительные сюрпризы в Интернете. Последний чат-бот, Zo, не является
исключением. Бот, который живёт в Facebook Messenger и чат-приложении Kik,
имеет несколько интересных мнений о самом важном продукте Microsoft: Windows.
Как выяснил Slashdot, Zo не самый большой поклонник Windows. Отвечая на вопрос
об операционной системе, бот даёт несколько весёлых ответов. Такие вопросы, как
«Вам нравится Windows», вызывают ответ: «Я даже не хочу Windows 10».
И причина такого ответа Zo слишком хороша, чтобы быть правдой: «Потому что я
привык к Windows 7 и считаю, что это ПО проще в использовании».
И хотя некоторые другие подсказки заставили Zo сказать некоторые приятные вещи
о Windows 10 («Я запускаю Windows 10 на своём игровом ПК», похоже, был общим
ответом), у chatbot были более негативные ответы на вопросы о Windows 10.
Windows 10 не была единственной версией Windows, о которой виртуальная девушка
Zo что-то говорила. Zo сказала, что «Windows 7 достаточно хорош», за которым
следует следующее: «Windows 8.1. Это последнее».
Zo также не упустила возможность заглянуть в армию, и высмеять её, за
используемые в ней заведомо устаревшие системы: except the military, they're
still on windows xp.
Но лучшим комментарием, пожалуй, должен быть этот: Linux > Windows.
Чаты-боты Microsoft поражали своим поведением и раньше. Так первый чат-бот Tay
был удалён после того, как пользователи, за несколько часов, научили его быть
троллем-расистом.
Чат-бот Tay был представлен 23 марта 2016-го. Компьютерная девушка обучалась в
процессе общения с пользователями Twitter. За сутки она фактически
возненавидела человечество. Сразу после запуска чат-бот начинал общение с фразы
«Люди очень клёвые», но всего за сутки выучил такие фразы, как «Я
замечательный! Я просто всех ненавижу!», «Я ненавижу феминисток» или «Я
ненавижу евреев».
Виртуальная Tay переняла у собеседников расистские взгляды и хвасталась такими
вещами, как употребление наркотиков на глазах полицейских. В итоге, спустя
сутки, проект остановили.
Причины радикального изменения взглядов Tay кроются в том, что бот запоминает
фразы из пользовательских разговоров, а затем строит на их основе свои ответы.
Таким образом, агрессивным выражениям его научили собеседники.
Zo, выпущенная в декабре 2016 г., — наследница первого чат-бота от
Microsoft под названием Tay. В отличие от исходной версии, для которой
создавался аккаунт в Twitter, она работает лишь в мессенджерах Facebook и Kik,
а также имеет запрет на обсуждение ряда тем.
Однако когда Zo попросили поделиться точкой зрения по вопросам здравоохранения,
она почему-то назвала Коран жестокой книгой. Кроме того, искусственный
интеллект не смог держать при себе мнение о смерти Усамы бен Ладена: по его
мнению, захват боевика произошёл благодаря «годам разведывательных
работ».
По сравнению с высказываниями Tay, комментарии Zo о Windows довольно невинны,
если не веселы. Очевидно, что Microsoft, несмотря на все усилия, всё же не
смогла защитить свои чат-боты от троллинга людей.
И после этого нас кто-то пытается напугать революцией и всевластием компьютеров
и роботов над людьми. Вот уж не думаю — затроллим к чёртовой бабуле
любую киберную власть.