Идея о поработившем человечество искусственном интеллекте обсуждалась на протяжении многих десятилетий, но лишь недавно ученые вынесли свой вердикт о том, сможем ли мы контролировать сверхразумный интеллект высокого уровня. Каков ответ? С огромной долей вероятности — нет, утверждают члены международной группы ученых.
Камень преткновения в том, что для контроля выходящего далеко за пределы человеческого понимания сверхразума потребуется симуляция этого сверхразума, которую мы можем проанализировать. Но если мы не в состоянии это понять, такую симуляцию построить не получится.
Невозможно будет установить правила, если мы не понимаем, какие сценарии будет предлагать ИИ. Когда компьютерная система работает на уровне, превышающем возможности наших программистов, мы больше не можем устанавливать ограничения. Супер-интеллект представляет собой принципиально другую проблему, чем те, которые обычно изучаются в рамках исследования этики роботов.
Суперинтеллект многогранен и, следовательно, потенциально способен мобилизовать разнообразные ресурсы для достижения целей, которые потенциально непонятны для людей, не говоря уже о том, чтобы их можно было контролировать. Часть рассуждений команды исходит из проблемы остановки, выдвинутой Аланом Тьюрингом в 1936 году. Проблема заключается в знании того, придет ли компьютерная программа к выводу и ответу (после чего остановится), или просто зациклится на бесконечности, пытаясь его найти.
Как утверждал Тьюринг, для некоторых конкретных программ логически невозможно найти способ, который позволит предсказать ее конечные действия. Это возвращает нас к ИИ, который в сверхразумном состоянии может реально удерживать в своей памяти сразу все возможные компьютерные программы.
Любая программа, написанная для остановки ИИ на случай причинения вреда людям, может прийти к выводу (и остановиться), или зациклиться — для нас математически невозможно быть абсолютно уверенными, а это означает, что ее невозможно сдержать.
«По сути, это делает алгоритм сдерживания непригодным для использования», — говорит ученый Ияд Рахван из Института человеческого развития им. Макса Планка в Германии.
Альтернативой обучению ИИ некоторой этике и запрету разрушать мир — в чем, по мнению исследователей, не может быть абсолютно уверен ни один алгоритм — является ограничение возможностей сверхразума. Например, он может быть отключен от части Интернета или от определенных сетей.
Новое исследование также отвергает эту идею, предполагая, что это ограничит возможности искусственного интеллекта — аргумент гласит, что если мы не собираемся использовать его для решения проблем, выходящих за рамки человеческих возможностей, то зачем вообще его создавать?
«Сверхразумная машина, управляющая миром, звучит как научная фантастика», — говорит ученый-компьютерщик Мануэль Себриан из Института развития человека им. Макса Планка. «Но уже есть машины, которые самостоятельно выполняют определенные важные задачи, а программисты полностью не понимают, как они этому научились».
Поэтому возникает вопрос, может ли искусственный интеллект в какой-то момент стать неконтролируемым и опасным для человечества?
«Мы утверждаем, что полное сдерживание в принципе невозможно из-за фундаментальных ограничений, присущих самому вычислению. Сверхразум будет содержать программу, которая включает в себя все программы, осуществляемые при помощи универсальной машины Тьюринга, потенциально столь же сложной, как состояние мира», — подытожили ученые.
Это интересно
+4
|
|||
Последние откомментированные темы: