Отправляет email-рассылки с помощью сервиса Sendsay
Открытая группа
6922 участника
Администратор Yes"s
Модератор Людмила 59

Активные участники:


←  Предыдущая тема Все темы Следующая тема →

В США предлагают помешать развивать ИИ в других странах физическим уничтожением ЦОДов, диверсиями и киберат

В США предлагают помешать развивать ИИ в других странах физическим уничтожением ЦОДов, диверсиями и кибератаками

Экс-глава Google и двое других экспертов по искусственному интеллекту считают, что США следует отказаться от агрессивного «Манхэттенского проекта в сфере сильного ИИ», предполагающего американскую монополию в данной сфере – это может спровоцировать Китай. Вместо этого, североамериканской стране следует выбрать взвешенный подход к разработке такого ИИ с акцентом на оборону. Эксперты предлагают выстроить систему сдерживания, которая позволит затормозить развитие ИИ соперниками, в том числе за счет угрозы кибератак, диверсий и нанесение военных ударов по инфраструктуре.

Статья экс-главы Google

Группа американских экспертов разместила в публичном доступе статью под названием «Стратегия суперинтеллекта» (“Superintelligence Strategy”), в которой говорится, что агрессивное стремление США взять под свой исключительный контроль «суперинтеллектуальные» системы может спровоцировать ожесточенную ответную реакцию со стороны Китая, потенциально в форме кибератаки, которая способна дестабилизировать международные отношения.

Авторами работы являются три фигуры, считающиеся весьма авторитетными в американской ИИ-отрасли – бывший генеральный директор Google Эрик Шмидт (Eric Schmidt), действующий глава Scale AI Александр Ван (Alexandr Wang) и директор НКО Center for AI Safety («Центр безопасности ИИ») Дэн Хендрикс (Dan Hendrycks).

Работа является своего рода ответом на инициативу по финансированию создания в США систем сильного искусственного интеллекта общего назначения (Artificial General Intelligence; AGI) в духе Манхэттенского проекта, которая была выдвинута комитетом Конгресса США по экономическим отношениям с Китаем (USCC) в ноябре 2024 г.

«Манхэттенский проект [для AGI] предполагает, что соперники скорее смирятся с устойчивым дисбалансом или угрозой полного уничтожения, чем предпримут меры по его предотвращению, – говорится в статье. – То, что начинается как стремление к супероружию и глобальному контролю, рискует спровоцировать враждебные контрмеры и эскалацию напряженности, тем самым подрывая ту самую стабильность, которую стратегия якобы должна обеспечивать».

Стратегия сдерживания

Шмидт и соавторы работы подвергают критике идею, которую в последнее время транслируют в публичное пространство видные представители ИИ-отрасли США и некоторые американские политики. Она предполагает государственную поддержку ИИ-компаний из США в гонке по созданию систем AGI и рассматривает это в качестве оптимальной стратегии конкуренции с Китаем.

По мнению Шмидта, Вана и Хендрикса, США следует проявлять осторожность в своем стремлении занять доминирующее положение в сфере «сверхинтеллектуальных» систем. Чрезмерное рвение может спровоцировать «превентивный удар» со стороны противника, которого США в первую очередь видят в Китае.

В своей работе эксперты предлагают новую концепцию гарантированного взаимного выхода из строя ИИ (Mutual Assured AI Malfunction; MAIM), применений которой подобно военной доктрине взаимного гарантированного уничтожения (Mutually Assured Destruction; MAD), якобы способствует сдерживанию противника. Предложенная концепция предполагает применение властями сверхдержав проактивных мер по уничтожению вызывающих их опасение проектов, не дожидаясь, пока противник доведет итоговый продукт до состояния, в котором его можно будет использовать в качестве оружия.

Шмидт, Ван и Хендрикс считают, что США следует отказаться от стремления одержать победу в ИИ-гонке в пользу разработки методов, которые позволят обеспечить сдерживание других значимых глобальных акторов, желающих добиться превосходства в этой сфере. Среди решительных мер, которые могут быть приняты в рамках реализации стратегия сдерживания – расширение арсенала кибератак, нацеленных на ИИ-проекты противника, ограничение доступа к передовым ИИ-чипам и открытым моделям и даже нанесение физического ущерба вычислительной инфраструктуре за счет «кинетических ударов» ("kinetic strikes"), под которыми, вероятно, подразумевается атака при помощи ракет, взрывчатки или других видов вооружения. Впрочем, такие удары эксперты рассматривают в качестве крайней меры и считают возникновение необходимости в них маловероятным.

Угроза применения подобных мер при попытке занять доминирующее положение в сфере ИИ позволит поддерживать режим сдерживания в стабильном состоянии, считают авторы работы. Однако для этого все принявшие концепцию MAIM государства должны соблюдать ряд условий. В их числе размещение дата-центров с ИИ-инфраструктурой вдали от густонаселенных территорий и обеспечение их прозрачности для противника, четко сформулированный и согласованный перечень действий, которые будут однозначно трактованы стороной, против которой они были совершены, как попытка эскалации, а также «вклад» каждого такого действия в совокупный уровень напряженности между сторонами конфликта.

Мнение Шмидта изменилось?

Сравнение ИИ с ядерным оружием может показаться несколько притянутым за уши, однако в США, по всей видимости, не склонны недооценивать ценность и опасность новых технологий в этой сфере.

Политика США в отношении КНР в последние годы направлена на сдерживание технологического развития Поднебесной, в частности ВПК. Американские власти считают, что попадание передовых технологий, в частности, ИИ, в руки китайских военных, представляет для США угрозу национальной безопасности.

В январе 2025 г. Пентагон сообщил о том, что уже применяет ИИ-инструменты в своей работе, но машинный интеллект пока еще самостоятельно не убивают людей. ИИ-инструменты дают оборонному ведомству США «значительное преимущество» в идентификации, отслеживании и оценке угроз.

Примечательно, что Шмидт ранее выступал за жесткую конкуренцию США с Китаем в разработке передовых ИИ-систем. В конце января 2025 г. в экспертной статье для газеты Washington Post призвал США нарастить усилия в направлении развития ИИ-моделей с открытым исходным кодом на волне успеха открытой модели r1 китайской компании DeepSeek, который Шмидт назвал «поворотным моментом» в глобальной ИИ-гонке. Экс-глава Google заявил, что США, если планируют опередить Китай, должны выпускать больше открытых моделей, инвестировать в ИИ-инфраструктуру и поощрять открытость ИИ-лабораторий в том, что касается обнародования методологий обучения моделей.

 

  Использованные источники:  CNews.ru Экс-глава Google и двое других экспертов по искусственному интеллекту считают, что США следует отказаться от агрессивного...

Это интересно
0

16 часов назад
Пожаловаться Просмотров: 44  
←  Предыдущая тема Все темы Следующая тема →


Комментарии временно отключены