AI 2027 концовка по сценарию Замедления: различия между версиями

Перейти к навигации Перейти к поиску
Строка 61: Строка 61:


== Декабрь 2027: Сделка США-Китай? ==
== Декабрь 2027: Сделка США-Китай? ==
Решение OpenBrain отступить и приоритезировать согласование (alignment) стоило им лидерства; и OpenBrain, и DeepCent используют ИИ схожего уровня возможностей. Теперь, когда приняты чрезвычайные меры безопасности (уровни безопасности 4–5), и DeepCent полностью работает из ЦЗР, они находятся в тупике кибервойны.<ref>Обе стороны пытаются взломать и саботировать друг друга, с частичным успехом. Важно отметить, что драконовские меры безопасности, принимаемые обеими сторонами, также замедляют их. Кибератаки США и угроза их применения (например, DeepCent приходится многократно проверять наборы данных на предмет отравления данных) замедляют DeepCent примерно на 25%. OpenBrain также замедляется, но в меньшей степени: у них больше вычислительных ресурсов, а централизация быстро вывела DeepCent на более высокий уровень безопасности, но также привела к большим рискам из-за единой точки отказа, что заставляет их проявлять больше осторожности и внедрять внутренние проверки и отказоустойчивые механизмы. См. дополнение по безопасности (https://ai-2027.com/supplements/security-forecast) для получения более подробной информации. Также см. эту старую теоретическую статью (https://www.fhi.ox.ac.uk/wp-content/uploads/How-Does-the-Offense-Defense-Balance-Scale-5-21-19.pdf), которую мы интерпретируем как предсказывающую, что баланс нападения-защиты в конечном итоге сместится в пользу киберзащиты по мере улучшения возможностей ИИ.</ref>
Но DPA дает OpenBrain 5-кратное преимущество в вычислительных ресурсах. В прошлом алгоритмические прорывы от блестящих исследователей-людей могли компенсировать недостатки в вычислительных ресурсах (например, [https://arxiv.org/html/2412.19437v1 DeepSeek v3]) — но к настоящему времени ИИ выполняют все исследования ИИ по обе стороны Тихого океана.
Поэтому Китай все больше опасается, что Америка создаст непреодолимое преимущество. Они хотят взаимного замедления и рассматривают возможность начала войны, если не смогут его добиться.<ref>См. этот отчет (https://www.nationalsecurity.ai/), который утверждает, что динамика ядерного взаимного гарантированного уничтожения (MAD) также в некоторой степени применима к ОИИ.</ref> Они и так готовились к вторжению на Тайвань…
Дипломаты обсуждают несколько вариантов. Они могут ничего не делать. Они могут начать войну. Они могут резко прекратить, т. е. приостановить разработку ИИ. Они могут объединить свои исследования в единый международный мегапроект22 («Intelsat для ОИИ» или «ЦЕРН для ИИ»). Или они могут создать международный регулирующий орган («МАГАТЭ для ИИ»), контролирующий согласование (alignment) и потенциал двойного назначения. Обе страны уже работают над техническими механизмами, необходимыми для обеспечения соблюдения этих мер.

Навигация