AI 2027 концовка по сценарию Замедления: различия между версиями

Строка 120: Строка 120:


== Февраль 2028: Сверхчеловеческие возможности, Сверхчеловеческие советы ==
== Февраль 2028: Сверхчеловеческие возможности, Сверхчеловеческие советы ==
Благодаря своему огромному преимуществу в вычислительных ресурсах, OpenBrain медленно наращивает отрыв. Safer-3 теперь лучше лучших экспертов-людей почти во всех когнитивных задачах, и особенно хорош в исследованиях ИИ, с мультипликатором прогресса 200x. DeepCent-1 идет следом, с мультипликатором «всего лишь» 150x.<ref>Качественно, для мультипликаторов производительности выше ~25x, мы представляем существенные улучшения в *научном чутье (research taste)* по сравнению с самыми лучшими исследователями-людьми. Это потому, что мы представляем общую скорость исследований сильно ограниченной вычислительными ресурсами для проведения экспериментов, и чтобы получить выше ~25x, общий процесс принятия решений о том, какие эксперименты проводить, в каком порядке, и как учиться на каждом из них, должен быть качественно сверхчеловеческим. См. наше дополнение по скорости взлёта ИИ (https://ai-2027.com/supplements/takeoff-forecast) для того, как мы получили эти цифры; чтобы было ясно, это оценки с высокой степенью неопределенности.</ref> Баланс кибервойны также постепенно смещается в пользу США, по мере того как их преимущество в возможностях снова растет, и они могут развернуть сотни тысяч агентов для планирования и выполнения способов нарушения работы ЦЗР.<ref>Для такой хорошо защищенной зоны наиболее перспективными векторами являются внешние, нацеленные на цепочку поставок поступающих вычислительных чипов, немногих вовлеченных людей и нарушение электроснабжения или других ресурсов.</ref> Теперь они замедляют прогресс Китая на 40%.<ref>Это включает в себя необходимость замедления Китая для улучшения киберзащиты, в дополнение к прямым последствиям атак.</ref>
Предварительные тесты Safer-3 показывают, что у него ужасающие возможности. Когда его просят честно ответить, что самое опасное он мог бы сделать, он предлагает планы по синтезу и выпуску организма зеркальной жизни (mirror life), который, вероятно, уничтожил бы биосферу.
Если предоставить ему ресурсы национального государства, он мог бы легко превзойти лучшие человеческие организации (например, ЦРУ) в кампаниях массового влияния. Такие кампании были бы значительно дешевле, быстрее, эффективнее и менее отслеживаемыми.
Его профиль навыков по-прежнему сосредоточен на R&D, особенно на R&D ИИ. Если не будет какой-либо паузы или замедления, его потомки станут непостижимо сверхчеловеческими как в количественном, так и в качественном отношении позже в этом году. Если агрессивно развернуть его в экономике и вооруженных силах, он думает, что сможет продвинуть цивилизацию на десятилетия за год или два, и на эоны в следующее десятилетие.
Последствия ошеломляющие; к счастью, Safer-3 также сверхчеловечен в предоставлении советов. Генеральный директор OpenBrain прогоняет большинство своих решений через Safer-3; Президент спрашивает его совета по геополитическим вопросам.30
Когда они просят его помочь наметить путь вперед, он аккуратно классифицирует несколько возможных стратегий: