AI 2027: различия между версиями

Строка 234: Строка 234:
}}
}}
{{Collapse|Итеративная дистилляция и амплификация (ИДА)|
{{Collapse|Итеративная дистилляция и амплификация (ИДА)|
Самосовершенствование для общего интеллекта ранее видело незначительные успехи. Но в начале 2027 года оно приносит огромную отдачу. В ИДА (Iterated Distillation and Amplification) двумя необходимыми ингредиентами для этого являются:
Самосовершенствование для общего интеллекта ранее видело [https://arxiv.org/abs/1810.08575 незначительные успехи]. Но в начале 2027 года оно приносит огромную отдачу. В [https://ai-alignment.com/iterated-distillation-and-amplification-157debfd1616 ИДА] (Iterated Distillation and Amplification) двумя необходимыми ингредиентами для этого являются:


# '''Амплификация:''' Имея модель M0, потратить больше ресурсов для улучшения производительности. Например, позволяя модели думать дольше, или запуская множество копий параллельно, или и то, и другое, а также имея аналогично интенсивный процесс оценки результата и отбора только лучших ответов, вы можете потратить на порядки больше вычислительных ресурсов, чтобы получить ответы (или рабочие продукты), которые заметно выше качеством. Назовем эту дорогую систему Amp(M0).
# '''Амплификация:''' Имея модель M0, потратить больше ресурсов для улучшения производительности. Например, позволяя модели думать дольше, или запуская множество копий параллельно, или и то, и другое, а также имея аналогично интенсивный процесс оценки результата и отбора только лучших ответов, вы можете потратить на порядки больше вычислительных ресурсов, чтобы получить ответы (или рабочие продукты), которые заметно выше качеством. Назовем эту дорогую систему Amp(M0).