Технологическая сингулярность

Материал из hpluswiki
Перейти к навигации Перейти к поиску

Технологическая сингулярность (а также просто сингулярность) является гипотезой о том, что изобретение искусственного сверхинтеллекта внезапно вызовет безудержный технологический рост, что приведет к сильным изменениям в человеческой цивилизации.

На саммите Singularity 2012 года Стюарт Армстронг провел исследование экспертов по искусственному общему интеллекту (AGI) и нашел широкий диапазон прогнозируемых дат со средним значением 2040.

Появление сингулярности[править]

В 1965 году IJ Good положил, что искусственный общий интеллект может привести к взрыву технологического развития. Сценарий Good выглядит следующим образом: по мере того, как компьютеры увеличивают мощность, людям становится проще строить машину, более интеллектуальную, чем человечность; Этот сверхчеловеческий интеллект обладает более широкими навыками решения проблем и изобретательских способностей, чем способны нынешние люди. Эта суперинтеллектуальная машина затем разрабатывает еще более совершенную машину или переписывает свое собственное программное обеспечение, чтобы стать еще более умной; Эта (все более способная) машина затем продолжает разрабатывать машину с еще большей способностью и так далее.[1]

Причины[править]

Экспонциальный рост[править]

Экспоненциальный рост вычислительной техники, предложенный законом Мура, обычно упоминается как причина ожидать сингулярности в относительно ближайшем будущем, и ряд авторов предложил обобщения закона Мура. Компьютерный ученый и футурист Ханс Моравек предложил в книге 1998 года, что экспоненциальная кривая роста может быть увеличена за счет более ранних вычислительных технологий до интегральной схемы.

Рэй Курцвейл постулирует закон ускоряющих возвратов, в котором скорость технологических изменений (и в более общем плане, все эволюционные процессы[2]) экспоненциально возрастает, обобщая закон Мура так же, как предложение Моравека, а также включает материальные технологии (особенно применительно нанотехнологии ), медицинской техники и других.[3] В период с 1986 по 2007 год удельный вес оборудования для расчета информации на душу населения примерно удваивался каждые 14 месяцев; на душу населения пропускная способность компьютеров общего назначения в мире удваивается каждые 18 месяцев; глобальный потенциал электросвязи на душу населения удваивается каждые 34 месяца; и емкость хранилища в мире на душу населения удваивается каждые 40 месяцев.[4]

Курцвейл резервирует термин «сингулярность» для быстрого увеличения искусственного интеллекта (в отличие от других технологий), например, писал: «Сингулярность позволит нам преодолеть эти ограничения наших биологических тел и мозгов ... Не будет никакого различия , после сингулярности, между человеком и машиной».[5] Он также определяет свою предсказанную дату сингулярности (2045) в терминах того, когда он ожидает, что компьютерные интеллекты значительно превысят общую человеческую мозговую мощь, написав, что достижения в вычислениях до этой даты «не будут представлять Сингулярность», потому что они «еще не соответствуют глубокому расширению нашего интеллекта».[6]

Ускорение изменений[править]

Некоторые сторонники сингулярности утверждают свою неизбежность за счет экстраполяции прошлых тенденций, особенно тех, которые связаны с сокращением пробелов между усовершенствованиями технологии. В одном из первых применений термина «сингулярность» в контексте технического прогресса Станислав Улам рассказывает о разговоре с Джоном фон Нейманом об ускорении изменений:

Один разговор сосредоточился на постоянно ускоряющемся прогрессе технологий и изменениях в способе жизни человека, что дает возможность приблизиться к какой-то существенной особенности в истории расы, за которой человеческие дела, как мы их знаем, не могли продолжаться.[7]

Курцвейл утверждает, что технологический прогресс следует образцу экспоненциального роста , следуя тому, что он называет « законом ускорения возвращения ». Всякий раз, когда технология приближается к барьеру, пишет Курцвейл, новые технологии преодолеют ее. Он предсказывает, что сдвиги парадигмы станут все более распространенными, что приведет к «быстрым и глубоким технологическим изменениям, которые представляют собой разрыв в истории человечества».[8]

  1. Good, I. J. "Speculations Concerning the First Ultraintelligent Machine", Advances in Computers, vol. 6, 1965. Archived May 1, 2012, at the Wayback Machine.
  2. https://books.google.ru/books?id=ldAGcyh0bkUC&pg=PA630&redir_esc=y
  3. Ray Kurzweil, The Singularity is Near, Penguin Group, 2005
  4. http://science.sciencemag.org/content/332/6025/60
  5. Ray Kurzweil, The Singularity is Near, p. 9. Penguin Group, 2005
  6. Рэй Курцвейл, Сингулярность близко, стр. 135-136. Penguin Group, 2005. «Таким образом, в начале 2030-х годов мы будем производить около 1026 до 1029 сПа небиологических расчетов в год, что примерно равно нашей оценке способности всего живого биологического человеческого интеллекта ... Это состояние вычислений в в начале 2030-х годов не будет представлять Сингулярность, однако, потому что это еще не соответствует глубокому расширению нашего интеллекта. Однако к середине 2040-х годов вычисления в тысячу долларов будут равны 1026 сП, поэтому интеллект, созданный в год (при общей стоимости около $ 1012), будет примерно в миллиард раз более мощным, чем весь человеческий интеллект сегодня. Это действительно приведет к глубоким изменениям, и именно по этой причине я установил дату сингулярности - представляя глубокую и разрушительную
  7. Улам, Станислав (май 1958 г.). уважения Джону фон Нейману». 64, № 3, часть 2. Вестник Американского математического общества: 5.
  8. The Singularity Is Near