Открыть главное меню
Главная
Случайная
Войти
Настройки
О hpluswiki
Отказ от ответственности
hpluswiki
Найти
Редактирование:
AI risk
(раздел)
Внимание:
Вы не вошли в систему. Ваш IP-адрес будет общедоступен, если вы запишете какие-либо изменения. Если вы
войдёте
или
создадите учётную запись
, её имя будет использоваться вместо IP-адреса, наряду с другими преимуществами.
Анти-спам проверка.
Не
заполняйте это!
== Sources of harm from AI == AI harm might arise from: * Bugs: the software behaves different from the specification * Specification errors: designers didn't foresee all the circumstances properly (this includes unanticipated interactions between different modules) * Security errors: the software gets hacked for purposes other than its original design * AI Control Problem: an AI that can't be controlled. The potential for harm is compounded by: * Fierce competitive pressures, which may lead some designers to cut corners * Much software having a "black box" nature which means that its behaviour in new circumstances is difficult to predict * AI components being available as open source, and utilised by third parties in ways their designers didn't intend (or foresee).
Описание изменений:
Пожалуйста, учтите, что любой ваш вклад в проект «hpluswiki» может быть отредактирован или удалён другими участниками. Если вы не хотите, чтобы кто-либо изменял ваши тексты, не помещайте их сюда.
Вы также подтверждаете, что являетесь автором вносимых дополнений, или скопировали их из источника, допускающего свободное распространение и изменение своего содержимого (см.
Hpluswiki:Авторские права
).
НЕ РАЗМЕЩАЙТЕ БЕЗ РАЗРЕШЕНИЯ ОХРАНЯЕМЫЕ АВТОРСКИМ ПРАВОМ МАТЕРИАЛЫ!
Отменить
Справка по редактированию
(в новом окне)