Редактирование:
AI safety
Перейти к навигации
Перейти к поиску
Внимание:
Вы не вошли в систему. Ваш IP-адрес будет общедоступен, если вы запишете какие-либо изменения. Если вы
войдёте
или
создадите учётную запись
, её имя будет использоваться вместо IP-адреса, наряду с другими преимуществами.
Анти-спам проверка.
Не
заполняйте это!
[[File:AISafety teaching comic.jpg|thumb|right|comic relief]] '''AI safety''' is a field of research used to describe a sequence of increasingly specific problems when developing [[Artificial intelligence]] and [[AGI]]. The goals center around reducing risks posed by AI, especially powerful AI and includes problems in misuse, robustness, reliability, security, privacy, etc. (Subsumes AI control.) AI control: ensuring that AI systems try to do the right thing, and in particular that they don’t competently pursue the wrong thing. [[Value alignment]]: understanding how to build AI systems that share human preferences/values, typically by learning them from humans.<ref>https://ai-alignment.com/ai-safety-vs-control-vs-alignment-2a4b42a863cc</ref> == Dr. Roman V. Yampolskiy/Alex Klokus - What We Need To Know About A.I. - WGS 2018 == <embedvideo service="youtube">https://youtu.be/GSrHPBMJThI</embedvideo> World Government Summit. In 2013, His Highness Sheikh Mohammed bin Rashid Al Maktoum, Vice President and Prime Minister of the UAE and Ruler of Dubai, commissioned the establishment and launch of the World Government Summit, a global knowledge exchange platform for governments. The Summit was created to be on the cutting edge of technological advancements and keep abreast of the latest trends in government practice and innovation, through bringing together policymakers with business and civil society leaders. The World Government Summit ushers in a new era of responsibility and accountability where governments can better serve people.<ref>https://www.youtube.com/user/GovSummit/about</ref> == [[Robert Miles]] - Why Would AI Want to do Bad Things? Instrumental Convergence == <embedvideo service="youtube">https://youtu.be/ZeecOKBus3Q</embedvideo> How can we predict that AGI with unknown goals would behave badly by default? March 2018<ref>https://www.youtube.com/watch?v=ZeecOKBus3Q</ref> == External links == * [http://aisafety.stanford.edu/ Stanford University Center for AI Safety] * [https://futureoflife.org/ai-safety-research/ Future of Life Institute AI SAFETY RESEARCH] * [https://80000hours.org/ai-safety-syllabus/ 80,000 Hours AI safety syllabus] * [https://ieet.org/index.php/IEET2/more/turchin20150722 IEET July 2015 Mapping approaches to AI Safety] == References == [[Category:Emerging technologies]] [[Category:Artificial intelligence]] [[Category:Ethics]]
Описание изменений:
Пожалуйста, учтите, что любой ваш вклад в проект «hpluswiki» может быть отредактирован или удалён другими участниками. Если вы не хотите, чтобы кто-либо изменял ваши тексты, не помещайте их сюда.
Вы также подтверждаете, что являетесь автором вносимых дополнений, или скопировали их из источника, допускающего свободное распространение и изменение своего содержимого (см.
Hpluswiki:Авторские права
).
НЕ РАЗМЕЩАЙТЕ БЕЗ РАЗРЕШЕНИЯ ОХРАНЯЕМЫЕ АВТОРСКИМ ПРАВОМ МАТЕРИАЛЫ!
Отменить
Справка по редактированию
(в новом окне)
Навигация
Персональные инструменты
Вы не представились системе
Обсуждение
Вклад
Создать учётную запись
Войти
Пространства имён
Статья
Обсуждение
русский
Просмотры
Читать
Править
История
Ещё
Навигация
Начало
Свежие правки
Случайная страница
Инструменты
Ссылки сюда
Связанные правки
Служебные страницы
Сведения о странице
Дополнительно
Как редактировать
Вики-разметка
Telegram
Вконтакте
backup