- Юдковски, Елиезер
-
Элиезер Юдковский
Eliezer Yudkowsky at the 2006 Stanford Singularity Summit.Дата рождения: 11 сентября 1979 (33 года)
Научная сфера: Место работы: Элие́зер Шло́мо Юдко́вский (англ. Eliezer S. Yudkowsky, 11 сентября 1979) — американский специалист по искусственному интеллекту, исследующий проблемы технологической сингулярности и выступающий за создание Дружественного ИИ.[1]
Содержание
Научные интересы
Юдковский — сооснователь и научный сотрудник Института Сингулярности по созданию Искусственного Интеллекта Singularity Institute for Artificial Intelligence (SIAI).[2] Он — автор книги «Создание дружественного ИИ» («Creating Friendly AI» 2001), статей «Уровни организации универсального интеллекта» («Levels of Organization in General Intelligence» , 2002), «Когерентная экстраполированная воля» («Coherent Extrapolated Volition» , 2004), и «Вневременная теория принятия решений» («Timeless Decision Theory» , 2010).[3] Его последними научными публикациями являются две статьи в сборнике «Риски глобальной катастрофы» (2008) под редакцией Ника Бострома, а именно «Искусственный интеллект как позитивный и негативный фактор глобального риска» и «Когнитивные искажения в оценке глобальных рисков».[4][5][6] Юдковский не обучался в ВУЗах и является автодидактом без формального образования в области ИИ.[7]
Юдковский исследует те конструкции ИИ, которые способны к самопониманию, самомодификации и рекурсивному самоулучшению (Seed AI), а также такие архитектуры ИИ, которые будут обладать стабильной и позитивной структурой мотивации (Дружественный искусственный интеллект). Помимо исследовательской работы, Юдковский известен своими объяснениями сложных моделей на неакадемическом языке, доступном широкому кругу читателей, например, см. его статью «Интуитивное объяснение теоремы Байеса» «An Intuitive Explanation of Bayes' Theorem»[8].
Юдковский был, вместе с Робином Хансоном, одним из главных авторов блога Overcoming Bias (преодоление предубеждений). В начале 2009 года он участвовал в организации блога Less Wrong (менее неправ), нацеленного на оттачивание человеческой рациональности. После этого Overcoming Bias стал личным блогом Хансона. Материал, представленный на этих блогах, был организован в виде цепочек постов, которые смогли привлечь тысячи читателей — см. например, цепочку «теория развлечений» [1].
Он автор нескольких научно-фантастических рассказов, в которых он иллюстрирует некоторые темы, связанные с когнитивной наукой и рациональностью. В неакадемических кругах больше известен как автор фанфика «Гарри Поттер и методы рационального мышления» (анг. Harry Potter and the Methods of Rationality) под псевдонимом Less Wrong [2].
Юдковский — один из ведущих западных трансгуманистов. Он смог привлечь внимание тысяч читателей своими принципиально новыми идеями. В частности, это его статьи о когнитивных искажениях в оценке глобальных рисков, которые открыли новый подход к этой проблеме. Многие ожидают, что Юдковский в своём институте сможет создать тот ИИ, который и приведёт человечество к позитивной сингулярности. Юдковский принадлежит идея о 5 уровнях шока будущего. Кроме того, он поставил эксперимент с ИИ в чёрном ящике (AI box experiment), в котором показал, что ИИ может уговорить человека выпустить этот ИИ из чёрного ящика, используя только текстовый канал коммуникации.[3]
Примечания
- ↑ Singularity Institute for Artificial Intelligence: Team. Singularity Institute for Artificial Intelligence. Архивировано из первоисточника 4 июля 2012. Проверено 16 июля 2009.
- ↑ Kurzweil, Ray The Singularity Is Near. — New York, US: Viking Penguin, 2005. — P. 599. — ISBN 0-670-03384-7
- ↑ Eliezer Yudkowsky Profile. Accelerating Future. Архивировано из первоисточника 4 июля 2012.
- ↑ Artificial Intelligence as a Positive and Negative Factor in Global Risk. Singularity Institute for Artificial Intelligence. Архивировано из первоисточника 4 июля 2012. Проверено 28 июля 2009.
- ↑ Cognitive Biases Potentially Affecting Judgement of Global Risks. Singularity Institute for Artificial Intelligence. Архивировано из первоисточника 4 июля 2012.
- ↑ Global Catastrophic Risks / Bostrom, Nick. — Oxford, UK: Oxford University Press, 2008. — P. 91–119, 308–345. — ISBN 978-0-19-857050-9
- ↑ GDay World #238: Eliezer Yudkowsky. The Podcast Network.(недоступная ссылка — история) Проверено 26 июля 2009.
- ↑ перевод
Ссылки
- Our Molecular Future: How Nanotechnology, Robotics, Genetics and Artificial Intelligence Will Transform Our World by Douglas Mulhall, 2002, p. 321.
- The Spike: How Our Lives Are Being Transformed By Rapidly Advancing Technologies by Damien Broderick, 2001, pp. 236, 265—272, 289, 321, 324, 326, 337—339, 345, 353, 370.
- Статьи на русском
- Е. Юдковский. Систематические ошибки в рассуждениях, потенциально влияющие на оценку глобальных рисков. http://www.proza.ru/texts/2007/03/08-62.html
- Е. Юдковский. Искусственный интеллект как позитивный и негативный фактор глобального риска. http://www.proza.ru/texts/2007/03/22-285.html
- Е. Юдковский. Вглядываясь в Сингулярность. http://www.proza.ru/texts/2007/07/08-42.html
- Е. Юдковский. Таблица критических ошибок Дружественного ИИ. http://www.proza.ru/texts/2007/07/09-228.html
- Е. Юдковский. Три школы сингулярности. http://www.proza.ru/2009/02/05/432
- Е. Юдковский. Уровни организации универсального интеллекта. http://www.proza.ru/2009/10/08/1136
Ссылки
- Personal web site
- Biography page at KurzweilAI.net
- Biography page at the Singularity Institute
- Downloadable papers and bibliography
- Overcoming Bias — A blog to which Yudkowsky contributed regularly until 2009.
- Less Wrong — «A community blog devoted to refining the art of human rationality» founded by Yudkowsky.
- Переводы статей по рациональному мышлению на русский
- Predicting The Future :: Eliezer Yudkowsky, NYTA Keynote Address — Feb 2003
- Video discussions Yudkowsky has been involved in on Bloggingheads.tv
- Eliezer Yudkowsky on The Agenda with Steve Paikin discussion panel, «Robotics Revolution and the Future of Evolution» at the Quantum to Cosmos Festival, with Hod Lipson, Michael Belfiore, Cory Doctorow
- Less Wrong Q&A with Eliezer Yudkowsky: Video Answers
Для улучшения этой статьи желательно?: - Викифицировать статью.
- Переработать оформление в соответствии с правилами написания статей.
Категории:- Персоналии по алфавиту
- Учёные по алфавиту
- Родившиеся 11 сентября
- Родившиеся в 1979 году
- Философы XX века
- Философы XXI века
- Трансгуманисты
Wikimedia Foundation. 2010.