WikiDer > Суперинтеллект: пути, опасности, стратегии - Википедия

Superintelligence: Paths, Dangers, Strategies - Wikipedia
Сверхразум:
Пути, опасности, стратегии
АвторНик Бостром
Странаобъединенное Королевство
Языканглийский
ПредметИскусственный интеллект
ЖанрФилософия, научно-популярный
ИздательOxford University Press
Кейт Мэнсфилд[1]
Дата публикации
3 июля 2014 г. (Великобритания)
1 сентября 2014 г. (США)
Тип СМИПечать, электронная книга, аудиокнига
Страницы352 с.
ISBN978-0199678112
ПредшествуетГлобальные катастрофические риски 

Сверхразум: пути, опасности, стратегии это книга шведского философ Ник Бостром от Оксфордский университет. В нем утверждается, что если мозг машины превосходит человеческий мозг в целом, то это новое сверхразум может заменить людей в качестве доминирующей формы жизни на Земле. Достаточно интеллектуальные машины могут улучшить свои возможности быстрее, чем ученые-компьютерщики,[2] и результатом может стать экзистенциальная катастрофа для людей.[3]

Книга Бострома переведена на многие языки.

Синопсис

Неизвестно, будет ли на человеческом уровне искусственный интеллект придет через несколько лет, позднее в этом столетии или не раньше, чем в грядущие столетия. Независимо от первоначальной временной шкалы, как только будет разработан машинный интеллект человеческого уровня, «суперинтеллектуальная» система, которая «значительно превосходит когнитивные способности человека практически во всех областях, представляющих интерес», скорее всего, появится на удивление быстро. Такой суперинтеллект было бы очень трудно контролировать или сдерживать.

Хотя конечные цели суперинтеллекта могут сильно различаться, функциональный суперинтеллект спонтанно порождает в качестве естественных подцелей "инструментальные цели"такие как самосохранение и целостность содержания цели, когнитивное улучшение и приобретение ресурсов. Например, агент, единственной конечной целью которого является решение Гипотеза Римана (известный нерешенный математический догадка) мог бы создать и действовать в соответствии с подзадачей преобразования всей Земли в некую форму вычислитель (гипотетический "программируемая материя"), чтобы помочь в расчетах. Сверхразум будет проактивно противодействовать любым внешним попыткам выключить сверхразум или иным образом помешать выполнению его подзадачи. экзистенциальная катастрофа, необходимо успешно решить "Проблема управления AI"для первого суперинтеллекта. Решение могло бы включать привитие сверхразума с целями, которые совместимы с человеческим выживанием и благополучием. Решение проблемы управления на удивление сложно, потому что большинство целей, переведенных в машинно-реализуемый код, приводят к непредвиденным и нежелательным последствия.

Сова на обложке книги отсылает к аналогии, которую Бостром называет «Неоконченная басня о воробьях».[4] Группа воробьев решает найти птенца совы и вырастить его как своего слугу.[5] Они с нетерпением представляют, «насколько легкой была бы жизнь», если бы у них была сова, которая помогала бы строить их гнезда, защищала воробьев и освобождала их для жизни в свободное время. Воробьи начинают нелегкие поиски совиного яйца; только «Скронкфинкл», «одноглазый воробей с капризным темпераментом», предлагает задуматься над сложным вопросом, как приручить сову, прежде чем привести ее «в нашу среду». Остальные воробьи возражают; поиск совиного яйца уже сам по себе будет достаточно трудным: «Почему бы не получить сначала сову, а потом проработать мелкие детали?» Бостром заявляет, что «неизвестно, чем закончится эта история», но он посвящает свою книгу Скронкфинклю.[4][6]

Прием

Книга заняла 17-е место в рейтинге Нью-Йорк Таймс список самых продаваемых научных книг за август 2014 г.[7] В том же месяце бизнес-магнат Илон Маск попал в заголовки газет, согласившись с книгой о том, что искусственный интеллект потенциально опаснее ядерного оружия.[8][9][10]Работа Бострома над сверхразум также повлиял Билл ГейтсОзабоченность существованием рисков, с которыми столкнется человечество в грядущем столетии.[11][12] В мартовском интервью 2015 г. Baiduгенеральный директор, Робин Ли, Гейтс сказал, что "очень рекомендовал бы" Суперинтеллект.[13] Согласно Житель Нью-Йорка, философы Питер Сингер и Дерек Парфит "восприняли это как важную работу".[6]

Научный редактор Financial Times обнаружил, что письмо Бострома «иногда сводится к непрозрачному языку, который выдает его прошлое как профессора философии», но убедительно демонстрирует, что риск, связанный с суперинтеллектом, достаточно велик, чтобы общество должно было начать думать о том, как наделить будущий машинный интеллект позитивными ценностями.[2]Обзор в Хранитель указал, что «даже самые сложные машины, созданные до сих пор, разумны только в ограниченном смысле» и что «ожидания того, что ИИ скоро превзойдет человеческий интеллект, впервые были разбиты в 1960-х», но находит общий язык с Бостромом, сообщая, что «один было бы неразумно отвергать возможность вообще ".[3]

Некоторые коллеги Бострома предполагают, что ядерная война представляет большую угрозу для человечества, чем суперинтеллект, равно как и будущая перспектива создания оружия в мире. нанотехнологии и биотехнология.[3] Экономист заявил, что «Бостром вынужден потратить большую часть книги на обсуждение предположений, построенных на правдоподобном предположении ... но книга, тем не менее, ценна. Последствия появления на Земле второго разумного вида достаточно далеко идущие, чтобы заслужить серьезного размышления, даже если перспектива действительно сделать это кажется отдаленной ".[14] Рональд Бейли написал на либертарианском Причина что Бостром убедительно доказывает, что решение проблемы управления ИИ является «важнейшей задачей нашего века».[15] По словам Тома Чиверса из Дейли Телеграф, книгу трудно читать, но, тем не менее, она полезна.[5] Рецензент в Журнал экспериментального и теоретического искусственного интеллекта порвал с другими, заявив, что в книге "ясный стиль письма", и похвалил книгу за то, что она избегает "излишне технического жаргона".[16] Рецензент в Философия судили Суперинтеллект быть "более реалистичным", чем у Рея Курцвейла Сингулярность близка.[17]

Смотрите также

Рекомендации

  1. ^ "Суперинтеллектуальный швед схватил ОУП". Книготорговец. 21 ноября 2013 г.
  2. ^ а б Куксон, Клайв (13 июля 2014 г.). «Суперинтеллект: пути, опасности, стратегии, Ник Бостром». The Financial Times. Получено 30 июля 2014.
  3. ^ а б c Хендерсон, Каспар (17 июля 2014 г.). "Суперинтеллект Ника Бострома и Грубая поездка в будущее Джеймса Лавлока - обзор". Хранитель. Получено 30 июля 2014.
  4. ^ а б Адамс, Тим (12 июня 2016 г.). Ник Бостром: «Мы как маленькие дети, играющие с бомбой.'". Наблюдатель. Получено 29 марта 2020.
  5. ^ а б Чиверс, Том (10 августа 2014 г.). "Суперинтеллект Ника Бострома, обзор: трудное чтение'". Телеграф. Получено 16 августа 2014.
  6. ^ а б Хатчадурян, Раффи (2015). «Изобретение судного дня». Житель Нью-Йорка. Получено 29 марта 2020.
  7. ^ «Самые продаваемые научные книги». Нью-Йорк Таймс. 8 сентября 2014 г.. Получено 9 ноября 2014.
  8. ^ Дин, Джеймс (5 августа 2014 г.). «Искусственный интеллект» может уничтожить человечество'". Времена. Получено 5 августа 2014.
  9. ^ Огенбраун, Элиен (4 августа 2014 г.). «Илон Маск твитнул, что искусственный интеллект« может быть более опасным, чем ядерное оружие »"". CBC Новости. Получено 5 августа 2014.
  10. ^ Браттон, Бенджамин Х. (23 февраля 2015 г.). "Outing A.I .: За пределами теста Тьюринга". Нью-Йорк Таймс. Получено 4 марта 2015.
  11. ^ Мак, Эрик (28 января 2015 г.). «Билл Гейтс говорит, что вам следует беспокоиться об искусственном интеллекте». Forbes. Получено 19 февраля 2015.
  12. ^ Ламби, Эндрю (28 января 2015 г.). «Билл Гейтс обеспокоен ростом числа машин». The Fiscal Times. Получено 19 февраля 2015.
  13. ^ Кайзер Куо (31 марта 2015 г.). «Генеральный директор Baidu Робин Ли берет интервью у Билла Гейтса и Илона Маска на форуме Boao Forum, 29 марта 2015 года». YouTube. Получено 8 апреля 2015.
  14. ^ «Умные винтики». Экономист. 9 августа 2014 г.. Получено 9 августа 2014.
  15. ^ Бейли, Рональд (12 сентября 2014 г.). «Сверхразумные машины уничтожат человечество?». Причина. Получено 16 сентября 2014.
  16. ^ Томас, Джоэл (июль 2015 г.). «В защиту философии: обзор Ника Бострома». Журнал экспериментального и теоретического искусственного интеллекта. 28 (6): 1089–1094. Дои:10.1080 / 0952813X.2015.1055829.
  17. ^ Ричмонд, Шелдон (8 июля 2015 г.). «Сверхразум: пути, опасности, стратегии». Философия. 91 (1): 125–130. Дои:10.1017 / S0031819115000340.