WikiDer > Открытое письмо об искусственном интеллекте - Википедия

Open Letter on Artificial Intelligence - Wikipedia

В январе 2015 г. Стивен Хокинг, Илон Маск, и десятки искусственный интеллект эксперты[1] подписал открытое письмо об искусственном интеллекте призывает к исследованиям воздействия ИИ на общество. В письме подтверждается, что общество может извлечь огромные потенциальные выгоды от искусственного интеллекта, но содержится призыв к конкретным исследованиям того, как предотвратить определенные потенциальные "ловушки": искусственный интеллект может искоренить болезни и бедность, но исследователи не должны создавать то, что нельзя контролировать.[1] Письмо из четырех абзацев, озаглавленное "Приоритеты исследований в области надежного и эффективного искусственного интеллекта: открытое письмо", подробно излагает приоритеты исследований в сопроводительном двенадцатистраничном документе.

Фон

К 2014 году и физик Стивен Хокинг, и бизнес-магнат Илон Маск публично высказали мнение, что сверхчеловеческий искусственный интеллект может принести неоценимую пользу, но также может покончить с человечеством если развернут неосторожно. В то время Хокинг и Маск входили в научный консультативный совет Институт будущего жизни, организация, работающая над «уменьшением экзистенциальных рисков, с которыми сталкивается человечество». Институт подготовил открытое письмо, адресованное более широкому сообществу исследователей ИИ.[2] и разослал его участникам своей первой конференции в Пуэрто-Рико в первые выходные 2015 года.[3] Письмо было обнародовано 12 января.[4]

Цель

В письме подчеркиваются как положительные, так и отрицательные эффекты искусственного интеллекта.[5] В соответствии с Bloomberg Business, Профессор Макс Тегмарк из Массачусетский технологический институт распространил письмо, чтобы найти точки соприкосновения между подписавшими сторонами, которые считают сверхразумный ИИ важным экзистенциальный риск, и подписавшие, такие как профессор Орен Эциони, которые полагают, что область искусственного интеллекта "оспаривается" односторонним вниманием СМИ к предполагаемым рискам.[4] В письме утверждается, что:

Потенциальные выгоды (от ИИ) огромны, поскольку все, что может предложить цивилизация, является продуктом человеческого разума; мы не можем предсказать, чего мы можем достичь, если этот интеллект будет усилен инструментами, которые может предоставить ИИ, но искоренение болезней и бедности не является непостижимым. Из-за огромного потенциала ИИ важно исследовать, как воспользоваться его преимуществами, избегая при этом потенциальных ловушек.[6]

Один из подписантов, профессор Барт Селман из Корнелл Университет, сказал, что цель состоит в том, чтобы побудить исследователей и разработчиков ИИ уделять больше внимания безопасности ИИ. Кроме того, для политиков и широкой общественности письмо предназначено быть информативным, но не паническим.[2] Другой подписавший, профессор Франческа Росси, заявил: «Я думаю, что очень важно, чтобы все знали, что исследователи ИИ серьезно задумываются над этими проблемами и этическими проблемами».[7]

Опасения, поднятые в письме

Подписанты спрашивают: как инженеры могут создавать системы ИИ, которые приносят пользу обществу и являются надежными? Людям нужно оставаться под контролем ИИ; наши системы ИИ должны «делать то, что мы хотим от них».[1] Требуемые исследования носят междисциплинарный характер и охватывают самые разные области, от экономики и права до различных областей медицины. Информатика, например, компьютерная безопасность и формальная проверка. Возникающие проблемы делятся на проверку («Правильно ли я построил систему?»), Валидность («Правильно ли я построил систему?»), Безопасность и контроль («Хорошо, я построил систему неправильно, могу ли я это исправить? ? ").[8]

Краткосрочные проблемы

Некоторые краткосрочные проблемы связаны с автономными транспортными средствами, от гражданских дронов и беспилотных автомобилей. Например, беспилотный автомобиль может в аварийной ситуации выбирать между небольшим риском крупной аварии и большой вероятностью небольшой аварии. Другие опасения касаются смертоносного интеллектуального автономного оружия: следует ли его запретить? Если да, то как следует точно определить «автономию»? Если нет, как распределять ответственность за неправильное использование или неисправность?

Другие проблемы включают проблемы конфиденциальности, поскольку ИИ становится все более способным интерпретировать большие наборы данных наблюдения, а также способы наилучшего управления экономическим воздействием рабочих мест, замещаемых ИИ.[2]

Долгосрочные проблемы

Документ закрывается эхом Microsoft директор по исследованиям Эрик Хорвицкасается того, что:

Однажды мы можем потерять контроль над системами ИИ из-за появления суперинтеллекта, который не действует в соответствии с человеческими желаниями, и что такие мощные системы будут угрожать человечеству. Возможны ли такие антиутопические исходы? Если да, то как могут возникнуть такие ситуации? ... Какие инвестиции в исследования необходимо сделать, чтобы лучше понять и рассмотреть возможность возникновения опасного сверхразума или возникновения «интеллектуального взрыва»?

Существующие инструменты для использования ИИ, такие как обучение с подкреплением и простые служебные функции, недостаточны для решения этой проблемы; поэтому необходимы дополнительные исследования, чтобы найти и подтвердить надежное решение «проблемы управления».[8]

Подписавшие

Подписавшие включают физика Стивен Хокинг, бизнес-магнат Илон Маск, соучредители DeepMind, Заместитель, Googleдиректор по исследованиям Питер Норвиг,[1] Профессор Стюарт Дж. Рассел из Калифорнийский университет в Беркли,[9] и другие эксперты по ИИ, производители роботов, программисты и специалисты по этике.[10] Первоначальное количество подписавших составляло более 150 человек,[11] включая ученых из Кембриджа, Оксфорда, Стэнфорда, Гарварда и Массачусетского технологического института.[12]

Примечания

  1. ^ а б c d Спаркс, Мэтью (13 января 2015 г.). «Ведущие ученые призывают с осторожностью относиться к искусственному интеллекту». The Telegraph (Великобритания). Получено 24 апреля 2015.
  2. ^ а б c Чанг, Эмили (13 января 2015 г.). «ИИ должен сосредоточить внимание на безопасности, - говорят Стивен Хокинг и другие исследователи». Канадская радиовещательная корпорация. Получено 24 апреля 2015.
  3. ^ Макмиллан, Роберт (16 января 2015 г.). «ИИ пришел, и это действительно беспокоит самые яркие умы мира». Проводной. Получено 24 апреля 2015.
  4. ^ а б Дина Басс; Джек Кларк (4 февраля 2015 г.). «Прав ли Илон Маск насчет ИИ? Исследователи так не думают». Bloomberg Business. Получено 24 апреля 2015.
  5. ^ Брэдшоу, Тим (12 января 2015 г.). «Ученые и инвесторы предупреждают об ИИ». The Financial Times. Получено 24 апреля 2015. В письме не разжигается страх, а подчеркиваются как положительные, так и отрицательные эффекты искусственного интеллекта.
  6. ^ «Приоритеты исследований в области надежного и эффективного искусственного интеллекта: открытое письмо». Институт будущего жизни. Получено 24 апреля 2015.
  7. ^ «Крупные ученые подписывают открытое письмо с подробным описанием опасности ИИ». Новый ученый. 14 января 2015. Получено 24 апреля 2015.
  8. ^ а б «Приоритеты исследований для надежного и полезного искусственного интеллекта» (PDF). Институт будущего жизни. 23 января 2015 г.. Получено 24 апреля 2015.
  9. ^ Вулховер, Натали (21 апреля 2015 г.). «Проблемы пионера искусственного интеллекта». Журнал Quanta. Получено 24 апреля 2015.
  10. ^ «Эксперты обещают обуздать исследования ИИ». Новости BBC. 12 января 2015 г.. Получено 24 апреля 2015.
  11. ^ Херн, Алекс (12 января 2015 г.). "Эксперты, в том числе Илон Маск, призывают к исследованиям, чтобы избежать ловушек ИИ'". Хранитель. Получено 24 апреля 2015.
  12. ^ Гриффин, Эндрю (12 января 2015 г.). «Стивен Хокинг, Илон Маск и другие призывают к исследованиям, чтобы избежать опасностей, связанных с искусственным интеллектом». Независимый. Получено 24 апреля 2015.

внешняя ссылка