WikiDer > Центр изучения экзистенциального риска - Википедия

Centre for the Study of Existential Risk - Wikipedia
Центр изучения экзистенциального риска
Центр изучения экзистенциального риска.svg
Формирование2012; 8 лет назад (2012)
Учредители
ЦельИзучение и уменьшение экзистенциального риска
Штаб-квартираКембридж, Англия
Головная организация
Кембриджский университет
Интернет сайтcser.ac.Великобритания

В Центр изучения экзистенциального риска (CSER) - исследовательский центр Кембриджский университет, предназначенные для изучения возможных угрозы уровня исчезновения созданный настоящими или будущими технологиями.[1] Соучредителями центра являются Хью Прайс (Бертран Рассел, профессор философии в Кембридже), Мартин Рис (Королевский астроном и бывший Президент Королевского общества) и Яан Таллинн (соучредитель Skype).[2]

Направления внимания

Управление экстремальными технологическими рисками

Риски связаны с появляющимися и будущими технологическими достижениями и воздействиями человеческой деятельности. Управление этими крайними технологическими рисками является неотложной задачей, но она создает особые трудности и сравнительно игнорируется в академических кругах.[3]

  • Исследователи CSER разработали широко используемый инструмент для автоматического сканирования научной литературы на предмет новых исследований, касающихся глобального риска.[4]
  • CSER провел две международные Кембриджские конференции по катастрофическим рискам.[5][6] Центр также консультировал по вопросам создания глобальных проектов по рискам в Австралийском национальном университете,[7] Калифорнийский университет в Лос-Анджелесе[8] и Уорикский университет.[9]
  • CSER помог создать первую Всепартийную парламентскую группу по будущим поколениям в парламенте Соединенного Королевства, что принесло политическим лидерам Великобритании глобальный риск и долгосрочное мышление.[10]
  • CSER провел более тридцати семинаров с участием представителей академических кругов, политиков и промышленности по таким темам, как кибербезопасность, ядерная безопасность, изменение климата и генные движения.[11]
  • Публичные лекции CSER были просмотрены в Интернете более 100 000 раз.[12]

Глобальные катастрофические биологические риски

  • В 2017 году CSER собрал политиков и ученых для определения проблем, стоящих перед Конвенция о биологическом оружии (КБО). Ключевой выявленной проблемой было то, что быстрые темпы прогресса в соответствующих науках и технологиях очень затрудняли отслеживание руководящих органов, включая КБО.[13]
  • Исследователи CSER провели обзор 20 новых проблем биологической инженерии с привлечением 30 европейских и американских экспертов.[14] Они представили документ на Совещании государств-участников КБО в 2017 г.[15] и в Научно-консультативном совете Организации по запрещению химического оружия в 2018 году.[16]

Экстремальные риски и глобальная окружающая среда

  • Мартин Рис и Партха Дасгупта, старший советник, совместно с Ватиканом организовал серию влиятельных семинаров. Семинар 2015 года оказал влияние на Папскую энциклику об изменении климата,[17] что, в свою очередь, повлияло на Парижское соглашение об изменении климата. Результаты семинара 2017 года скоро будут опубликованы в виде книги по биологическому вымиранию.[18]
  • Исследователи CSER опубликовали на потеря биоразнообразия и управление в природе,[19] воздействие на окружающую среду высокопродуктивного земледелия[20] и перспективы геоинжиниринга.[21]
  • Исследователи CSER опубликовали отчет с призывом включить в рейтинги бизнес-школ вопросы устойчивости.[22] Четыре дня спустя Financial Times объявила о «полном обзоре нашей методологии».[23]

Риски от продвинутого искусственного интеллекта

  • В 2015 году CSER помог организовать конференцию по будущим направлениям ИИ в Пуэрто-Рико, в результате чего Открытое письмо об искусственном интеллекте подписан лидерами исследований во всем мире с призывом к исследованиям для обеспечения безопасности и полезности систем ИИ для общества.[24]
  • В 2016 году CSER запустил свой первый спин-офф: Leverhulme Centre for the Future of Intelligence (CFI). CFI под руководством профессора Прайса фокусируется на возможностях и проблемах, которые создает ИИ.[25]
  • С 2017 года CSER организовал серию научных конференций, объединяющих теорию принятия решений и безопасность искусственного интеллекта.[26]
  • В 2018 году совместно с партнерами из технологических компаний и аналитических центров по безопасности CSER опубликовал Злонамеренное использование искусственного интеллекта: прогнозирование, предотвращение и смягчение последствий, о влиянии ИИ на физическую и кибербезопасность.[27] Они также опубликовали Гонка ИИ: риторика и риски, который выиграл первый приз за лучшую работу на конкурсе 2018 г. AAAI/ACM Конференция AI Ethics and Society.[28]

Освещение в СМИ

CSER был освещен во многих различных газетах (особенно в Соединенном Королевстве),[29][30][31] в основном охватывает разные интересующие темы. CSER был профилирован на передней обложке Wired,[32] и в специальном Франкенштейн выпуск Наука в 2018 году.[33]

Советники

Консультанты CSER включают таких кембриджских ученых, как:

И такие советники, как:

Смотрите также

Рекомендации

  1. ^ Биба, Эрин (1 июня 2015 г.). «Познакомьтесь с соучредителем аналитического центра Apocalypse». Scientific American. 312 (6): 26. Дои:10.1038 / scientificamerican0615-26. PMID 26336680.
  2. ^ Льюси, Фред (25 ноября 2012 г.). «Последнее изобретение человечества и наше неопределенное будущее». Новости исследований. Получено 24 декабря 2012.
  3. ^ «Управление экстремальными технологическими рисками».
  4. ^ "Сеть исследования экзистенциальных рисков | Сеть исследований X-рисков | www.x-risk.net".
  5. ^ «Кембриджская конференция по катастрофическим рискам 2016».
  6. ^ «Кембриджская конференция по катастрофическим рискам 2018».
  7. ^ «Последние новости | Люди за выживание».
  8. ^ "Институт наук о рисках Б. Джона Гаррика".
  9. ^ «Исследователи PAIS получают престижное финансирование в Леверхалме».
  10. ^ "AppG-future-gens".
  11. ^ "События".
  12. ^ "CSER Cambridge". YouTube. Получено 6 апреля 2019.
  13. ^ «Конвенция о биологическом оружии: что дальше?».
  14. ^ Винтл, Бонни С.; Boehm, Christian R .; Родос, Кэтрин; Моллой, Дженнифер С .; Миллет, Пирс; Адам, Лаура; Брейтлинг, Райнер; Карлсон, Роб; Касагранде, Рокко; Дандо, Малькольм; Даблдей, Роберт; Дрекслер, Эрик; Эдвардс, Бретт; Эллис, Том; Эванс, Николас Г .; Хаммонд, Ричард; Хазелофф, Джим; Каль, Линда; Куикен, Тодд; Личман, Бенджамин Р .; Matthewman, Colette A .; Napier, Johnathan A .; Óhéigeartaigh, Seán S .; Покровитель, Никола Дж .; Перелло, Эдвард; Шапира, Филипп; Тейт, Джойс; Такано, Эрико; Сазерленд, Уильям Дж. (2017). «Трансатлантический взгляд на 20 возникающих проблем биологической инженерии». eLife. 6. Дои:10.7554 / eLife.30247. ЧВК 5685469. PMID 29132504.
  15. ^ "Пресс-конференция BWC".
  16. ^ «Поговорите с Организацией по запрещению химического оружия».
  17. ^ Калифорнийский университет (24 сентября 2015 г.). "Место для парковки" Папе Римскому ". Получено 6 апреля 2019 - через YouTube.
  18. ^ Дасгупта, Партха; Ворон, Питер; Макайвор, Анна, ред. (2019). Биологическое вымирание под редакцией Парта Дасгупта. Дои:10.1017/9781108668675. ISBN 9781108668675.
  19. ^ Амано, Тацуя; Секели, Тамаш; Сандель, Броуди; Надь, Сабольч; Мундкур, Тэдж; Лангендоэн, Том; Бланко, Даниэль; Soykan, Candan U .; Сазерленд, Уильям Дж. (2017). «Успешное сохранение глобальных популяций водоплавающих птиц зависит от эффективного управления». Природа. 553 (7687): 199–202. Дои:10.1038 / природа25139. PMID 29258291.
  20. ^ Балмфорд, Эндрю; Амано, Тацуя; Бартлетт, Харриет; Чедвик, Дэйв; Коллинз, Адриан; Эдвардс, Дэвид; Филд, Роб; Гарнсуорси, Филип; Грин, Рис; Смит, Пит; Уотерс, Хелен; Уитмор, Эндрю; Веник, Дональд М .; Чара, Джулиан; Финч, Том; Гарнетт, Эмма; Гаторн-Харди, Альфред; Эрнандес-Медрано, Хуан; Эрреро, Марио; Хуа, Фанъюань; Латавец, Агнешка; Миссельбрук, Том; Фалан, Бен; Симмонс, Бенно I .; Такахаши, Таро; Воуз, Джеймс; Зу Эрмгассен, Эразмус; Эйснер, Роуэн (2018). «Экологические издержки и преимущества высокопродуктивного земледелия». Экологическая устойчивость. 1 (9): 477–485. Дои:10.1038 / s41893-018-0138-5. ЧВК 6237269. PMID 30450426.
  21. ^ Карри, Адриан (2018). «Геоинженерная напряженность» (PDF). Фьючерсы. 102: 78–88. Дои:10.1016 / j.futures.2018.02.002.
  22. ^ «Рейтинг бизнес-школ 21 века».
  23. ^ «По мере того, как бизнес-школы переосмысливают то, что они делают, FT - тоже». 2019-01-27.
  24. ^ Макмиллан, Роберт (16 января 2015 г.). «ИИ пришел, и это действительно беспокоит самые яркие умы мира». Проводной. Получено 24 апреля 2015.
  25. ^ "Leverhulme Center for the Future of Intelligence".
  26. ^ «Решение и AI».
  27. ^ вредоносныйaireport.com
  28. ^ «Премия за лучшую работу - Конференция Aies».
  29. ^ Коннор, Стив (14 сентября 2013 г.). "Сможем ли мы выжить?". The New Zealand Herald.
  30. ^ «Освещение CSER в СМИ». Центр изучения экзистенциального риска. Архивировано из оригинал 30 июня 2014 г.. Получено 19 июн 2014.
  31. ^ «Последнее изобретение человечества и наше неопределенное будущее». Новости исследований Кембриджского университета. 2012-11-25.
  32. ^ Бенсон, Ричард (12 февраля 2017 г.). «Познакомьтесь со Стражами Земли, реальными мужчинами и женщинами Икс, спасающими нас от экзистенциальных угроз». Проводная Великобритания.
  33. ^ Купфершмидт, Кай (2018-01-12). «Укрощение монстров завтрашнего дня». Наука. 359 (6372): 152–155. Bibcode:2018Научный ... 359..152K. Дои:10.1126 / science.359.6372.152. PMID 29326256.
  34. ^ "Команда".

внешняя ссылка