WikiDer > Случайный лес
Часть серии по |
Машинное обучение и сбор данных |
---|
Площадки для машинного обучения |
Случайные леса или же леса случайных решений являются ансамблевое обучение метод для классификация, регресс и другие задачи, которые решаются путем построения множества деревья решений во время обучения и вывода класса, который является Режим классов (классификация) или прогноз среднего / среднего (регрессия) отдельных деревьев.[1][2] Леса случайных решений корректируют привычку деревьев решений переоснащение к их Обучающий набор.[3]:587–588 Случайные леса обычно лучше деревья решений, но их точность ниже, чем у деревьев с градиентным усилением. Однако характеристики данных могут повлиять на их производительность.[4]
Первый алгоритм для лесов случайных решений был создан Тин Кам Хо[1] с использованием метод случайного подпространства,[2] что, по формулировке Хо, является способом реализации подхода «стохастической дискриминации» к классификации, предложенного Юджином Клейнбергом.[5][6][7]
Расширение алгоритма было разработано Лео Брейман[8] и Адель Катлер,[9] кто зарегистрировался[10] «Случайные леса» как товарный знак (по состоянию на 2019 г.[Обновить], принадлежит Minitab, Inc.).[11] Расширение сочетает в себе Бреймана "упаковка"идея и случайный выбор функций, впервые представленных Хо[1] а позже независимо Амит и Geman[12] чтобы построить набор деревьев решений с контролируемой дисперсией.
Случайные леса часто используются в качестве моделей «черного ящика» на предприятиях, поскольку они генерируют разумные прогнозы для широкого диапазона данных, не требуя при этом небольшой настройки таких пакетов, как scikit-learn.
История
Общий метод лесов случайных решений был впервые предложен Хо в 1995 году.[1] Хо установил, что леса из деревьев, расщепляющиеся наклонными гиперплоскостями, могут достигать точности по мере роста, не страдая от перетренированности, если леса случайным образом ограничены, чтобы быть чувствительными только к избранным. особенность размеры. Последующая работа в том же направлении[2] пришли к выводу, что другие методы расщепления ведут себя аналогичным образом, если они случайно вынуждены быть нечувствительными к некоторым размерам элементов. Обратите внимание, что это наблюдение более сложного классификатора (более крупного леса), почти монотонно повышающего точность, резко контрастирует с распространенным мнением о том, что сложность классификатора может вырасти только до определенного уровня точности, прежде чем будет нарушена переобучение. Объяснение устойчивости метода леса к перетренированности можно найти в теории стохастической дискриминации Клейнберга.[5][6][7]
На раннее развитие идеи Бреймана о случайных лесах повлияли работы Амита и Гемана.[12] кто представил идею поиска по случайному подмножеству доступных решений при разделении узла в контексте роста одногодерево. Идея случайного выбора подпространства из Ho[2] также оказал влияние на дизайн случайных лесов. В этом методе выращивается лес деревьев, и вводятся различия между деревьями путем проецирования обучающих данных на случайно выбранный подпространство перед подгонкой каждого дерева или каждого узла. Наконец, идея рандомизированной оптимизации узлов, при которой решение на каждом узле выбирается рандомизированной процедурой, а не детерминированной оптимизацией, была впервые представлена Диттерихом.[13]
Введение собственно случайных лесов было впервые сделано в бумажном виде. Лео Брейман.[8] В этой статье описан метод построения леса несвязанных деревьев с использованием КОРЗИНА подобная процедура в сочетании с рандомизированной оптимизацией узлов и упаковка. Кроме того, в этой статье объединены несколько ингредиентов, некоторые из которых были известны ранее, а некоторые - новые, которые составляют основу современной практики случайных лесов, в частности:
- С помощью ошибка вне сумки как оценка ошибка обобщения.
- Измерение важности переменных путем перестановки.
В отчете также предлагается первый теоретический результат для случайных лесов в виде оценки ошибка обобщения что зависит от силы деревьев в лесу и их корреляция.
Алгоритм
Предварительные сведения: изучение дерева решений
Деревья решений - популярный метод для различных задач машинного обучения. «Древовидное обучение» «наиболее близко подходит к удовлетворению требований для использования в качестве стандартной процедуры для интеллектуального анализа данных», - говорят Hastie и другие., «потому что он инвариантен при масштабировании и различных других преобразованиях значений характеристик, устойчив к включению нерелевантных функций и дает проверяемые модели. Однако они редко бывают точными».[3]:352
В частности, деревья, которые выросли очень глубоко, имеют тенденцию усваивать весьма необычные закономерности: они переобучать их обучающие наборы, т.е. низкая систематическая ошибка, но очень высокая дисперсия. Случайные леса - это способ усреднения нескольких глубоких деревьев решений, обученных на разных частях одного и того же обучающего набора, с целью уменьшения дисперсии.[3]:587–588 Это происходит за счет небольшого увеличения смещения и некоторой потери интерпретируемости, но в целом значительно повышает производительность окончательной модели.
Леса подобны объединению усилий алгоритмов дерева решений. Использование совместной работы многих деревьев, что улучшает производительность одного случайного дерева. Хотя это и не совсем похоже, леса дают эффект перекрестной проверки K-кратности.
Упаковка
В алгоритме обучения случайных лесов используется общая методика начальная агрегация, или упаковка, для учеников дерева. Учитывая обучающий набор Икс = Икс1, ..., Иксп с ответами Y = у1, ..., уп, упаковка повторно (B раз) выбирает случайная выборка с заменой обучающего набора и подгоняет деревья к этим образцам:
- За б = 1, ..., B:
- Образец, с заменой, п примеры обучения из Икс, Y; назовите это Иксб, Yб.
- Обучение дерева классификации или регрессии жб на Иксб, Yб.
После обучения прогнозы для невидимых образцов Икс' можно сделать путем усреднения прогнозов всех отдельных деревьев регрессии на Икс':
или путем получения большинства голосов в случае деревьев классификации.
Эта процедура начальной загрузки приводит к лучшей производительности модели, поскольку снижает отклонение модели без увеличения смещения. Это означает, что, хотя прогнозы одного дерева очень чувствительны к шуму в его обучающем наборе, среднее значение для многих деревьев нет, если деревья не коррелированы. Простое обучение множества деревьев на одном обучающем наборе даст сильно коррелированные деревья (или даже одно и то же дерево много раз, если алгоритм обучения детерминирован); Самостоятельная выборка - это способ декорреляции деревьев путем показа им различных обучающих наборов.
Кроме того, оценка неопределенности прогноза может быть сделана как стандартное отклонение прогнозов от всех отдельных деревьев регрессии на Икс':
Количество образцов / деревьев, B, - свободный параметр. Обычно используется от нескольких сотен до нескольких тысяч деревьев, в зависимости от размера и характера обучающего набора. Оптимальное количество деревьев B можно найти с помощью перекрестная проверка, или наблюдая ошибка вне сумки: средняя ошибка прогноза для каждой обучающей выборки xᵢ, используя только деревья, у которых не было xᵢ в их образце начальной загрузки.[14]Ошибка обучения и тестирования имеет тенденцию выравниваться после подгонки некоторого количества деревьев.
От мешков до случайных лесов
Вышеупомянутая процедура описывает исходный алгоритм упаковки деревьев. Случайные леса отличаются от этой общей схемы только одним способом: они используют модифицированный алгоритм обучения дерева, который выбирает при каждом разбиении кандидатов в процессе обучения случайное подмножество функций. Этот процесс иногда называют «сборкой функций». Причина этого - корреляция деревьев в обычном бутстрап-образце: если одно или несколько Особенности являются очень сильными предикторами для переменной отклика (целевой результат), эти функции будут выбраны во многих B деревья, заставляя их стать коррелированными. Хо провел анализ того, как мешки и случайная проекция подпространства способствуют повышению точности при различных условиях.[15]
Обычно для задачи классификации с п Особенности, √п (с округлением в меньшую сторону) используются в каждом сплите.[3]:592 Для задач регрессии изобретатели рекомендуют п / 3 (с округлением в меньшую сторону) с минимальным размером узла 5 по умолчанию.[3]:592 На практике наилучшие значения для этих параметров будут зависеть от проблемы, и их следует рассматривать как параметры настройки.[3]:592
ExtraTrees
Добавление еще одного шага рандомизации дает чрезвычайно рандомизированные деревья, или ExtraTrees. Хотя они похожи на обычные случайные леса в том смысле, что они представляют собой ансамбль отдельных деревьев, есть два основных различия: во-первых, каждое дерево обучается с использованием всей обучающей выборки (а не выборки начальной загрузки), а во-вторых, нисходящее разбиение в ученик дерева рандомизирован. Вместо локального вычисления оптимальный точка отсечения для каждого рассматриваемого объекта (на основе, например, получение информации или Примесь Джини), а случайный точка отсечки выбрана. Это значение выбирается из равномерного распределения в пределах эмпирического диапазона функции (в обучающем наборе дерева). Затем из всех случайно сгенерированных разбиений выбирается разбиение, которое дает наивысший балл, чтобы разбить узел. Подобно обычным случайным лесам, можно указать количество случайно выбранных объектов, которые будут учитываться в каждом узле. Значения по умолчанию для этого параметра: для классификации и для регрессии, где количество функций в модели.[16]
Характеристики
Переменная важность
Случайные леса можно использовать для естественного ранжирования важности переменных в задаче регрессии или классификации. Следующая техника была описана в оригинальной статье Бреймана.[8] и реализован в р упаковка randomForest.[9]
Первый шаг в измерении важности переменной в наборе данных состоит в том, чтобы подогнать под данные случайный лес. В процессе примерки ошибка вне сумки для каждой точки данных записывается и усредняется по лесу (ошибки в независимом тестовом наборе могут быть заменены, если во время обучения не используется упаковка).
Чтобы измерить важность -й признак после обучения, значения -я характеристика переставляется среди обучающих данных, и ошибка «вне пакета» снова вычисляется на этом возмущенном наборе данных. Оценка важности для -й признак вычисляется путем усреднения разницы ошибок вне пакета до и после перестановки по всем деревьям. Оценка нормализована стандартным отклонением этих различий.
Характеристики, которые производят большие значения для этой оценки, оцениваются как более важные, чем функции, которые производят маленькие значения. Статистическое определение меры важности переменной было дано и проанализировано Чжу и другие.[17]
Этот метод определения важности переменных имеет ряд недостатков. Для данных, включающих категориальные переменные с разным количеством уровней, случайные леса смещены в пользу атрибутов с большим количеством уровней. Такие методы как частичные перестановки[18][19][4]и выращивание беспристрастных деревьев[20][21] можно использовать для решения проблемы. Если данные содержат группы коррелированных характеристик, имеющих одинаковую значимость для выходных данных, то группы меньшего размера предпочтительнее, чем группы большего размера.[22]
Отношение к ближайшим соседям
Связь между случайными лесами и kалгоритм ближайшего соседа (k-NN) на это указали Лин и Чон в 2002 году.[23] Оказывается, и то и другое можно рассматривать как так называемые схемы взвешенных окрестностей. Это модели, построенные из обучающего набора которые делают прогнозы для новых очков Икс' глядя на «окрестность» точки, формализованную весовой функцией W:
Здесь, неотрицательный вес я'th тренировочная точка относительно новой точки Икс' в том же дереве. Для любого конкретного Икс', веса для точек сумма должна быть равна одному. Весовые функции представлены следующим образом:
- В k-NN, веса если Икся один из k точки, ближайшие к Икс', и ноль в противном случае.
- В дереве, если Икся один из k ' точки в том же листе, что и Икс', и ноль в противном случае.
Так как лес усредняет прогнозы набора м деревья с индивидуальными весовыми функциями , его прогнозы
Это показывает, что весь лес снова представляет собой взвешенную схему соседства со средними весами отдельных деревьев. Соседи Икс' в этой интерпретации точки разделяя один и тот же лист на любом дереве . Таким образом, окрестность Икс' сложным образом зависит от структуры деревьев и, следовательно, от структуры обучающей выборки. Лин и Чон показывают, что форма окрестностей, используемых случайным лесом, адаптируется к местной важности каждой особенности.[23]
Обучение без учителя со случайными лесами
В рамках своего построения случайные предикторы леса естественным образом приводят к измерению несходства между наблюдениями. Можно также определить случайную меру несходства леса между немаркированными данными: идея состоит в том, чтобы построить случайный предиктор леса, который отличает «наблюдаемые» данные от соответствующим образом сгенерированных синтетических данных.[8][24]Наблюдаемые данные являются исходными немаркированными данными, а синтетические данные взяты из эталонного распределения. Несходство случайного леса может быть привлекательным, потому что оно очень хорошо обрабатывает смешанные типы переменных, инвариантно к монотонным преобразованиям входных переменных и устойчиво к внешним наблюдениям. Несходство случайного леса легко справляется с большим количеством полунепрерывных переменных из-за присущего ему выбора переменных; например, несходство случайного леса «Addcl 1» взвешивает вклад каждой переменной в зависимости от того, насколько она зависит от других переменных. Несходство случайного леса использовалось во множестве приложений, например найти кластеры пациентов на основе данных маркеров тканей.[25]
Варианты
Вместо деревьев решений были предложены и оценены линейные модели в качестве базовых оценок в случайных лесах, в частности полиномиальная логистическая регрессия и наивные байесовские классификаторы.[26][27]
Случайный лес ядра
В машинном обучении случайные леса ядра устанавливают связь между случайными лесами и методы ядра. Немного изменив их определение, случайные леса можно переписать как методы ядра, которые легче интерпретировать и анализировать.[28]
История
Лео Брейман[29] был первым, кто заметил связь между случайным лесом и методы ядра. Он указал, что случайные леса, выращиваемые с использованием i.i.d. случайные векторы в построении дерева эквивалентны ядру, действующему на истинный запас. Лин и Чон[30] установила связь между случайными лесами и адаптивным ближайшим соседом, подразумевая, что случайные леса можно рассматривать как оценки адаптивного ядра. Дэвис и Гахрамани[31] предложили ядро случайного леса и показали, что оно может эмпирически превзойти современные методы ядра. Scornet[28] сначала определил оценки KeRF и дал явную связь между оценками KeRF и случайным лесом. Он также дал явные выражения для ядер на основе центрированного случайного леса[32] и равномерный случайный лес,[33] две упрощенные модели случайного леса. Он назвал эти два KeRF, центрированный KeRF и Uniform KeRF, и доказал верхние границы их степени согласованности.
Обозначения и определения
Предварительные испытания: Центрированные леса
Центрированный лес[32] - это упрощенная модель исходного случайного леса Бреймана, которая равномерно выбирает атрибут среди всех атрибутов и выполняет разбиение в центре ячейки по предварительно выбранному атрибуту. Алгоритм останавливается, когда полностью двоичное дерево уровня построен, где - параметр алгоритма.
Равномерный лес
Равномерный лес[33] - это еще одна упрощенная модель исходного случайного леса Бреймана, которая равномерно выбирает объект среди всех объектов и выполняет разбиение в точке, равномерно нарисованной на стороне ячейки, вдоль предварительно выбранного объекта.
Из случайного леса в KeRF
Учитывая обучающую выборку из -значные независимые случайные величины, распределенные как независимая пара прототипов , куда . Мы стремимся предугадать ответ , связанный со случайной величиной , оценивая функцию регрессии . Лес случайной регрессии - это совокупность рандомизированные деревья регрессии. Обозначить прогнозируемое значение в точке посредством -го дерева, где независимые случайные величины, распределенные как общая случайная величина , независимо от образца . Эта случайная величина может использоваться для описания случайности, вызванной разделением узла и процедурой выборки для построения дерева. Деревья объединяются для формирования оценки конечного леса .Для деревьев регрессии мы имеем , куда это ячейка, содержащая , разработанный со случайностью и набор данных , и .
Таким образом, случайные оценки лесов удовлетворяют для всех , . Лес случайной регрессии имеет два уровня усреднения: сначала по выборкам в целевой ячейке дерева, а затем по всем деревьям. Таким образом, вклад наблюдений, которые происходят в ячейках с высокой плотностью точек данных, меньше, чем вклад наблюдений, которые принадлежат менее заселенным ячейкам. Чтобы улучшить методы случайного леса и компенсировать неверную оценку, Scornet[28] определил KeRF
что равно среднему значению попадает в клетки, содержащие В лесу. Если мы определим функцию подключения конечный лес как , т.е. доля ячеек, разделенных между и , то почти наверняка имеем , определяющий KeRF.
Центрированный KeRF
Построение Центрированного КЭРФ уровня то же самое, что и для централизованного леса, за исключением того, что прогнозы делаются , соответствующая функция ядра или функция соединения
Униформа KeRF
Uniform KeRF строится так же, как и uniform forest, за исключением того, что прогнозы делаются , соответствующая функция ядра или функция соединения
Характеристики
Связь между KeRF и случайным лесом
Прогнозы, даваемые KeRF и случайными лесами, близки, если контролируется количество точек в каждой ячейке:
Предположим, что существуют последовательности так что почти наверняка
Тогда почти наверняка,
Связь между бесконечным KeRF и бесконечным случайным лесом
Когда количество деревьев уходит в бесконечность, то мы имеем бесконечный случайный лес и бесконечный KeRF. Их оценки близки, если количество наблюдений в каждой ячейке ограничено:
Предположим, что существуют последовательности так что почти наверняка
Тогда почти наверняка,
Последовательность результатов
Предположить, что , куда является центрированным гауссовским шумом, не зависящим от , с конечной дисперсией . Более того, равномерно распределяется по и является Липшиц. Scornet[28] доказали верхние границы на скорость согласованности для центрированного KeRF и равномерного KeRF.
Согласованность центрированного KeRF
Предоставление и , существует постоянная такое, что для всех ,.
Стабильность единого КерФ
Предоставление и , существует постоянная так что,.
Смотрите также
- Повышение
- Изучение дерева решений
- Ансамблевое обучение
- Повышение градиента
- Непараметрическая статистика
- Рандомизированный алгоритм
Рекомендации
- ^ а б c d Хо, Тин Кам (1995). Леса со случайным решением (PDF). Труды 3-й Международной конференции по анализу и распознаванию документов, Монреаль, Квебек, 14–16 августа 1995 г., стр. 278–282. Архивировано из оригинал (PDF) 17 апреля 2016 г.. Получено 5 июн 2016.
- ^ а б c d Хо Т.К. (1998). «Метод случайного подпространства для построения лесов решений» (PDF). IEEE Transactions по анализу шаблонов и машинному анализу. 20 (8): 832–844. Дои:10.1109/34.709601.
- ^ а б c d е ж Хасти, Тревор; Тибширани, Роберт; Фридман, Джером (2008). Элементы статистического обучения (2-е изд.). Springer. ISBN 0-387-95284-5.
- ^ а б Пирьонеси С. Мадех; Эль-Дираби Тамер Э. (01.06.2020). «Роль аналитики данных в управлении инфраструктурными активами: преодоление проблем, связанных с размером и качеством данных». Журнал транспортного машиностроения, часть B: Тротуары. 146 (2): 04020022. Дои:10.1061 / JPEODX.0000175.
- ^ а б Клейнберг Э (1990). «Стохастическая дискриминация» (PDF). Анналы математики и искусственного интеллекта. 1 (1–4): 207–239. CiteSeerX 10.1.1.25.6750. Дои:10.1007 / BF01531079.
- ^ а б Клейнберг Э (1996). "Устойчивый к перетренированию метод стохастического моделирования для распознавания образов". Анналы статистики. 24 (6): 2319–2349. Дои:10.1214 / aos / 1032181157. МИСТЕР 1425956.
- ^ а б Клейнберг Э (2000). «Об алгоритмической реализации стохастической дискриминации» (PDF). Транзакции IEEE на PAMI. 22 (5): 473–490. CiteSeerX 10.1.1.33.4131. Дои:10.1109/34.857004.
- ^ а б c d Брейман Л (2001). «Случайные леса». Машинное обучение. 45 (1): 5–32. Дои:10.1023 / А: 1010933404324.
- ^ а б Liaw A (16 октября 2012 г.). "Документация для пакета R randomForest" (PDF). Получено 15 марта 2013.
- ^ Регистрационный номер товарного знака в США 3185828, зарегистрирован в 2006/12/19.
- ^ "RANDOM FORESTS Торговая марка Health Care Productivity, Inc. - Регистрационный номер 3185828 - Серийный номер 78642027 :: Торговые марки Justia".
- ^ а б Амит Y, Geman D (1997). «Квантование и распознавание форм с помощью рандомизированных деревьев» (PDF). Нейронные вычисления. 9 (7): 1545–1588. CiteSeerX 10.1.1.57.6069. Дои:10.1162 / neco.1997.9.7.1545.
- ^ Диттерих, Томас (2000). «Экспериментальное сравнение трех методов построения ансамблей деревьев решений: пакетирование, усиление и рандомизация». Машинное обучение. 40 (2): 139–157. Дои:10.1023 / А: 1007607513941.
- ^ Гарет Джеймс; Даниэла Виттен; Тревор Хасти; Роберт Тибширани (2013). Введение в статистическое обучение. Springer. С. 316–321.
- ^ Хо, Тин Кам (2002). «Анализ сложности данных сравнительных преимуществ Decision Forest Constructors» (PDF). Анализ шаблонов и приложения. 5 (2): 102–112. Дои:10.1007 / с100440200009.
- ^ Геуртс П., Эрнст Д., Вехенкель Л. (2006). «Чрезвычайно рандомизированные деревья» (PDF). Машинное обучение. 63: 3–42. Дои:10.1007 / s10994-006-6226-1.
- ^ Чжу Р., Цзэн Д., Косорок М.Р. (2015). «Деревья обучения с подкреплением». Журнал Американской статистической ассоциации. 110 (512): 1770–1784. Дои:10.1080/01621459.2015.1036994. ЧВК 4760114. PMID 26903687.
- ^ Deng, H .; Runger, G .; Тув, Э. (2011). Меры смещения важности для многозначных атрибутов и решений. Материалы 21-й Международной конференции по искусственным нейронным сетям (ICANN). С. 293–300.
- ^ Альтманн А., Толоши Л., Сандер О., Ленгауэр Т. (май 2010 г.). «Важность перестановки: исправленная мера важности функции». Биоинформатика. 26 (10): 1340–7. Дои:10.1093 / биоинформатика / btq134. PMID 20385727.
- ^ Штробль C, Boulesteix A, Augustin T (2007). «Беспристрастный раздельный выбор для деревьев классификации на основе индекса Джини» (PDF). Вычислительная статистика и анализ данных. 52: 483–501. CiteSeerX 10.1.1.525.3178. Дои:10.1016 / j.csda.2006.12.030.
- ^ Паински А, Россет С (2017). «Выбор переменных с перекрестной проверкой в древовидных методах повышает эффективность прогнозирования». IEEE Transactions по анализу шаблонов и машинному анализу. 39 (11): 2142–2153. arXiv:1512.03444. Дои:10.1109 / tpami.2016.2636831. PMID 28114007.
- ^ Толози Л., Ленгауэр Т. (июль 2011 г.). «Классификация с коррелированными признаками: ненадежность ранжирования признаков и решений». Биоинформатика. 27 (14): 1986–94. Дои:10.1093 / биоинформатика / btr300. PMID 21576180.
- ^ а б Линь, Йи; Чон, Ёнхо (2002). Случайные леса и адаптивные ближайшие соседи (Технический отчет). Технический отчет № 1055. Университет Висконсина. CiteSeerX 10.1.1.153.9168.
- ^ Ши Т., Хорват С. (2006). «Обучение без учителя со случайными предсказателями леса». Журнал вычислительной и графической статистики. 15 (1): 118–138. CiteSeerX 10.1.1.698.2365. Дои:10.1198 / 106186006X94072. JSTOR 27594168.CS1 maint: использует параметр авторов (связь)
- ^ Ши Т., Селигсон Д., Беллдегрун А.С., Палоти А., Хорват С. (апрель 2005 г.). «Классификация опухолей по профилированию тканевых микроматриц: случайная кластеризация лесов применительно к почечно-клеточной карциноме». Современная патология. 18 (4): 547–57. Дои:10.1038 / modpathol.3800322. PMID 15529185.
- ^ Принзи А., Ван ден Поэль Д. (2008). «Случайные леса для многоклассовой классификации: случайный многочленный логит». Экспертные системы с приложениями. 34 (3): 1721–1732. Дои:10.1016 / j.eswa.2007.01.029.CS1 maint: использует параметр авторов (связь)
- ^ Принзи, Анита (2007). «Случайная мультиклассовая классификация: обобщение случайных лесов на случайные MNL и случайные NB». У Роланда Вагнера; Норман Ревелл; Гюнтер Пернул (ред.). Приложения баз данных и экспертных систем: 18-я международная конференция, DEXA 2007, Регенсбург, Германия, 3-7 сентября 2007 г., Труды. Конспект лекций по информатике. 4653. С. 349–358. Дои:10.1007/978-3-540-74469-6_35. ISBN 978-3-540-74467-2.
- ^ а б c d Скорнет, Эрван (2015). «Случайные леса и методы ядра». arXiv:1502.03836 [math.ST].
- ^ Брейман, Лео (2000). "Немного теории бесконечности для ансамблей предсказателей". Технический отчет 579, Статистический департамент UCB. Цитировать журнал требует
| журнал =
(помощь) - ^ Линь, Йи; Чон, Ёнхо (2006). «Случайные леса и адаптивные ближайшие соседи». Журнал Американской статистической ассоциации. 101 (474): 578–590. CiteSeerX 10.1.1.153.9168. Дои:10.1198/016214505000001230.
- ^ Дэвис, Алекс; Гахрамани, Зубин (2014). «Ядро случайного леса и другие ядра для больших данных из случайных разделов». arXiv:1402.4293 [stat.ML].
- ^ а б Брейман Л., Гахрамани З. (2004). «Непротиворечивость простой модели случайных лесов». Статистический факультет Калифорнийского университета в Беркли. Технический отчет (670). CiteSeerX 10.1.1.618.90.
- ^ а б Арлот С., Дженуэр Р. (2014). «Анализ чисто случайной систематической ошибки лесов». arXiv:1407.3939 [math.ST].
дальнейшее чтение
Scholia имеет тема профиль для Случайный лес. |
- Prinzie A, Poel D (2007). «Случайная мультиклассовая классификация: обобщение случайных лесов на случайные MNL и случайные NB». Приложения баз данных и экспертных систем. Конспект лекций по информатике. 4653. п. 349. Дои:10.1007/978-3-540-74469-6_35. ISBN 978-3-540-74467-2.
- Дениско Д., Хоффман М.М. (февраль 2018 г.). «Классификация и взаимодействие в случайных лесах». Труды Национальной академии наук Соединенных Штатов Америки. 115 (8): 1690–1692. Дои:10.1073 / pnas.1800256115. ЧВК 5828645. PMID 29440440.
внешняя ссылка
- Описание классификатора случайных лесов (Сайт Лео Бреймана)
- Лиау, Энди и Винер, Мэтью «Классификация и регрессия методом randomForest» R News (2002) Vol. 2/3 п. 18 (Обсуждение использования пакета random forest для р)