WikiDer > Консенсусная кластеризация

Consensus clustering

Консенсусная кластеризация представляет собой метод агрегирования (потенциально противоречивых) результатов нескольких алгоритмов кластеризации. Также называется кластерные ансамбли[1] или агрегация кластеризации (или разделов), это относится к ситуации, в которой было получено несколько различных (входных) кластеризации для определенного набора данных, и желательно найти единую (согласованную) кластеризацию, которая лучше подходит для некоторых смысла, чем существующие кластеры.[2] Таким образом, консенсусная кластеризация - это проблема согласования информации о кластеризации одного и того же набора данных, поступающей из разных источников или из разных прогонов одного и того же алгоритма. В качестве задачи оптимизации консенсусная кластеризация известна как медианное разделение и, как было показано, НП-полный,[3] даже если количество входных кластеров равно трем.[4] Консенсусная кластеризация для обучения без учителя аналогична ансамблевое обучение в обучении с учителем.

Проблемы с существующими методами кластеризации

  • Современные методы кластеризации не удовлетворяют все требования должным образом.
  • Работа с большим количеством измерений и большим количеством элементов данных может быть проблематичной из-за временной сложности;
  • Эффективность метода зависит от определения «расстояния» (для кластеризации на основе расстояния)
  • Если очевидной меры расстояния не существует, мы должны «определить» ее, что не всегда легко, особенно в многомерных пространствах.
  • Результат алгоритма кластеризации (который во многих случаях сам может быть произвольным) можно интерпретировать по-разному.

Обоснование использования консенсусной кластеризации

У всех существующих методов кластеризации есть потенциальные недостатки. Это может затруднить интерпретацию результатов, особенно когда нет информации о количестве кластеров. Методы кластеризации также очень чувствительны к начальным параметрам кластеризации, что может привести к тому, что незначительные данные будут усилены в неповторяющихся методах. Чрезвычайно важным вопросом в кластерном анализе является проверка результатов кластеризации, то есть как получить уверенность в значимости кластеров, предоставляемых методом кластеризации (номера кластеров и назначения кластеров). При отсутствии внешнего объективного критерия (эквивалент известной метки класса в контролируемом анализе) такая проверка становится несколько труднодостижимой. Методы кластеризации с итеративным спуском, такие как SOM и k-означает кластеризацию обойти некоторые недостатки иерархическая кластеризация за счет предоставления однозначно определенных кластеров и границ кластеров. Консенсусная кластеризация предоставляет метод, который представляет собой консенсус между несколькими запусками алгоритма кластеризации, для определения количества кластеров в данных и для оценки стабильности обнаруженных кластеров. Этот метод также можно использовать для представления консенсуса по нескольким запускам алгоритма кластеризации со случайным перезапуском (например, K-средних, байесовской кластеризации на основе модели, SOM и т. Д.), Чтобы учесть его чувствительность к начальным условиям. . Он может предоставить данные для инструмента визуализации, чтобы проверить номер кластера, членство и границы. Однако им не хватает интуитивной и визуальной привлекательности иерархических дендрограмм кластеризации, и количество кластеров необходимо выбирать априори.

Алгоритм консенсусной кластеризации Монти

Алгоритм консенсусной кластеризации Монти[5] является одним из самых популярных алгоритмов консенсусной кластеризации и используется для определения количества кластеров, . Учитывая набор данных общее количество точек для кластеризации, этот алгоритм работает путем повторной выборки и кластеризации данных для каждого и вычисляется консенсусная матрица, где каждый элемент представляет собой долю двух сгруппированных вместе выборок. Совершенно стабильная матрица будет состоять полностью из нулей и единиц, представляя все пары выборок, всегда кластеризованные вместе или не вместе на всех итерациях повторной выборки. Относительная стабильность согласованных матриц может использоваться для вывода оптимального .

Более конкретно, учитывая набор точек для кластеризации, , позволять быть списком измененные (передискретизированные) наборы данных исходного набора данных , и разреши обозначить матрица связности, полученная в результате применения алгоритма кластеризации к набору данных . Записи определяются следующим образом:

Позволять быть матрица-идентификатор, где -я запись равна 1, если баллы и находятся в одном наборе возмущенных данных , и 0 в противном случае. Индикаторная матрица используется для отслеживания того, какие образцы были выбраны во время каждой итерации повторной выборки для этапа нормализации. Матрица консенсуса определяется как нормализованная сумма всех матриц связности всех возмущенных наборов данных, и для каждого .

Это запись в матрице консенсуса - это количество очков и были сгруппированы вместе, разделенные на общее количество раз, когда они были выбраны вместе. Матрица симметрична, и каждый элемент определяется в диапазоне . Матрица консенсуса рассчитывается для каждого для проверки, а стабильность каждой матрицы, то есть насколько далеко матрица находится от матрицы идеальной стабильности (только нули и единицы), используется для определения оптимального . Один из способов количественной оценки стабильности Матрица консенсуса исследует свою кривую CDF (см. ниже).

Потенциал чрезмерной интерпретации консенсусного алгоритма кластеризации Монти

Объяснение меры PAC (доля неоднозначной кластеризации). Оптимальный K - это K с наименьшим значением PAC.

Консенсусная кластеризация Монти может быть мощным инструментом для идентификации кластеров, но ее следует применять с осторожностью, как показал Ченбабаоğлу. и другие. [6] Было показано, что консенсусный алгоритм кластеризации Монти может заявлять о очевидной стабильности случайного разбиения нулевых наборов данных, взятых из унимодального распределения, и, таким образом, может привести к чрезмерной интерпретации стабильности кластера в реальном исследовании.[6][7] Если кластеры плохо разделены, консенсусная кластеризация может привести к заключению очевидной структуры, когда ее нет, или к декларации стабильности кластера, когда она неуловима. Выявление ложноположительных кластеров - распространенная проблема во всех кластерных исследованиях.[8] и был решен такими методами, как SigClust[8] и GAP-статистика.[9] Однако эти методы полагаются на определенные предположения для нулевой модели, которые не всегда могут быть подходящими.

Enbabaolu и другие [6] продемонстрировал исходную метрику дельта K, чтобы решить в алгоритме Монти работал плохо, и предложил новую превосходную метрику для измерения стабильности консенсусных матриц с использованием их кривых CDF. На кривой CDF согласованной матрицы нижняя левая часть представляет пары выборок, которые редко сгруппированы вместе, верхняя правая часть представляет те, которые почти всегда сгруппированы вместе, тогда как средний сегмент представляет пары с неоднозначным назначением в разных прогонах кластеризации. Доля показателя неоднозначной кластеризации (PAC) количественно определяет этот средний сегмент; и определяется как доля пар выборок с консенсусными индексами, попадающими в интервал (u1, ты2) ∈ [0, 1], где u1 - значение, близкое к 0, а u2 - значение, близкое к 1 (например, u1= 0,1 и u2= 0,9). Низкое значение PAC указывает на плоский средний сегмент и низкую частоту несогласованных назначений в переставленных циклах кластеризации. Следовательно, можно сделать вывод об оптимальном количестве кластеров по значение, имеющее самый низкий PAC.[6][7]

Связанных с работой

1. Кластерный ансамбль (Штрел и Гош): Они рассмотрели различные постановки проблемы, большинство из которых сводят проблему к проблеме разбиения гиперграфа. В одной из своих постановок они рассматривали тот же граф, что и в задаче корреляционной кластеризации. Предложенное ими решение - вычислить лучший k-разбиение графа, не учитывающее штраф за слияние двух узлов, находящихся далеко друг от друга.[нужна цитата]

2. Агрегация кластеров (Ферн и Бродли): Они применили идею агрегирования кластеров к набору мягкие кластеры они получены путем случайных прогнозов. Они использовали агломеративный алгоритм и не наказывали за слияние разнородных узлов.[нужна цитата]

3. Фред и Джайн: Они предложили использовать один алгоритм связи для объединения нескольких прогонов k- означает алгоритм.[нужна цитата]

4. Дана Кристофор и Дэн Симовичи: Они наблюдали связь между агрегированием кластеров и кластеризацией категориальных данных. Они предложили теоретико-информационные меры расстояния, и они предлагают генетические алгоритмы для поиска лучшего решения для агрегирования.[нужна цитата]

5. Топчий и др.: Они определили агрегирование кластеризации как проблему оценки максимального правдоподобия и предложили алгоритм EM для поиска согласованной кластеризации.[нужна цитата]

Кластеризация жесткого ансамбля

Этот подход Штрел и Гош вводит проблему объединения нескольких разделов набора объектов в единую консолидированную кластеризацию без доступа к функциям или алгоритмам, которые определяют эти разделения. Они обсуждают три подхода к решению этой проблемы для получения высококачественных консенсусных функций. Их методы имеют низкие вычислительные затраты, и это позволяет оценить каждый из методов, обсуждаемых ниже, и прийти к наилучшему решению, сравнивая результаты с целевой функцией.

Эффективные консенсусные функции

1. Кластерный алгоритм разделения по сходству (CSPA)

В CSPA сходство между двумя точками данных определяется как прямо пропорциональное количеству составляющих кластеров ансамбля, в котором они сгруппированы вместе. Интуиция подсказывает, что чем больше схожих двух точек данных, тем выше вероятность того, что составляющие кластеры поместят их в один и тот же кластер. CSPA - это простейшая эвристика, но ее вычислительная сложность и сложность хранения квадратичны по п. SC3 является примером алгоритма типа CSPA.[10] Следующие два метода менее затратны в вычислительном отношении:

2. Алгоритм разбиения гиперграфа (HGPA)

Алгоритм HGPA использует совершенно другой подход к поиску консенсусной кластеризации, чем предыдущий метод. Задача кластерного ансамбля формулируется как разбиение гиперграфа путем разрезания минимального числа гиперребер. Они используют hMETIS который представляет собой систему пакетов для разбиения гиперграфа.

3. Алгоритм метакластеризации (MCLA)

Алгоритм мета-кластеризации (MCLA) основан на кластеризации кластеров. Сначала он пытается решить проблему соответствия кластеров, а затем использует голосование для помещения точек данных в окончательные согласованные кластеры. Проблема соответствия кластеров решается путем группирования кластеров, идентифицированных в отдельных кластерах ансамбля. Кластеризация выполняется с использованием МЕТИС и спектральная кластеризация.

Мягкие кластерные ансамбли

Пунера и Гош расширил идею ансамблей жесткой кластеризации на сценарий мягкой кластеризации. Каждый экземпляр в мягком ансамбле представлен конкатенацией р апостериорные распределения вероятностей членства, полученные из составляющих алгоритмов кластеризации. Мы можем определить меру расстояния между двумя экземплярами, используя Дивергенция Кульбака – Лейблера (KL), который вычисляет «расстояние» между двумя распределениями вероятностей.

1. sCSPA

sCSPA расширяет CSPA, вычисляя матрицу подобия. Каждый объект визуализируется как точка в пространственном пространстве, где каждое измерение соответствует вероятности его принадлежности к кластеру. Этот метод сначала преобразует объекты в пространство меток, а затем интерпретирует скалярное произведение между векторами, представляющими объекты, как их сходство.

2. sMCLA

sMCLA расширяет MCLA, принимая мягкие кластеры в качестве входных данных. Работу sMCLA можно разделить на следующие этапы:

  • Построение мягкого мета-графа кластеров
  • Сгруппируйте кластеры в мета-кластеры
  • Свернуть мета-кластеры с помощью взвешивания
  • Соревнуйтесь за объекты

3. sHBGF

HBGF представляет ансамбль в виде двудольного графа с кластерами и экземплярами в качестве узлов и ребрами между экземплярами и кластерами, которым они принадлежат.[11] Этот подход может быть тривиально адаптирован для рассмотрения мягких ансамблей, так как алгоритм разбиения графа METIS принимает веса на ребрах разбиваемого графа. В sHBGF на графике п + т вершин, где t - общее количество нижележащих кластеров.

4. Байесовская консенсусная кластеризация (BCC)

BCC полностью определяет Байесовский модель для мягкой консенсусной кластеризации, в которой множественные исходные кластеры, определенные разными входными данными или разными вероятностными моделями, как предполагается, слабо придерживаются консенсусной кластеризации.[12] Полная апостериорная функция для отдельных кластеров и консенсусная кластеризация выводятся одновременно с помощью выборки Гиббса.

Источники

  1. ^ Штрел, Александр; Гош, Джойдип (2002). «Кластерные ансамбли - структура повторного использования знаний для объединения нескольких разделов» (PDF). Журнал исследований в области машинного обучения (JMLR). 3: 583–617.
  2. ^ ВЕГА-ПОНС, САНДРО; РУИЗ-ШУЛЬКЛОПЕР, ХОЗЕ (1 мая 2011 г.). «Обзор алгоритмов кластеризации ансамбля». Международный журнал распознавания образов и искусственного интеллекта. 25 (3): 337–372. Дои:10.1142 / S0218001411008683. S2CID 4643842.
  3. ^ Фильков, Владимир (2003). Интеграция данных микрочипов путем согласованной кластеризации. В материалах 15-й Международной конференции IEEE по инструментам с искусственным интеллектом. С. 418–426. CiteSeerX 10.1.1.116.8271. Дои:10.1109 / TAI.2003.1250220. ISBN 978-0-7695-2038-4.
  4. ^ Бониццони, Паола; Делла Ведова, Джанлука; Донди, Риккардо; Цзян, Тао (2008). «Об аппроксимации корреляционной кластеризации и консенсусной кластеризации». Журнал компьютерных и системных наук. 74 (5): 671–696. Дои:10.1016 / j.jcss.2007.06.024.
  5. ^ Монти, Стефано; Тамайо, Пабло; Месиров, Джилл; Голуб, Тодд (2003-07-01). «Консенсусная кластеризация: метод на основе повторной выборки для обнаружения классов и визуализации данных микрочипа экспрессии генов». Машинное обучение. 52 (1): 91–118. Дои:10.1023 / А: 1023949509487. ISSN 1573-0565.
  6. ^ а б c d Enbabaolu, Y .; Michailidis, G .; Ли, Дж. З. (2014). «Критические ограничения консенсусной кластеризации при обнаружении классов». Научные отчеты. 4: 6207. Bibcode:2014НатСР ... 4Э6207.. Дои:10.1038 / srep06207. ЧВК 4145288. PMID 25158761.
  7. ^ а б Enbabaolu, Y .; Michailidis, G .; Ли, Дж. З. (февраль 2014 г.). «Переоценка консенсусной кластеризации для обнаружения классов». bioRxiv 10.1101/002642.
  8. ^ а б Лю Юйфэн; Хейс, Дэвид Нил; Нобель, Андрей; Маррон, Дж. С. (01.09.2008). «Статистическая значимость кластеризации для данных большой размерности с малым размером выборки». Журнал Американской статистической ассоциации. 103 (483): 1281–1293. Дои:10.1198/016214508000000454. ISSN 0162-1459.
  9. ^ Тибширани, Роберт; Вальтер, Гюнтер; Хасти, Тревор (2001). «Оценка количества кластеров в наборе данных с помощью статистики пробелов». Журнал Королевского статистического общества: серия B (статистическая методология). 63 (2): 411–423. Дои:10.1111/1467-9868.00293. ISSN 1467-9868.
  10. ^ Киселев Владимир Ю; Киршнер, Кристина; Шауб, Майкл Т; Эндрюс, Таллула; Ю, Эндрю; Чандра, Тамир; Натараджан, Кедар Н; Рейк, Вольф; Бараона, Маурисио; Грин, Энтони Р.; Хемберг, Мартин (май 2017 г.). «SC3: согласованная кластеризация одноклеточных данных РНК-seq». Природные методы. 14 (5): 483–486. Дои:10.1038 / nmeth.4236. ISSN 1548-7091. ЧВК 5410170. PMID 28346451.
  11. ^ Решение проблем кластерного ансамбля с помощью разбиения двудольного графа, Сяоли Чжан Ферн и Карла Бродли, Материалы двадцать первой международной конференции по машинному обучению.
  12. ^ Lock, E.F .; Дансон, Д. (2013). «Байесовская консенсусная кластеризация». Биоинформатика. 29 (20): 2610–2616. arXiv:1302.7280. Bibcode:2013arXiv1302.7280L. Дои:10.1093 / биоинформатика / btt425. ЧВК 3789539. PMID 23990412.

использованная литература