Спектральна кластеризація — метод кластеризації, оснований на концепції [en]. На відміну від інших методів, таких як метод к-середніх, що шукають щільні, компактні, опуклі кластери, спектральна кластеризація може знаходити кластери довільної форми.
Метод був розроблений у 1970-х для розділення графів і пізніше був багаторазово поліпшений і застосований для ширшого класу задач. Його ідея полягає в тому, щоб, розглядаючи множину спостережень як зважений граф (де кожному спостереженню відповідає вершина, а ребра мають вагу, що дорівнює подібності пари спостережень), знайти такий мінімальний розріз цього графа, щоб два отримані підграфи були близькими за розміром.
Назву метод отримав через те, що він ґрунтується на аналізі спектру графа — множини власних значень його матриці суміжності. Спектральна кластеризація — один з найпотужніших сучасних методів кластеризації і може застосовуватися в будь-яких задачах кластерного аналізу, в тому числі таких, як сегментація зображення, аналіз експресії генів, графів соціальних мереж тощо.
Історія
Ідея спектральної кластеризації ґрунтується на роботах Кеннета Холла — він шукав спосіб спроєктувати граф на числову пряму та, більш загально, в багатовимірний евклідів простір і запропонував використовувати для цього власні вектори матриці Лапласа, а також Доната й Хоффмана, які помітили, що власні вектори модифікованої матриці зв'язності можна застосувати для задачі розбиття графа на рівні частини. У 1973–1975 роках чеський математик [en] показав, що найменше ненульове власне значення матриці Лапласа графа відповідає його зв'язності й показав зв'язок відповідного власного вектора та породжуваної ним кластеризації в загальному випадку (результати Доната й Хоффмана стосувалися деяких специфічних типів графів). Доробок Фідлера в спектральній теорії графів є значним, тому найменше ненульове власне значення матриці Лапласа називають числом Фідлера, а відповідний вектор — вектором Фідлера. Пізніше було показано, що графи з маленьким числом Фідлера мають маленьке співвідношення кількості видалених ребер до кількості вершин, які розділяються, що відповідає уявленню про «хорошу» кластеризацію.
Застосування алгоритму стримувалося важкістю задачі пошуку власних значень та векторів, допоки у 80-х роках не з'явилися ефективніші алгоритми, такі як [en], і багато експериментів на реальних графах показали практичну придатність методу.
Спектральна кластеризація швидко стала популярною й стандартною в багатьох галузях, проте в 1995 році Міллер і Гваттарі привернули увагу до дивної поведінки алгоритму на деяких типах графів. Застосований Фідлером підхід, згідно з яким два кластери графа визначалися за тим, більші чи менші за нуль відповідні компоненти вектора Фідлера (наївна бісекція), давав вочевидь неправильну кластеризацію на графах, що могли траплятися в реальному житті. Також у роботі було запропоновано застосовувати для поділу не лише вектор Фідлера, а й ще кілька найменших ненульових власних векторів.
Також велися пошуки оптимального значення для поділу вектора Фідлера (замість нульового). 1992 року Ларс Хаген і Ендрю Канг запропонували новий підхід для оцінки, Ratio-Cut, який дозволив краще знаходити кластери неоднакового розміру, а в 2000 році Цзяньбо Ши і [en] запропонували ще одну метрику якості кластеризації і показали, що для пошуку найкращого розрізу за нею необхідно модифікувати матрицю Лапласа. Така модифікована матриця отримала назву нормалізована матриця Лапласа, а сам метод отримав назву Normal-Cut (або NCut). 2001 року був запропонований MinMaxCut.
В 2001 році Цзяньбо Ши і Марина Мейла запропонували нову інтерпретацію спектральної кластеризації за методом NCut: при марківському випадковому блуканні по графу кластеризація виділяє такі компоненти, переходи між якими відбуваються якнайрідше.
Того ж року Ендрю Ин, Майкл Джордан і Яїр Вайс запропонували використовувати кластеризацію к-середніх на просторі, утвореному власними векторами. Важливою зміною в їх підході є те, що застосовуються власні вектори, що відповідають найбільшим, а не найменшим власним значенням, а також використовується спеціальна форма матриці Лапласа. Метод Ина-Джордана-Вайса набув популярності та часто згадується як NJW-алгоритм.
Алгоритм
Побудова матриці суміжності
Для представлення всіх спостережень у вигляді графа потрібно визначити функцію подібності. Ця функція двох аргументів має бути невід'ємною й симетричною. Подібність велика для близьких точок і прямує до нуля для далеких. Якщо максимальна подібність дорівнює 1, вона може бути інтерпретована як імовірність того, що спостереження належать до одного кластеру. Для потреб алгоритму подібність точок самих собі зануляється: , тобто отриманий граф не має петель.
Якщо близькість точок визначається відстанню між ними, простим вибором здається подібність як величина, обернена до відстані між точками:
Проте ця величина дуже сильно реагує на малі зміни для близьких точок, тому в знаменник додають деяку константу:
Більш популярним вибором є гаусове ядро:
- ,
- де t — деякий масштабний коефіцієнт, що задається вручну,
або його нормалізований варіант:
- ,
- де — відстань між точкою та її n-тим найближчим сусідом.
В окремих випадках можуть застосовуватися специфічні міри близькості, такі як коефіцієнт Жаккара або косинусна подібність.
Попарні подібності між точками формують матрицю подібності (англ. Affinity matrix), яка позначається як .
Таку матрицю можна вважати матрицею суміжності зваженого повного графа (тобто такого, де ребра існують між будь-якими двома вершинами), а можна обнулити деякі з елементів, зменшуючи кількість ребер. Існує кілька підходів до того, які ребра залишати:
- Тільки якщо відстань між відповідними точками є меншою за деяку величину
- Тільки якщо точка входить до найближчих сусідів точки або ж точка входить до найближчих сусідів точки
- Тільки якщо точка входить до найближчих сусідів точки і одночасно точка входить до найближчих сусідів точки (mutual K-nearest-neighbors graph)
Побудова матриці Лапласа й обчислення її власних векторів
Задамо діагональну матрицю , чиї елементи дорівнюють сумі ваг всіх ребер, що виходять із відповідної вершини:
Тоді матриця Лапласа визначається як . У деяких джерелах її називають матрицею Кірхгофа.
Також застосовується нормалізована матриця Лапласа: . Іншим способом нормалізації матриці Лапласа є .
Для NSW-алгоритму матриця Лапласа обчислюється як .
У будь-якому випадку після обчислення матриці Лапласа (нормалізованої чи ні) необхідно обчислити її власні значення та власні вектори.
Кластеризація за власними векторами
Якщо граф, що задається матрицею суміжності , має компонент, то власних чисел матриці Лапласа будуть нульовими. Решта з них завжди будуть додатними. Для кластеризації необхідно взяти один або більше векторів, що відповідають найменшим ненульовим власним значенням. У найпростішому варіанті береться один вектор. Кількість компонент вектора дорівнює кількості точок у графі. У випадку хорошої кластеризації компоненти вектора утворюють яскраво виражені кластери, які можуть бути зіставлені з оригінальними точками. Часто значення, що розділяє два кластери, лежить поблизу нуля (або дорівнює нулю).
Для поділу на більш ніж два кластери алгоритм можна застосовувати рекурсивно, але для деяких графів кращим є поділ одразу на кілька компонент. Якщо в спектрі графа є розрив (англ. eigengap), тобто проміжок між і ненульовими власними значеннями значно більший за проміжки між сусідніми з ними власними значеннями, то кількість кластерів дорівнює .
Якщо ж використовуються більше одного власного вектора, з них формується нова матриця, у якій кожен рядок відповідає точці графа, а кожен стовпчик — одному з обраних власних векторів. Така матриця може бути інтерпретована як точки в деякому -вимірному просторі (де — кількість векторів). У цьому просторі можна провести кластеризацію за якоюсь простою процедурою, зазвичай k-середніх або DBSCAN. Кластери, виявлені в цьому просторі власних векторів, відповідають кластерам в оригінальному просторі.
NJW-алгоритм працює аналогічно, проте через інший вигляд матриці Лапласа застосовуються вектори, яким відповідають найбільші власні числа, а не найменші. Кількість векторів у цьому випадку також дорівнює кількості кластерів, які бажано отримати.
Цільові функції кластеризації
Існує кілька підходів оцінювання кластеризації:
- RatioCut: шукає такий поділ на два підграфи і , що мінімізується величина
- або , де — сумарна вага зв'язків, що розриваються, а кількість вершин в отриманих кластерах.
Цей принцип може бути розширений і на випадок більше ніж двох кластерів:
- NormalCut: мінімізує величину
- , де сумарна вага всіх ребер, які виходять з вершин кластера А (включно з тими, які з'єднують його з іншими кластерами).
- MinMaxCut: мінімізує величину
- , тобто в знаменнику на відміну від NormalCut стоїть сума ваги лише тих ребер, які з'єднують точки всередині кластеру (ребра, що сполучають різні кластери, не враховуються).
Принцип роботи алгоритму
Уявімо, що ми маємо зважений граф з вершинами , ребрами та матрицею суміжності , який деяким чином розділяємо на два кластери. Позначивши належність кожної точки до одного з кластерів числом 1 або -1, ми отримаємо вектор виду x=[1, 1, -1, 1, ....., -1, 1], який описуватиме конкретну кластеризацію. Якщо ми хочемо, щоб кластери мали однаковий розмір, ми можемо записати умову
- (рівність є наближеною, оскільки, наприклад, при непарній кількості вершин така сума не може дорівнювати нулю).
Тепер спробуємо з врахуванням цієї умови оцінити величину
- , де сумування проходить по всіх ребрах графа.
Зрозуміло, що для ребер, які належать до одного кластеру, сума дорівнює нулю, і значення виразу залежить лише від тих ребер, які з'єднують точки з різних кластерів. Тому мінімізація цього виразу (з урахуванням умови вище) дасть нам таке розбиття графа на дві рівні половини, при якому сумарна вага розірваних ребер буде мінімальною.
Проте наближена умова, представлена вище, непрактична, тому необхідно дещо видозмінити цю задачу. Нехай можуть набувати довільних дійсних значень. Тоді можна переписати умову у строгому вигляді:
Також, щоб уникнути тривіального розв'язку , який виникатиме в цьому випадку, додамо другу умову
Тоді можна очікувати, що одна група точок матиме додатні значення, близькі між собою (їх різниці будуть мінімальні), а інша — від'ємні. Великі різниці між додатними й від'ємними значеннями будуть виникати, як і в першому прикладі, лише коли ребра з'єднують два кластери.
Вираз вище пов'язаний із ненормалізованою матрицею Лапласа графу:
Тобто, нам необхідно знайти такий вектор , при якому вираз набуває мінімального значення, враховуючи умови
- і
Доведемо, що розв'язок цієї задачі у випадку однозв'язного графа дається власним вектором, що відповідає другому найменшому власному значенню матриці Лапласа цього графа.
Сума будь-якого рядка або стовпчика матриці дорівнює нулю, тому можна записати
отже, одне з власних чисел дорівнює нулю, а відповідний власний вектор має всі компонент рівними. Зі спектральної теореми випливає, що всі власні вектори утворюють ортонормований базис, тобто їх довжина дорівнює 1. Отже, всі компоненти першого вектора дорівнюють . Решта власних чисел матриці Лапласа більші за нуль (в подальшому будемо вважати, що всі власні числа пронумеровані в порядку зростання і в тому ж порядку пронумеровані відповідні їм вектори). Довжина будь-якого з пов'язаних із ними власних векторів також дорівнює одиниці, а отже
Також, скалярний добуток будь-якої пари векторів дорівнює нулю, а отже для будь-якого власного вектора, крім першого,
Вектор може бути розкладений у базисі власних векторів
Проте якщо сума компонентів вектора , який ми шукаємо, дорівнює нулю, то множник при першому власному векторі (єдиному, сума компонентів якого ненульова) дорівнює нулю. Крім того, сума квадратів компонентів дорівнює сумі квадратів коефіцієнтів розкладу
Тоді, скориставшись тим, що за визначенням власних векторів , ми можемо записати, що
Оскільки , а сума квадратів дорівнює одиниці, то зрозуміло, що мінімального значення функція набуває, коли . Тобто вектор дорівнює другому власному вектору.
Інтерпретація випадкового блукання
Якщо ми розглянемо марківське випадкове блукання по графу таке, що матриця містить у собі ймовірності переходу від вершини до вершини, то спектральна кластеризація описуватиме розбиття на такі групи вершин, що переходи між ними є дуже малоймовірними.
Застосування
Спектральну кластеризацію вважають одним із найбільш прогресивних і популярних методів кластеризації завдяки універсальності (здатності працювати з багатовимірними даними й обробляти категоріальні ознаки) і можливості знаходити кластери довільної форми. Вона знаходить застосування в біології (аналіз експресії генів, послідовності амінокислот у білках), соціології, психології, обробці зображень (виділення об'єктів на зображенні).
При використанні алгоритму користувач має визначити наступні параметри:
- Матриця суміжності графа. Є одним з найважливіших параметрів, бо визначає власне зовнішній вид графа. Можна розділити цю задачу на дві підзадачі:
- Визначення функції подібності. Деякі функції подібності (в тому числі найпопулярніша, гауссове ядро) мають у собі додаткові гіперпараметри, такі як масштабний фактор.
- Вибір, чи буде граф повним або ж кожна точка буде з'єднуватися лише з найближчими сусідами. У другому випадку з'являється додатковий параметр — кількість сусідів або максимальна відстань між ними.
- Вибір матриці Лапласа (нормалізована або ненормалізована). Якщо задача краще відповідає RatioCut, то краще використовувати ненормалізовану матрицю, а якщо NCut, то нормалізовану. Якщо є сумніви, загалом кращим вибором вважається нормалізована матриця Лапласа.
- Кількість кластерів, на які потрібно розділити граф, і метод поділу (рекурсивний або кластеризація через k-середніх). Якщо у спектрі графа є яскраво виражений [en], то його положення може вказувати на оптимальну кількість кластерів.
Попри значні переваги, спектральна кластеризація має й кілька недоліків:
- Вона порівняно повільна (через необхідність обчислення власних векторів великих матриць)
- Не зрозуміла інтуїтивно, і часом результати можуть бути складними для інтерпретації
- Чутлива до випадкових початкових значень. Для кращого результату бажано запустити алгоритм кілька разів. Також це призводить до нестабільної роботи на зашумлених даних.
Порівняння з іншими алгоритмами кластеризації
Багато алгоритмів кластеризації, такі як метод k–середніх або [en], шукають глобулярні кластери — тобто опуклі кластери, які мають «центр» із великою щільністю, навколо якого й розподілені спостереження. Вони мають труднощі з пошуком кластерів складних форм (неопуклі фігури, протяжні лінії). На відміну від таких методів, спектральна кластеризація знаходить кластери довільної форми, зокрема такі складні, як спіралі, що переплітаються.
Результати алгоритмів, що базуються на оцінці щільності кластерів, таких як DBSCAN, подібні до результатів спектральної кластеризації, проте такі алгоритми можуть залишати частину точок не включеними в жоден з кластерів (особливо якщо різні кластери мають різну щільність). Спектральна кластеризація розподіляє всі точки спостереження. Проте спектральна кластеризація потребує задання кількості кластерів, тоді як DBSCAN — ні.
Більшість алгоритмів працюють із координатами точок у просторі ознак, або ж із матрицею відстаней між точками, тоді як спектральна кластеризація працює з матрицею подібності, що дозволяє їй бути гнучкішою в деяких випадках (наприклад, кластеризація слів у тексті).
Реалізація в програмних бібліотеках
Спектральна кластеризація включена в спеціалізовані математичні пакети на багатьох мовах: Scikit-learn і Dask, написані мовою Python, пакет kernlab на R, пакет SpectralClustering мовою Julia, бібліотека Dlib на . Також алгоритм реалізовано в математичних пакетах MATLAB, SAS.
Примітки
- Hall, Kenneth M. (1970). An r-Dimensional Quadratic Placement Algorithm. Management Science (англ.). 17 (3): 219—229.
- Essential spectral theory, Hall’s spectral graph drawing, the Fiedler value(англ.)
- Spielman, Daniel A.; Teng, Shang-Hua (2007). Spectral partitioning works: Planar graphs and finite element meshes. Linear Algebra and its Applications (англ.). 421 (2-3): 284—305. doi:10.1016/j.laa.2006.07.020.
- Donath, W.; Hoffman, A. (1972). Algorithms for partitioning of graphs and computer logic based on eigenvectors of connection matrices (PDF). IBM Technical Disclosure Bulletin (англ.). 15 (3): 938—944.
- Fiedler, Miroslav (1975). A property of eigenvectors of nonnegative symmetric matrices and its application to graph theory (PDF). Czechoslovak Mathematical Journal (англ.). 25 (4): 619—633.
- Guattery, Stephen; Miller, Gary L. (1995). On the Performance of Spectral Graph Partitioning Methods (PDF). ACM-SIAM Symposium on Discrete Algorithms (англ.): 233—242.
- Hagen, Lars; Kahng, Andrew B. (1992). New spectral methods for ratio cut partitioning and clustering (PDF). IEEE Transactions on Computer-Aided Design (англ.). 11 (9): 1074—1085.
- Shi, Jianbo; Malik, Jitendra (2000). Normalized Cuts and Image Segmentation (PDF). IEEE Transactions on Pattern Analysis and Machine Intelligence (англ.). 22 (8): 888—905. doi:10.1109/34.868688.
- Ding, Chris; Xiaofeng, He; Hongyuan, Zha (2001). A min-max cut algorithm for graph partitioning and data clustering (PDF). Proceedings 2001 IEEE International Conference on Data Mining (англ.): 107—114. doi:10.1109/ICDM.2001.989507.
- Meila, Marina; Shi, Jianb (2000). Learning Segmentation by Random Walks (PDF). Advances in Neural Information Processing Systems 13 (NIPS 2000) (англ.): 837—843. doi:10.5555/3008751.3008873.
{{}}
: Перевірте значення|doi=
() - Ng, Andrew Y.; Jordan, Michael I.; Weiss, Yair (2001). On Spectral Clustering: Analysis and an algorithm (PDF). Proceedings of the 14th International Conference on Neural Information Processing Systems: Natural and Synthetic (англ.): 849—856. doi:10.5555/2980539.2980649.
{{}}
: Перевірте значення|doi=
() - Affinity Matrix(англ.)
- Peluffo, D.; López, D. F.; Rodríguez, J. L. (2010). Affinity matrix selection for spectral clustering (PDF). XV Symposium of Image, Signal Processing, and Artificial Vision (STSIVA) (англ.).
- von Luxburg, Ulrike (2007). A Tutorial on Spectral Clustering (PDF). Statistics and Computing (англ.). 17 (4): 395—416. doi:10.1007/s11222-007-9033-z.
- Хасті,Тібширані,Фрідман, 2020, с. 574.
- Хасті,Тібширані,Фрідман, 2020, с. 575.
- Dhillon, I.; Guan, Y.; Kulis, B. (2004). A Unified View of Kernel k-means, Spectral Clustering and Graph Cuts (PDF). University of Texas Dept. of Computer Science (англ.) (TR-04-25).
- Roxborough, Tom; Sen, Arunabha (1997). [Graph Clustering Using Multiway Ratio Cut (PDF). Graph Drawing, 5th International Symposium (англ.): 291—296. doi:10.1007/3-540-63938-1_71.
- Graph Theory(англ.)
- Pentney, William; Meila, Marina (2005). Spectral Clustering of Biological Sequence Data (PDF). Proceedings of the national conference on artificial intelligence (англ.). 20: 845—850.
- Spectral clustering for image segmentation(англ.)
- Алгоритми сегментації напівтонових зображень для систем комп'ютерного зору
- Huang, Grace; Benos, Panayotis (2013). Spectral clustering strategies for heterogeneous disease expression data. Pac Symp Biocomput (англ.): 212—223.
- When to use spectral clustering(англ.)
- Practical 2: Cluster Detection(англ.)
- Comparing different clustering algorithms on toy datasets(англ.)
- Using Internal Validity Measures to Compare Clustering Algorithms(англ.)
- K-means and Spectral Clustering (англ.)
- sklearn.cluster.SpectralClustering
- dask_ml.cluster.SpectralClustering
- kernlab: Kernel-Based Machine Learning Lab(англ.)
- SpectralClustering.jl(англ.)
- spectral_cluster.h
- spectralcluster(англ.)
- Tip: Spectral Clustering in SAS Enterprise Miner Using Open Source Integration Node(англ.)
Література
- [en], [en], [en]. Основы статистического обучения: интеллектуальный анализ данных, логический вывод и прогнозирование. — 2-е изд. — Київ : «Діалектика-Вільямс», 2020. — 768 с. — .
- Bolla M. Spectral Clustering and Biclustering: Learning Large Graphs and Contingency Tables. — 1. — Wiley, 2013. — 292 с. — .
- Liu J., Han J. Spectral Clustering // Data clustering: Algorithms and Applications. — 1. — New York : Chapman and Hall, 2014. — 652 с. — .
Ця стаття належить до української Вікіпедії. |
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
Spektralna klasterizaciya metod klasterizaciyi osnovanij na koncepciyi en Na vidminu vid inshih metodiv takih yak metod k serednih sho shukayut shilni kompaktni opukli klasteri spektralna klasterizaciya mozhe znahoditi klasteri dovilnoyi formi Metod buv rozroblenij u 1970 h dlya rozdilennya grafiv i piznishe buv bagatorazovo polipshenij i zastosovanij dlya shirshogo klasu zadach Jogo ideya polyagaye v tomu shob rozglyadayuchi mnozhinu sposterezhen yak zvazhenij graf de kozhnomu sposterezhennyu vidpovidaye vershina a rebra mayut vagu sho dorivnyuye podibnosti pari sposterezhen znajti takij minimalnij rozriz cogo grafa shob dva otrimani pidgrafi buli blizkimi za rozmirom Nazvu metod otrimav cherez te sho vin gruntuyetsya na analizi spektru grafa mnozhini vlasnih znachen jogo matrici sumizhnosti Spektralna klasterizaciya odin z najpotuzhnishih suchasnih metodiv klasterizaciyi i mozhe zastosovuvatisya v bud yakih zadachah klasternogo analizu v tomu chisli takih yak segmentaciya zobrazhennya analiz ekspresiyi geniv grafiv socialnih merezh tosho IstoriyaPriklad spektralnogo rozbittya prostogo grafa na dvi chastini Vershini 1 4 vidpovidayut dodatnim komponentam vektora Fidlera a 5 8 vid yemnim Todi rozirvanimi mayut buti lishe dva rebra Ideya spektralnoyi klasterizaciyi gruntuyetsya na robotah Kenneta Holla vin shukav sposib sproyektuvati graf na chislovu pryamu ta bilsh zagalno v bagatovimirnij evklidiv prostir i zaproponuvav vikoristovuvati dlya cogo vlasni vektori matrici Laplasa a takozh Donata j Hoffmana yaki pomitili sho vlasni vektori modifikovanoyi matrici zv yaznosti mozhna zastosuvati dlya zadachi rozbittya grafa na rivni chastini U 1973 1975 rokah cheskij matematik en pokazav sho najmenshe nenulove vlasne znachennya matrici Laplasa grafa vidpovidaye jogo zv yaznosti j pokazav zv yazok vidpovidnogo vlasnogo vektora ta porodzhuvanoyi nim klasterizaciyi v zagalnomu vipadku rezultati Donata j Hoffmana stosuvalisya deyakih specifichnih tipiv grafiv Dorobok Fidlera v spektralnij teoriyi grafiv ye znachnim tomu najmenshe nenulove vlasne znachennya matrici Laplasa nazivayut chislom Fidlera a vidpovidnij vektor vektorom Fidlera Piznishe bulo pokazano sho grafi z malenkim chislom Fidlera mayut malenke spivvidnoshennya kilkosti vidalenih reber do kilkosti vershin yaki rozdilyayutsya sho vidpovidaye uyavlennyu pro horoshu klasterizaciyu Zastosuvannya algoritmu strimuvalosya vazhkistyu zadachi poshuku vlasnih znachen ta vektoriv dopoki u 80 h rokah ne z yavilisya efektivnishi algoritmi taki yak en i bagato eksperimentiv na realnih grafah pokazali praktichnu pridatnist metodu Targanyachij graf z roboti Millera i Gvattari Nayivna spektralna klasterizaciya proponuye rozdiliti graf navpil za vertikalnoyu liniyeyu rozrivayuchi k zv yazkiv zamist togo shob rozdiliti jogo za gorizontalnoyu rozrivayuchi lishe dva zv yazki Spektralna klasterizaciya shvidko stala populyarnoyu j standartnoyu v bagatoh galuzyah prote v 1995 roci Miller i Gvattari privernuli uvagu do divnoyi povedinki algoritmu na deyakih tipah grafiv Zastosovanij Fidlerom pidhid zgidno z yakim dva klasteri grafa viznachalisya za tim bilshi chi menshi za nul vidpovidni komponenti vektora Fidlera nayivna bisekciya davav vochevid nepravilnu klasterizaciyu na grafah sho mogli traplyatisya v realnomu zhitti Takozh u roboti bulo zaproponovano zastosovuvati dlya podilu ne lishe vektor Fidlera a j she kilka najmenshih nenulovih vlasnih vektoriv Takozh velisya poshuki optimalnogo znachennya dlya podilu vektora Fidlera zamist nulovogo 1992 roku Lars Hagen i Endryu Kang zaproponuvali novij pidhid dlya ocinki Ratio Cut yakij dozvoliv krashe znahoditi klasteri neodnakovogo rozmiru a v 2000 roci Czyanbo Shi i en zaproponuvali she odnu metriku yakosti klasterizaciyi i pokazali sho dlya poshuku najkrashogo rozrizu za neyu neobhidno modifikuvati matricyu Laplasa Taka modifikovana matricya otrimala nazvu normalizovana matricya Laplasa a sam metod otrimav nazvu Normal Cut abo NCut 2001 roku buv zaproponovanij MinMaxCut V 2001 roci Czyanbo Shi i Marina Mejla zaproponuvali novu interpretaciyu spektralnoyi klasterizaciyi za metodom NCut pri markivskomu vipadkovomu blukanni po grafu klasterizaciya vidilyaye taki komponenti perehodi mizh yakimi vidbuvayutsya yaknajridshe Togo zh roku Endryu In Majkl Dzhordan i Yayir Vajs zaproponuvali vikoristovuvati klasterizaciyu k serednih na prostori utvorenomu vlasnimi vektorami Vazhlivoyu zminoyu v yih pidhodi ye te sho zastosovuyutsya vlasni vektori sho vidpovidayut najbilshim a ne najmenshim vlasnim znachennyam a takozh vikoristovuyetsya specialna forma matrici Laplasa Metod Ina Dzhordana Vajsa nabuv populyarnosti ta chasto zgaduyetsya yak NJW algoritm AlgoritmPobudova matrici sumizhnosti Dlya predstavlennya vsih sposterezhen u viglyadi grafa potribno viznachiti funkciyu podibnosti Cya funkciya dvoh argumentiv maye buti nevid yemnoyu j simetrichnoyu Podibnist velika dlya blizkih tochok i pryamuye do nulya dlya dalekih Yaksho maksimalna podibnist dorivnyuye 1 vona mozhe buti interpretovana yak imovirnist togo sho sposterezhennya nalezhat do odnogo klasteru Dlya potreb algoritmu podibnist tochok samih sobi zanulyayetsya wii 0 displaystyle w ii 0 tobto otrimanij graf ne maye petel Yaksho blizkist tochok viznachayetsya vidstannyu mizh nimi prostim viborom zdayetsya podibnist yak velichina obernena do vidstani mizh tochkami wij 1 dij displaystyle w ij 1 d ij Prote cya velichina duzhe silno reaguye na mali zmini dlya blizkih tochok tomu v znamennik dodayut deyaku konstantu wij 1 dij e displaystyle w ij 1 d ij varepsilon Bilsh populyarnim viborom ye gausove yadro wij e dij2 t displaystyle w ij e d ij 2 t de t deyakij masshtabnij koeficiyent sho zadayetsya vruchnu abo jogo normalizovanij variant wij e dij2 sisj displaystyle w ij e d ij 2 sigma i sigma j de si displaystyle sigma i vidstan mizh tochkoyu xi displaystyle x i ta yiyi n tim najblizhchim susidom V okremih vipadkah mozhut zastosovuvatisya specifichni miri blizkosti taki yak koeficiyent Zhakkara abo kosinusna podibnist Poparni podibnosti mizh tochkami formuyut matricyu podibnosti angl Affinity matrix yaka poznachayetsya yak W displaystyle W Taku matricyu mozhna vvazhati matriceyu sumizhnosti zvazhenogo povnogo grafa tobto takogo de rebra isnuyut mizh bud yakimi dvoma vershinami a mozhna obnuliti deyaki z elementiv zmenshuyuchi kilkist reber Isnuye kilka pidhodiv do togo yaki rebra zalishati Tilki yaksho vidstan mizh vidpovidnimi tochkami ye menshoyu za deyaku velichinu dij e displaystyle d ij leq varepsilon Tilki yaksho tochka i displaystyle i vhodit do k displaystyle k najblizhchih susidiv tochki j displaystyle j abo zh tochka j displaystyle j vhodit do k displaystyle k najblizhchih susidiv tochki i displaystyle i Tilki yaksho tochka i displaystyle i vhodit do k displaystyle k najblizhchih susidiv tochki j displaystyle j i odnochasno tochka j displaystyle j vhodit do k displaystyle k najblizhchih susidiv tochki i displaystyle i mutual K nearest neighbors graph Pobudova matrici Laplasa j obchislennya yiyi vlasnih vektoriv Zadamo diagonalnu matricyu D displaystyle D chiyi elementi dorivnyuyut sumi vag vsih reber sho vihodyat iz vidpovidnoyi vershini dii j 1iwij displaystyle d ii sum j 1 i w ij Todi matricya Laplasa viznachayetsya yak L D W displaystyle L D W U deyakih dzherelah yiyi nazivayut matriceyu Kirhgofa Takozh zastosovuyetsya normalizovana matricya Laplasa L D 1 2 D W D 1 2 displaystyle L D 1 2 D W D 1 2 Inshim sposobom normalizaciyi matrici Laplasa ye L I DW displaystyle L I DW Dlya NSW algoritmu matricya Laplasa obchislyuyetsya yak L D 1 2WD 1 2 displaystyle L D 1 2 WD 1 2 U bud yakomu vipadku pislya obchislennya matrici Laplasa normalizovanoyi chi ni neobhidno obchisliti yiyi vlasni znachennya ta vlasni vektori Klasterizaciya za vlasnimi vektorami Graf sho skladayetsya z dvoh komponent i vektor Fidlera cogo grafu Pozitivni j negativni komponenti vektora dobre rozdilyayutsya Yaksho graf sho zadayetsya matriceyu sumizhnosti W displaystyle W maye P displaystyle P komponent to P displaystyle P vlasnih chisel matrici Laplasa budut nulovimi Reshta z nih zavzhdi budut dodatnimi Dlya klasterizaciyi neobhidno vzyati odin abo bilshe vektoriv sho vidpovidayut najmenshim nenulovim vlasnim znachennyam U najprostishomu varianti beretsya odin vektor Kilkist komponent vektora dorivnyuye kilkosti tochok u grafi U vipadku horoshoyi klasterizaciyi komponenti vektora utvoryuyut yaskravo virazheni klasteri yaki mozhut buti zistavleni z originalnimi tochkami Chasto znachennya sho rozdilyaye dva klasteri lezhit poblizu nulya abo dorivnyuye nulyu Vektor Fidlera dlya targanyachogo grafu Pozitivni j negativni komponenti vektora rozdilyayutsya pogano prote mozhlivij podil na tri klasteri zamist dvoh Dlya podilu na bilsh nizh dva klasteri algoritm mozhna zastosovuvati rekursivno ale dlya deyakih grafiv krashim ye podil odrazu na kilka komponent Yaksho v spektri grafa ye rozriv angl eigengap tobto promizhok mizh k displaystyle k i k 1 displaystyle k 1 nenulovimi vlasnimi znachennyami znachno bilshij za promizhki mizh susidnimi z nimi vlasnimi znachennyami to kilkist klasteriv dorivnyuye k displaystyle k Yaksho zh vikoristovuyutsya bilshe odnogo vlasnogo vektora z nih formuyetsya nova matricya u yakij kozhen ryadok vidpovidaye tochci grafa a kozhen stovpchik odnomu z obranih vlasnih vektoriv Taka matricya mozhe buti interpretovana yak tochki v deyakomu p displaystyle p vimirnomu prostori de p displaystyle p kilkist vektoriv U comu prostori mozhna provesti klasterizaciyu za yakoyus prostoyu proceduroyu zazvichaj k serednih abo DBSCAN Klasteri viyavleni v comu prostori vlasnih vektoriv vidpovidayut klasteram v originalnomu prostori NJW algoritm pracyuye analogichno prote cherez inshij viglyad matrici Laplasa zastosovuyutsya vektori yakim vidpovidayut najbilshi vlasni chisla a ne najmenshi Kilkist vektoriv u comu vipadku takozh dorivnyuye kilkosti klasteriv yaki bazhano otrimati Cilovi funkciyi klasterizaciyi Isnuye kilka pidhodiv ocinyuvannya klasterizaciyi RatioCut shukaye takij podil na dva pidgrafi U displaystyle U i V displaystyle V sho minimizuyetsya velichinaRratio U V cut U V 1 U 1 V displaystyle Rratio U V cut U V 1 U 1 V abo cut U V U V displaystyle frac cut U V U cdot V de cut U V displaystyle cut U V sumarna vaga zv yazkiv sho rozrivayutsya a U V displaystyle U V kilkist vershin v otrimanih klasterah Cej princip mozhe buti rozshirenij i na vipadok bilshe nizh dvoh klasteriv Rratio V1 V2 Vn cut V1 V2 Vn V1 V2 Vn displaystyle Rratio V 1 V 2 V n frac cut V 1 V 2 V n V 1 cdot V 2 cdot cdot V n NormalCut minimizuye velichinuRnormal U V cut U V 1 dU 1 dV displaystyle Rnormal U V cut U V 1 d U 1 d V de dA displaystyle d A sumarna vaga vsih reber yaki vihodyat z vershin klastera A vklyuchno z timi yaki z yednuyut jogo z inshimi klasterami MinMaxCut minimizuye velichinuRmm U V cut U V 1dU cut U V 1dV cut U V displaystyle Rmm U V cut U V left frac 1 d U cut U V frac 1 d V cut U V right tobto v znamenniku na vidminu vid NormalCut stoyit suma vagi lishe tih reber yaki z yednuyut tochki vseredini klasteru rebra sho spoluchayut rizni klasteri ne vrahovuyutsya Princip roboti algoritmuUyavimo sho mi mayemo zvazhenij graf G displaystyle G z vershinami V displaystyle V rebrami E displaystyle E ta matriceyu sumizhnosti W displaystyle W yakij deyakim chinom rozdilyayemo na dva klasteri Poznachivshi nalezhnist kozhnoyi tochki do odnogo z klasteriv chislom 1 abo 1 mi otrimayemo vektor vidu x 1 1 1 1 1 1 yakij opisuvatime konkretnu klasterizaciyu Yaksho mi hochemo shob klasteri mali odnakovij rozmir mi mozhemo zapisati umovu ixi 0 displaystyle sum i x i approx 0 rivnist ye nablizhenoyu oskilki napriklad pri neparnij kilkosti vershin taka suma ne mozhe dorivnyuvati nulyu Teper sprobuyemo z vrahuvannyam ciyeyi umovi ociniti velichinu xi xj Ewij xi xj 2 displaystyle sum x i x j in E w ij x i x j 2 de sumuvannya prohodit po vsih rebrah grafa Zrozumilo sho dlya reber yaki nalezhat do odnogo klasteru suma dorivnyuye nulyu i znachennya virazu zalezhit lishe vid tih reber yaki z yednuyut tochki z riznih klasteriv Tomu minimizaciya cogo virazu z urahuvannyam umovi vishe dast nam take rozbittya grafa na dvi rivni polovini pri yakomu sumarna vaga rozirvanih reber bude minimalnoyu Prote nablizhena umova predstavlena vishe nepraktichna tomu neobhidno desho vidozminiti cyu zadachu Nehaj xi displaystyle x i mozhut nabuvati dovilnih dijsnih znachen Todi mozhna perepisati umovu u strogomu viglyadi ixi 0 displaystyle sum i x i 0 Takozh shob uniknuti trivialnogo rozv yazku xi 0 displaystyle x i 0 yakij vinikatime v comu vipadku dodamo drugu umovu ixi2 1 displaystyle sum i x i 2 1 Todi mozhna ochikuvati sho odna grupa tochok matime dodatni znachennya blizki mizh soboyu yih riznici budut minimalni a insha vid yemni Veliki riznici mizh dodatnimi j vid yemnimi znachennyami budut vinikati yak i v pershomu prikladi lishe koli rebra z yednuyut dva klasteri Viraz vishe pov yazanij iz nenormalizovanoyu matriceyu Laplasa grafu xi xj Ewij xi xj 2 xi xj Ewij xi2 xj2 xi xj Ewij2xixj xi Vdixi2 xTWx xTDx xTWx xTLx displaystyle sum x i x j in E w ij x i x j 2 sum x i x j in E w ij x i 2 x j 2 sum x i x j in E w ij 2x i x j sum x i in V d i x i 2 x T Wx x T Dx x T Wx x T Lx Tobto nam neobhidno znajti takij vektor x displaystyle x pri yakomu viraz xTLx displaystyle x T Lx nabuvaye minimalnogo znachennya vrahovuyuchi umovi ixi 0 displaystyle sum i x i 0 i ixi2 1 displaystyle sum i x i 2 1 Dovedemo sho rozv yazok ciyeyi zadachi u vipadku odnozv yaznogo grafa dayetsya vlasnim vektorom sho vidpovidaye drugomu najmenshomu vlasnomu znachennyu matrici Laplasa cogo grafa Suma bud yakogo ryadka abo stovpchika matrici L displaystyle L dorivnyuye nulyu tomu mozhna zapisati L1 0 01 displaystyle L bar 1 0 0 bar 1 otzhe odne z vlasnih chisel L displaystyle L dorivnyuye nulyu a vidpovidnij vlasnij vektor maye vsi n displaystyle n komponent rivnimi Zi spektralnoyi teoremi viplivaye sho vsi vlasni vektori L displaystyle L utvoryuyut ortonormovanij bazis tobto yih dovzhina dorivnyuye 1 Otzhe vsi komponenti pershogo vektora dorivnyuyut 1 n displaystyle 1 sqrt n Reshta vlasnih chisel matrici Laplasa bilshi za nul v podalshomu budemo vvazhati sho vsi vlasni chisla pronumerovani v poryadku zrostannya i v tomu zh poryadku pronumerovani vidpovidni yim vektori Dovzhina bud yakogo z pov yazanih iz nimi vlasnih vektoriv v displaystyle bar v takozh dorivnyuye odinici a otzhe ivi2 1 displaystyle sum i v i 2 1 Takozh skalyarnij dobutok bud yakoyi pari vektoriv dorivnyuye nulyu a otzhe dlya bud yakogo vlasnogo vektora krim pershogo ivi n 0 ivi 0 displaystyle sum i v i sqrt n 0 Rightarrow sum i v i 0 Vektor x displaystyle x mozhe buti rozkladenij u bazisi vlasnih vektoriv x iv iai displaystyle x sum i bar v i a i Prote yaksho suma komponentiv vektora x displaystyle x yakij mi shukayemo dorivnyuye nulyu to mnozhnik pri pershomu vlasnomu vektori yedinomu suma komponentiv yakogo nenulova dorivnyuye nulyu Krim togo suma kvadrativ komponentiv x displaystyle x dorivnyuye sumi kvadrativ koeficiyentiv rozkladu ai displaystyle a i ixi2 xTx i 2nv iai T j 2nv jaj i 2n j 2nv iTv jaiaj iai2 displaystyle sum i x i 2 x T x left sum i 2 n bar v i a i right T left sum j 2 n bar v j a j right sum i 2 n sum j 2 n bar v i T bar v j a i a j sum i a i 2 Todi skoristavshis tim sho za viznachennyam vlasnih vektoriv Lv j ljv j displaystyle L bar v j lambda j bar v j mi mozhemo zapisati sho xTLx i 2nv iai TL j 2nv jaj i 2n j 2naiajv iTLv j i 2n j 2naiajv iTljv j i 2n j 2naiajljv iTv j i 2nai2li displaystyle x T Lx left sum i 2 n bar v i a i right T L left sum j 2 n bar v j a j right sum i 2 n sum j 2 n a i a j bar v i T L bar v j sum i 2 n sum j 2 n a i a j bar v i T lambda j bar v j sum i 2 n sum j 2 n a i a j lambda j bar v i T bar v j sum i 2 n a i 2 lambda i Oskilki l2 l3 l4 ln displaystyle lambda 2 leq lambda 3 leq lambda 4 leq lambda n a suma kvadrativ ai displaystyle a i dorivnyuye odinici to zrozumilo sho minimalnogo znachennya funkciya nabuvaye koli a2 1 a3 a4 an 0 displaystyle a 2 1 a 3 a 4 a n 0 Tobto vektor x displaystyle x dorivnyuye drugomu vlasnomu vektoru Interpretaciya vipadkovogo blukannyaYaksho mi rozglyanemo markivske vipadkove blukannya po grafu take sho matricya P D 1W displaystyle P D 1 W mistit u sobi jmovirnosti perehodu vid vershini do vershini to spektralna klasterizaciya opisuvatime rozbittya na taki grupi vershin sho perehodi mizh nimi ye duzhe malojmovirnimi ZastosuvannyaSpektralnu klasterizaciyu vvazhayut odnim iz najbilsh progresivnih i populyarnih metodiv klasterizaciyi zavdyaki universalnosti zdatnosti pracyuvati z bagatovimirnimi danimi j obroblyati kategorialni oznaki i mozhlivosti znahoditi klasteri dovilnoyi formi Vona znahodit zastosuvannya v biologiyi analiz ekspresiyi geniv poslidovnosti aminokislot u bilkah sociologiyi psihologiyi obrobci zobrazhen vidilennya ob yektiv na zobrazhenni Pri vikoristanni algoritmu koristuvach maye viznachiti nastupni parametri Matricya sumizhnosti grafa Ye odnim z najvazhlivishih parametriv bo viznachaye vlasne zovnishnij vid grafa Mozhna rozdiliti cyu zadachu na dvi pidzadachi Viznachennya funkciyi podibnosti Deyaki funkciyi podibnosti v tomu chisli najpopulyarnisha gaussove yadro mayut u sobi dodatkovi giperparametri taki yak masshtabnij faktor Vibir chi bude graf povnim abo zh kozhna tochka bude z yednuvatisya lishe z najblizhchimi susidami U drugomu vipadku z yavlyayetsya dodatkovij parametr kilkist susidiv abo maksimalna vidstan mizh nimi Vibir matrici Laplasa normalizovana abo nenormalizovana Yaksho zadacha krashe vidpovidaye RatioCut to krashe vikoristovuvati nenormalizovanu matricyu a yaksho NCut to normalizovanu Yaksho ye sumnivi zagalom krashim viborom vvazhayetsya normalizovana matricya Laplasa Kilkist klasteriv na yaki potribno rozdiliti graf i metod podilu rekursivnij abo klasterizaciya cherez k serednih Yaksho u spektri grafa ye yaskravo virazhenij en to jogo polozhennya mozhe vkazuvati na optimalnu kilkist klasteriv Popri znachni perevagi spektralna klasterizaciya maye j kilka nedolikiv Vona porivnyano povilna cherez neobhidnist obchislennya vlasnih vektoriv velikih matric Ne zrozumila intuyitivno i chasom rezultati mozhut buti skladnimi dlya interpretaciyi Chutliva do vipadkovih pochatkovih znachen Dlya krashogo rezultatu bazhano zapustiti algoritm kilka raziv Takozh ce prizvodit do nestabilnoyi roboti na zashumlenih danih Porivnyannya z inshimi algoritmami klasterizaciyiPorivnyannya spektralnoyi klasterizaciyi livoruch i klasterizaciyi metodom k serednih na neglobulyarnih klasterah Bagato algoritmiv klasterizaciyi taki yak metod k serednih abo en shukayut globulyarni klasteri tobto opukli klasteri yaki mayut centr iz velikoyu shilnistyu navkolo yakogo j rozpodileni sposterezhennya Voni mayut trudnoshi z poshukom klasteriv skladnih form neopukli figuri protyazhni liniyi Na vidminu vid takih metodiv spektralna klasterizaciya znahodit klasteri dovilnoyi formi zokrema taki skladni yak spirali sho pereplitayutsya Rezultati algoritmiv sho bazuyutsya na ocinci shilnosti klasteriv takih yak DBSCAN podibni do rezultativ spektralnoyi klasterizaciyi prote taki algoritmi mozhut zalishati chastinu tochok ne vklyuchenimi v zhoden z klasteriv osoblivo yaksho rizni klasteri mayut riznu shilnist Spektralna klasterizaciya rozpodilyaye vsi tochki sposterezhennya Prote spektralna klasterizaciya potrebuye zadannya kilkosti klasteriv todi yak DBSCAN ni Bilshist algoritmiv pracyuyut iz koordinatami tochok u prostori oznak abo zh iz matriceyu vidstanej mizh tochkami todi yak spektralna klasterizaciya pracyuye z matriceyu podibnosti sho dozvolyaye yij buti gnuchkishoyu v deyakih vipadkah napriklad klasterizaciya sliv u teksti Realizaciya v programnih bibliotekahSpektralna klasterizaciya vklyuchena v specializovani matematichni paketi na bagatoh movah Scikit learn i Dask napisani movoyu Python paket kernlab na R paket SpectralClustering movoyu Julia biblioteka Dlib na C Takozh algoritm realizovano v matematichnih paketah MATLAB SAS PrimitkiHall Kenneth M 1970 An r Dimensional Quadratic Placement Algorithm Management Science angl 17 3 219 229 Essential spectral theory Hall s spectral graph drawing the Fiedler value angl Spielman Daniel A Teng Shang Hua 2007 Spectral partitioning works Planar graphs and finite element meshes Linear Algebra and its Applications angl 421 2 3 284 305 doi 10 1016 j laa 2006 07 020 Donath W Hoffman A 1972 Algorithms for partitioning of graphs and computer logic based on eigenvectors of connection matrices PDF IBM Technical Disclosure Bulletin angl 15 3 938 944 Fiedler Miroslav 1975 A property of eigenvectors of nonnegative symmetric matrices and its application to graph theory PDF Czechoslovak Mathematical Journal angl 25 4 619 633 Guattery Stephen Miller Gary L 1995 On the Performance of Spectral Graph Partitioning Methods PDF ACM SIAM Symposium on Discrete Algorithms angl 233 242 Hagen Lars Kahng Andrew B 1992 New spectral methods for ratio cut partitioning and clustering PDF IEEE Transactions on Computer Aided Design angl 11 9 1074 1085 Shi Jianbo Malik Jitendra 2000 Normalized Cuts and Image Segmentation PDF IEEE Transactions on Pattern Analysis and Machine Intelligence angl 22 8 888 905 doi 10 1109 34 868688 Ding Chris Xiaofeng He Hongyuan Zha 2001 A min max cut algorithm for graph partitioning and data clustering PDF Proceedings 2001 IEEE International Conference on Data Mining angl 107 114 doi 10 1109 ICDM 2001 989507 Meila Marina Shi Jianb 2000 Learning Segmentation by Random Walks PDF Advances in Neural Information Processing Systems 13 NIPS 2000 angl 837 843 doi 10 5555 3008751 3008873 a href wiki D0 A8 D0 B0 D0 B1 D0 BB D0 BE D0 BD Cite journal title Shablon Cite journal cite journal a Perevirte znachennya doi dovidka Ng Andrew Y Jordan Michael I Weiss Yair 2001 On Spectral Clustering Analysis and an algorithm PDF Proceedings of the 14th International Conference on Neural Information Processing Systems Natural and Synthetic angl 849 856 doi 10 5555 2980539 2980649 a href wiki D0 A8 D0 B0 D0 B1 D0 BB D0 BE D0 BD Cite journal title Shablon Cite journal cite journal a Perevirte znachennya doi dovidka Affinity Matrix angl Peluffo D Lopez D F Rodriguez J L 2010 Affinity matrix selection for spectral clustering PDF XV Symposium of Image Signal Processing and Artificial Vision STSIVA angl von Luxburg Ulrike 2007 A Tutorial on Spectral Clustering PDF Statistics and Computing angl 17 4 395 416 doi 10 1007 s11222 007 9033 z Hasti Tibshirani Fridman 2020 s 574 Hasti Tibshirani Fridman 2020 s 575 Dhillon I Guan Y Kulis B 2004 A Unified View of Kernel k means Spectral Clustering and Graph Cuts PDF University of Texas Dept of Computer Science angl TR 04 25 Roxborough Tom Sen Arunabha 1997 Graph Clustering Using Multiway Ratio Cut PDF Graph Drawing 5th International Symposium angl 291 296 doi 10 1007 3 540 63938 1 71 Graph Theory angl Pentney William Meila Marina 2005 Spectral Clustering of Biological Sequence Data PDF Proceedings of the national conference on artificial intelligence angl 20 845 850 Spectral clustering for image segmentation angl Algoritmi segmentaciyi napivtonovih zobrazhen dlya sistem komp yuternogo zoru Huang Grace Benos Panayotis 2013 Spectral clustering strategies for heterogeneous disease expression data Pac Symp Biocomput angl 212 223 When to use spectral clustering angl Practical 2 Cluster Detection angl Comparing different clustering algorithms on toy datasets angl Using Internal Validity Measures to Compare Clustering Algorithms angl K means and Spectral Clustering angl sklearn cluster SpectralClustering dask ml cluster SpectralClustering kernlab Kernel Based Machine Learning Lab angl SpectralClustering jl angl spectral cluster h spectralcluster angl Tip Spectral Clustering in SAS Enterprise Miner Using Open Source Integration Node angl Literatura en en en Osnovy statisticheskogo obucheniya intellektualnyj analiz dannyh logicheskij vyvod i prognozirovanie 2 e izd Kiyiv Dialektika Vilyams 2020 768 s ISBN 978 617 7812 91 2 Bolla M Spectral Clustering and Biclustering Learning Large Graphs and Contingency Tables 1 Wiley 2013 292 s ISBN 978 111 8344 92 7 Liu J Han J Spectral Clustering Data clustering Algorithms and Applications 1 New York Chapman and Hall 2014 652 s ISBN 9781315373515 Cya stattya nalezhit do dobrih statej ukrayinskoyi Vikipediyi