Розклад невід'ємних матриць (NMF(Non-negative matrix factorization)) це група алгоритмів багатовимірного аналізу та лінійної алгебри, де матриця V розкладається в, зазвичай, дві матриці W, H, враховуючи, що жодна з трьох матриць немає від'ємних елементів. Завдяки невід'ємності результуючі матриці легко перевіряються. Крім того, в таких програмах, як обробка аудіо спектрограм даним притаманна ця невід'ємність. Так як проблема немає точних розв'язків, в загальному випадку, зазвичай, знаходять числове наближення.
NMF застосовується в таких областях, як машинне бачення, кластеризація документів, хемометрика, обробка аудіо сигналів і рекомендаційні системи.
Історія
У хемометриці розклад невід'ємних матриць має довгу історію під назвою «крива самостійного моделювання».У рамках цього фреймворку вектори у правій матриці представляють неперервні криві, а не дискретні вектори. Також ранню роботу з розкладу невід'ємних матриць проводила група фінських вчених в середині 1990-х, під назвою «позитивної матричної факторизації». Він став широко відомим як факторизація невід'ємних матриць після того, як Лі і Сунг дослідили властивості алгоритму і опублікували кілька простих і корисних алгоритмів для двох типів факторизацій(множників).
Теорія
Нехай матриця V є добутком матриці W і H
Множення матриць може бути реалізоване як обчислення вектор-стовпчиків матриці V,у вигляді лінійної комбінації вектор-стовпчиків матриці W використовуючи коефіцієнти, що відповідають векторам-рядкам матриці H.Тобто, кожен стовпець V може бути обчислено таким чином:
де vi — і-ий вектор-стовпчик матриці V, a hi — і-ий вектор-стовпчик матриці H.
При множенні матриць, розміри матриць-множників можуть бути значно меншими від розмірів матриці-результата і саме ця властивість формує основну властивість NMF-алгоритму. Тобто, NMF генерує матриці-множники, які набагато менші в порівнянні з вихідною матрицею. Наприклад, коли V розміру m×n, W — m×p, a H — p×n, то p може бути значно меншим від n i m.
Приклад на основі текстового аналізу: •Нехай матриця V має 10000 рядків і 500 стовпчиків, де слова є в рядках, а документи- стовпчиками. Тобто є 500 проіндексованих документів по 100000 слів. •Припустимо, нам потрібно знайти алгоритм, що дає 10 можливостей для того, щоб генерувати матриці W з 10000 рядків і 10 стовпців і коефіцієнти матриці H з 10 рядків і 500 стовпців. •Добуток W на H має розмірність 10000 на 500 і, якщо розклад спрацював правильно, елементи якого приблизно рівні елементам вихідної матриці V. •З цього випливає, що кожен стовпчик з матриці WH є лінійною комбінацією векторів 10 стовпців W і відповідних рядків з матриці H.
Цей останній пункт є основою NMF, тому що ми можемо розглядати кожен вихідний документ у нашому прикладі, який будується з невеликого набору прихованих функцій. NMF генерує ці функції.
Інколи корисно розглядати вектор стовпчик з властивостей матриці W як архетип документа, що містить набір слів, де значення комірки кожного слова визначає ранг даного слова у функції: чим вище значення слова, тим вище ранг слова в функції. Стовпчик в коефіцієнтах матриці H представляє оригінальний документ зі значенням, що визначає значення документа у функції. Це виконується, бо кожен рядок матриці H представляє функцію(властивість). Тепер ми можемо відновити документ (стовпчик вектор) з заданої матриці лінійною комбінацією властивостей (вектори- стовпчики в W ,де кожне значення рівне значенню клітинки із стовпчика документу у H.
Типи
Наближений розклад невід'ємних матриць
Зазвичай кількість стовпців у Wі к-сть рядків у H у NMF вибирається так, щоб WH було наближенням до V. Повний розклад V є двома невід'ємними матрицями W і H а також залишкової U, тобто : V = WH + U.Елементи залишкової матриці можуть бути як від'ємними, так і додатними.
Якщо W іHє меншими, ніж V , то їх легше зберігати і ними маніпулювати. Ще одна причина розкладу V на менші матриці W іH, якщо можна представити елементи V набагато меншою кількістю даних, то можна уявити структури, заховані у цих даних з набагато меншими втратами.
Опуклий розклад невід'ємних матриць
В стандартному NMF, фактор матриця , i.e., W може бути чим завгодно з цього простору. Опуклий NMF обмежує до опуклої комбінації векторів вхідних даних .Це значно підвищує якість представлених даних W. Крім того, результат фактор матриці H стає більш розрідженим і ортогональним.
Невід'ємний ранг розкладу
Якщо невід'ємний ранг V рівний рангу, V=WH, то він називається невід'ємним рангом розкладу . Проблемою у відшуканні NRF для V,є те що така проблема є NP-повною.
Різновиди функцій втрат і регуляризації
Є різні типи розкладу невід'ємних матриць. Різні типи виникають із використанням різних функцій втрат для вимірювання різниці між V іWH і, можливо, із регуляризацією матриці W і/абоH .
Дві прості функції вивчені Лі і Сунгом — це квадрат помилки (або Фробеніусова норма) і розширення відмінності додатних матриць Кулбека-Лейблера. Кожна відмінність призводить до іншого алгоритму NMF, зазвичай мінімузуючого відмінність за допомогою ітеративного процесу.
Проблема факторизації у випадку NMF з квадратом помилки може записуватись так: Дано матрицю знайти невід'ємні матриці W і H, що мінімізують функцію
Ще один тип NMF для зображень базується на нормі повної варіації.
Online NMF
Багато стандартних алгоритмів NMF аналізують всі дані разом, тобто вся матриця доступна з самого початку. Це може бути незадовільним в додатках, де є занадто багато даних, щоб поміститися в пам'яті або де дані представлені в потоковому вигляді. Прикладом таких може бути колаборативна фільтрація у рекомендаційній системі, де може бути багато користувачів і багато предметів, для рекомендацій, і це було б неефективно перерахувати все, коли один користувач або один елемент буде додано в систему. Функція втрат для оптимізації в таких випадках може або не може бути такою ж, як і для стандартного NMF, але алгоритми повинні бути досить різні.
Алгоритми
Є кілька способів знаходження W and H :правило мультиплікативного оновлення Лі і Сунга, було популярним методом з простою реалізацією. З того часу було розроблено ще кілька інших алгоритмів.
Кілька вдалих алгоритмів базуються на невід'ємних найменших квадратах : на кожному кроці цього алгоритму, спочатку H є фіксованою, а W знаходиться методом невід'ємних найменших квадратів, тодіW стає фіксованою, а H знаходиться аналогічно. Процедура знаходження W і H може бути такою ж або відмінною, від варіанту регуляризації у NMF одної з W іH. Конкретні підходи включають Метод найшвидшого спуску, метод активної множини, а також метод повороту головного блоку.
Алгоритми, що доступні зараз є не зовсім оптимальними, бо вони можуть тільки гарантувати знаходження локального мінімуму, порівняно з глобольним мінімумом у функції втрат. Швидше за все оптимальний алгоритм навряд чи буде знайдено в найближчому майбутньому, так як проблема узагальнює проблему K-засобів кластеризації, яка, як відомо єNP-повною. Проте, в багатьох додатках з добування даних, локальний мінімум є корисним.
Точний NMF
Точний розв'язок для варіантів NMF можна очікувати (за поліноміальний час) коли на матрицю V накладаються додаткові обмеження. Поліноміальний алгоритм для знаходження невід'ємного рангу факторизації, якщо V містить одночлен субматрицю рангу, рівного за рангом даній(Кемпбелл і Пул в 1981 році). Kalofolias and Gallopoulos (2012) вирішити симетричний аналог цієї проблеми, де V симетрична і містить діагональ основної субматриці рангу г. Їх алгоритм виконується зі складністю O(rm²) при високій щільності. Arora, Ge, Halpern, Mimno, Moitra, Sontag, Wu, & Zhu (2013) продемонстрували точний поліноміальний алгоритм NMF, який працює у випадку, де один з факторів W задовольняє умову роздільності.
Посилання
- Tandon, Rashish; Suvrit Sra (2010). Sparse nonnegative matrix approximation: new formulations and algorithms (PDF). TR.
- ; (1971). Self modeling curve resolution. . 13 (3): 617+. doi:10.2307/1267173.
- P. Paatero, U. Tapper (1994). Positive matrix factorization: A non-negative factor model with optimal utilization of error estimates of data values. . 5 (2): 111—126. doi:10.1002/env.3170050203.
- , , Unto Tapper, Olli Järvinen (1995). Source identification of bulk wet deposition in Finland by positive matrix factorization. . 29 (14): 1705—1718. doi:10.1016/1352-2310(94)00367-T.
- Daniel D. Lee and (1999). Learning the parts of objects by non-negative matrix factorization. Nature. 401 (6755): 788—791. doi:10.1038/44565. PMID 10548103.
- Daniel D. Lee and H. Sebastian Seung (2001). Algorithms for Non-negative Matrix Factorization. Advances in Neural Information Processing Systems 13: Proceedings of the 2000 Conference. MIT Press. с. 556—562.[недоступне посилання з червня 2019]
- C Ding, T Li, MI Jordan, Convex and semi-nonnegative matrix factorizations, IEEE Transactions on Pattern Analysis and Machine Intelligence, 32, 45-55, 2010
- Berman, A.; R.J. Plemmons (1974). Inverses of nonnegative matrices. Linear and Multilinear Algebra. 2: 161—172. doi:10.1080/03081087408817055.
- A. Berman, R.J. Plemmons (1994). Nonnegative matrices in the Mathematical Sciences. Philadelphia: SIAM.
- Thomas, L.B. (1974). Problem 73-14, Rank factorization of nonnegative matrices. SIAM rev. 16 (3): 393—394. doi:10.1137/1016064.
- Vavasis, S.A. (2009). On the complexity of nonnegative matrix factorization. SIAM J. Optim. 20: 1364—1377. doi:10.1137/070709967.
- , (2005). (PDF). . Архів оригіналу (PDF) за 7 серпня 2011. Процитовано 2 червня 2015.
- DOI:10.1016/j.neucom.2008.01.022
Нема шаблону {{}}.заповнити вручну - (PDF). Архів оригіналу (PDF) за 24 вересня 2015. Процитовано 2 червня 2015.
{{}}
: Обслуговування CS1: Сторінки з текстом «archived copy» як значення параметру title () - http://portal.acm.org/citation.cfm?id=1339264.1339709
- DOI:10.1162/neco.2007.19.10.2756
Нема шаблону {{}}.заповнити вручну - Hoyer, Patrik O. (2002). Non-negative sparse coding. Proc. IEEE Workshop on Neural Networks for Signal Processing. arXiv:cs/0202009.(англ.) Наведено за англійською вікіпедією.
- DOI:10.1109/TNN.2007.895831
Нема шаблону {{}}.заповнити вручну - Rainer Gemulla; Erik Nijkamp; Peter J Haas; Yannis Sismanis (2011). Large-scale matrix factorization with distributed stochastic gradient descent. Proc. ACM SIGKDD Int'l Conf. on Knowledge discovery and data mining. с. 69—77.(англ.) Наведено за англійською вікіпедією.
- Hyunsoo Kim and Haesun Park (2008). (PDF). . 30 (2): 713—730. doi:10.1137/07069239x. Архів оригіналу (PDF) за 13 жовтня 2015. Процитовано 2 червня 2015.
- Jingu Kim and Haesun Park (2011). Fast Nonnegative Matrix Factorization: An Active-set-like Method and Comparisons (PDF). SIAM Journal on Scientific Computing. 33 (6): 3261—3281. doi:10.1137/110821172.[недоступне посилання з квітня 2019]
- Ding, C. and He, X. and Simon, H.D., (2005). On the equivalence of nonnegative matrix factorization and spectral clustering. Proc. SIAM Data Mining Conf. 4: 606—610. doi:10.1137/1.9781611972757.70.
- Campbell, S.L.; G.D. Poole (1981). Computing nonnegative rank factorizations. Linear Algebra Appl. 35: 175—182. doi:10.1016/0024-3795(81)90272-x.
- Kalofolias, V.; Gallopoulos, E. (2012). . Linear Algebra Appl. 436: 421—435. doi:10.1016/j.laa.2011.03.016. Архів оригіналу за 24 вересня 2015. Процитовано 2 червня 2015.
- Arora, Sanjeev; Ge, Rong; Halpern, Yoni; Mimno, David; Moitra, Ankur; Sontag, David; Wu, Yichen; Zhu, Michael (2013). . Proceedings of the 30th International Conference on Machine Learning. arXiv:1212.4777. Архів оригіналу за 2 квітня 2015. Процитовано 2 червня 2015.
Додатково
- J. Shen, G. W. Israël (1989). A receptor model using a specific non-negative transformation technique for ambient aerosol. . 23 (10): 2289—2298. doi:10.1016/0004-6981(89)90190-X.
- (1997). Least squares formulation of robust non-negative factor analysis. . 37 (1): 23—35. doi:10.1016/S0169-7439(96)00044-5.
- Raul Kompass (2007). A Generalized Divergence Measure for Nonnegative Matrix Factorization. . 19 (3): 780—791. doi:10.1162/neco.2007.19.3.780. PMID 17298233.
- Liu, W.X. and Zheng, N.N. and You, Q.B. (2006). Nonnegative Matrix Factorization and its applications in pattern recognition (PDF). . 51 (17–18): 7—18. doi:10.1007/s11434-005-1109-6.[недоступне посилання]
- Ngoc-Diep Ho, Paul Van Dooren and Vincent Blondel (2008). Descent Methods for Nonnegative Matrix Factorization. arXiv:0801.3199 [cs.NA].
- , Rafal Zdunek and (2008). Nonnegative Matrix and Tensor Factorization. . 25 (1): 142—145. doi:10.1109/MSP.2008.4408452.
- Cédric Févotte, Nancy Bertin, and Jean-Louis Durrieu (2009). Nonnegative Matrix Factorization with the Itakura-Saito Divergence: With Application to Music Analysis. . 21 (3): 793—830. doi:10.1162/neco.2008.04-08-771. PMID 18785855.
- Ali Taylan Cemgil (2009). Bayesian Inference for Nonnegative Matrix Factorisation Models. . 2009 (2): 1. doi:10.1155/2009/785152. PMC 2688815. PMID 19536273.
{{}}
: Обслуговування CS1: Сторінки із непозначеним DOI з безкоштовним доступом ()[недоступне посилання]
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
Rozklad nevid yemnih matric NMF Non negative matrix factorization ce grupa algoritmiv bagatovimirnogo analizu ta linijnoyi algebri de matricya V rozkladayetsya v zazvichaj dvi matrici W H vrahovuyuchi sho zhodna z troh matric nemaye vid yemnih elementiv Zavdyaki nevid yemnosti rezultuyuchi matrici legko pereviryayutsya Krim togo v takih programah yak obrobka audio spektrogram danim pritamanna cya nevid yemnist Tak yak problema nemaye tochnih rozv yazkiv v zagalnomu vipadku zazvichaj znahodyat chislove nablizhennya V W H NMF zastosovuyetsya v takih oblastyah yak mashinne bachennya klasterizaciya dokumentiv hemometrika obrobka audio signaliv i rekomendacijni sistemi IstoriyaU hemometrici rozklad nevid yemnih matric maye dovgu istoriyu pid nazvoyu kriva samostijnogo modelyuvannya U ramkah cogo frejmvorku vektori u pravij matrici predstavlyayut neperervni krivi a ne diskretni vektori Takozh rannyu robotu z rozkladu nevid yemnih matric provodila grupa finskih vchenih v seredini 1990 h pid nazvoyu pozitivnoyi matrichnoyi faktorizaciyi Vin stav shiroko vidomim yak faktorizaciya nevid yemnih matric pislya togo yak Li i Sung doslidili vlastivosti algoritmu i opublikuvali kilka prostih i korisnih algoritmiv dlya dvoh tipiv faktorizacij mnozhnikiv TeoriyaNehaj matricya V ye dobutkom matrici W i H V W H displaystyle mathbf V mathbf W mathbf H Mnozhennya matric mozhe buti realizovane yak obchislennya vektor stovpchikiv matrici V u viglyadi linijnoyi kombinaciyi vektor stovpchikiv matrici W vikoristovuyuchi koeficiyenti sho vidpovidayut vektoram ryadkam matrici H Tobto kozhen stovpec V mozhe buti obchisleno takim chinom v i W h i displaystyle mathbf v i mathbf W mathbf h i de vi i ij vektor stovpchik matrici V a hi i ij vektor stovpchik matrici H Pri mnozhenni matric rozmiri matric mnozhnikiv mozhut buti znachno menshimi vid rozmiriv matrici rezultata i same cya vlastivist formuye osnovnu vlastivist NMF algoritmu Tobto NMF generuye matrici mnozhniki yaki nabagato menshi v porivnyanni z vihidnoyu matriceyu Napriklad koli V rozmiru m n W m p a H p n to p mozhe buti znachno menshim vid n i m Priklad na osnovi tekstovogo analizu Nehaj matricya V maye 10000 ryadkiv i 500 stovpchikiv de slova ye v ryadkah a dokumenti stovpchikami Tobto ye 500 proindeksovanih dokumentiv po 100000 sliv Pripustimo nam potribno znajti algoritm sho daye 10 mozhlivostej dlya togo shob generuvati matrici W z 10000 ryadkiv i 10 stovpciv i koeficiyenti matrici H z 10 ryadkiv i 500 stovpciv Dobutok W na H maye rozmirnist 10000 na 500 i yaksho rozklad spracyuvav pravilno elementi yakogo priblizno rivni elementam vihidnoyi matrici V Z cogo viplivaye sho kozhen stovpchik z matrici WH ye linijnoyu kombinaciyeyu vektoriv 10 stovpciv W i vidpovidnih ryadkiv z matrici H Cej ostannij punkt ye osnovoyu NMF tomu sho mi mozhemo rozglyadati kozhen vihidnij dokument u nashomu prikladi yakij buduyetsya z nevelikogo naboru prihovanih funkcij NMF generuye ci funkciyi Inkoli korisno rozglyadati vektor stovpchik z vlastivostej matrici W yak arhetip dokumenta sho mistit nabir sliv de znachennya komirki kozhnogo slova viznachaye rang danogo slova u funkciyi chim vishe znachennya slova tim vishe rang slova v funkciyi Stovpchik v koeficiyentah matrici H predstavlyaye originalnij dokument zi znachennyam sho viznachaye znachennya dokumenta u funkciyi Ce vikonuyetsya bo kozhen ryadok matrici H predstavlyaye funkciyu vlastivist Teper mi mozhemo vidnoviti dokument stovpchik vektor z zadanoyi matrici linijnoyu kombinaciyeyu vlastivostej vektori stovpchiki v W de kozhne znachennya rivne znachennyu klitinki iz stovpchika dokumentu u H TipiNablizhenij rozklad nevid yemnih matric Zazvichaj kilkist stovpciv u Wi k st ryadkiv u H u NMF vibirayetsya tak shob WH bulo nablizhennyam do V Povnij rozklad V ye dvoma nevid yemnimi matricyami W i H a takozh zalishkovoyi U tobto V WH U Elementi zalishkovoyi matrici mozhut buti yak vid yemnimi tak i dodatnimi Yaksho W iHye menshimi nizh V to yih legshe zberigati i nimi manipulyuvati She odna prichina rozkladu V na menshi matrici W iH yaksho mozhna predstaviti elementi V nabagato menshoyu kilkistyu danih to mozhna uyaviti strukturi zahovani u cih danih z nabagato menshimi vtratami Opuklij rozklad nevid yemnih matric V standartnomu NMF faktor matricya W ℜ m k displaystyle W in Re m times k i e W mozhe buti chim zavgodno z cogo prostoru Opuklij NMF obmezhuye W displaystyle W do opukloyi kombinaciyi vektoriv vhidnih danih v 1 v n displaystyle v 1 cdots v n Ce znachno pidvishuye yakist predstavlenih danih W Krim togo rezultat faktor matrici H staye bilsh rozridzhenim i ortogonalnim Nevid yemnij rang rozkladu Yaksho nevid yemnij rang V rivnij rangu V WH to vin nazivayetsya nevid yemnim rangom rozkladu Problemoyu u vidshukanni NRF dlya V ye te sho taka problema ye NP povnoyu Riznovidi funkcij vtrat i regulyarizaciyi Ye rizni tipi rozkladu nevid yemnih matric Rizni tipi vinikayut iz vikoristannyam riznih funkcij vtrat dlya vimiryuvannya riznici mizh V iWH i mozhlivo iz regulyarizaciyeyu matrici W i aboH Dvi prosti funkciyi vivcheni Li i Sungom ce kvadrat pomilki abo Frobeniusova norma i rozshirennya vidminnosti dodatnih matric Kulbeka Lejblera Kozhna vidminnist prizvodit do inshogo algoritmu NMF zazvichaj minimuzuyuchogo vidminnist za dopomogoyu iterativnogo procesu Problema faktorizaciyi u vipadku NMF z kvadratom pomilki mozhe zapisuvatis tak Dano matricyu V displaystyle mathbf V znajti nevid yemni matrici W i H sho minimizuyut funkciyu F W H V W H F 2 displaystyle F mathbf W mathbf H mathbf V mathbf WH F 2 She odin tip NMF dlya zobrazhen bazuyetsya na normi povnoyi variaciyi Online NMF Bagato standartnih algoritmiv NMF analizuyut vsi dani razom tobto vsya matricya dostupna z samogo pochatku Ce mozhe buti nezadovilnim v dodatkah de ye zanadto bagato danih shob pomistitisya v pam yati abo de dani predstavleni v potokovomu viglyadi Prikladom takih mozhe buti kolaborativna filtraciya u rekomendacijnij sistemi de mozhe buti bagato koristuvachiv i bagato predmetiv dlya rekomendacij i ce bulo b neefektivno pererahuvati vse koli odin koristuvach abo odin element bude dodano v sistemu Funkciya vtrat dlya optimizaciyi v takih vipadkah mozhe abo ne mozhe buti takoyu zh yak i dlya standartnogo NMF ale algoritmi povinni buti dosit rizni AlgoritmiYe kilka sposobiv znahodzhennya W and H pravilo multiplikativnogo onovlennya Li i Sunga bulo populyarnim metodom z prostoyu realizaciyeyu Z togo chasu bulo rozrobleno she kilka inshih algoritmiv Kilka vdalih algoritmiv bazuyutsya na nevid yemnih najmenshih kvadratah na kozhnomu kroci cogo algoritmu spochatku H ye fiksovanoyu a W znahoditsya metodom nevid yemnih najmenshih kvadrativ todiW staye fiksovanoyu a H znahoditsya analogichno Procedura znahodzhennya W i H mozhe buti takoyu zh abo vidminnoyu vid variantu regulyarizaciyi u NMF odnoyi z W iH Konkretni pidhodi vklyuchayut Metod najshvidshogo spusku metod aktivnoyi mnozhini a takozh metod povorotu golovnogo bloku Algoritmi sho dostupni zaraz ye ne zovsim optimalnimi bo voni mozhut tilki garantuvati znahodzhennya lokalnogo minimumu porivnyano z globolnim minimumom u funkciyi vtrat Shvidshe za vse optimalnij algoritm navryad chi bude znajdeno v najblizhchomu majbutnomu tak yak problema uzagalnyuye problemu K zasobiv klasterizaciyi yaka yak vidomo yeNP povnoyu Prote v bagatoh dodatkah z dobuvannya danih lokalnij minimum ye korisnim Tochnij NMF Tochnij rozv yazok dlya variantiv NMF mozhna ochikuvati za polinomialnij chas koli na matricyu V nakladayutsya dodatkovi obmezhennya Polinomialnij algoritm dlya znahodzhennya nevid yemnogo rangu faktorizaciyi yaksho V mistit odnochlen submatricyu rangu rivnogo za rangom danij Kempbell i Pul v 1981 roci Kalofolias and Gallopoulos 2012 virishiti simetrichnij analog ciyeyi problemi de V simetrichna i mistit diagonal osnovnoyi submatrici rangu g Yih algoritm vikonuyetsya zi skladnistyu O rm pri visokij shilnosti Arora Ge Halpern Mimno Moitra Sontag Wu amp Zhu 2013 prodemonstruvali tochnij polinomialnij algoritm NMF yakij pracyuye u vipadku de odin z faktoriv W zadovolnyaye umovu rozdilnosti PosilannyaTandon Rashish Suvrit Sra 2010 Sparse nonnegative matrix approximation new formulations and algorithms PDF TR 1971 Self modeling curve resolution 13 3 617 doi 10 2307 1267173 P Paatero U Tapper 1994 Positive matrix factorization A non negative factor model with optimal utilization of error estimates of data values 5 2 111 126 doi 10 1002 env 3170050203 Unto Tapper Olli Jarvinen 1995 Source identification of bulk wet deposition in Finland by positive matrix factorization 29 14 1705 1718 doi 10 1016 1352 2310 94 00367 T Daniel D Lee and 1999 Learning the parts of objects by non negative matrix factorization Nature 401 6755 788 791 doi 10 1038 44565 PMID 10548103 Daniel D Lee and H Sebastian Seung 2001 Algorithms for Non negative Matrix Factorization Advances in Neural Information Processing Systems 13 Proceedings of the 2000 Conference MIT Press s 556 562 nedostupne posilannya z chervnya 2019 C Ding T Li MI Jordan Convex and semi nonnegative matrix factorizations IEEE Transactions on Pattern Analysis and Machine Intelligence 32 45 55 2010 Berman A R J Plemmons 1974 Inverses of nonnegative matrices Linear and Multilinear Algebra 2 161 172 doi 10 1080 03081087408817055 A Berman R J Plemmons 1994 Nonnegative matrices in the Mathematical Sciences Philadelphia SIAM Thomas L B 1974 Problem 73 14 Rank factorization of nonnegative matrices SIAM rev 16 3 393 394 doi 10 1137 1016064 Vavasis S A 2009 On the complexity of nonnegative matrix factorization SIAM J Optim 20 1364 1377 doi 10 1137 070709967 2005 PDF Arhiv originalu PDF za 7 serpnya 2011 Procitovano 2 chervnya 2015 DOI 10 1016 j neucom 2008 01 022 Nema shablonu zapovniti vruchnu PDF Arhiv originalu PDF za 24 veresnya 2015 Procitovano 2 chervnya 2015 a href wiki D0 A8 D0 B0 D0 B1 D0 BB D0 BE D0 BD Cite web title Shablon Cite web cite web a Obslugovuvannya CS1 Storinki z tekstom archived copy yak znachennya parametru title posilannya http portal acm org citation cfm id 1339264 1339709 DOI 10 1162 neco 2007 19 10 2756 Nema shablonu zapovniti vruchnu Hoyer Patrik O 2002 Non negative sparse coding Proc IEEE Workshop on Neural Networks for Signal Processing arXiv cs 0202009 angl Navedeno za anglijskoyu vikipediyeyu DOI 10 1109 TNN 2007 895831 Nema shablonu zapovniti vruchnu Rainer Gemulla Erik Nijkamp Peter J Haas Yannis Sismanis 2011 Large scale matrix factorization with distributed stochastic gradient descent Proc ACM SIGKDD Int l Conf on Knowledge discovery and data mining s 69 77 angl Navedeno za anglijskoyu vikipediyeyu Hyunsoo Kim and Haesun Park 2008 PDF 30 2 713 730 doi 10 1137 07069239x Arhiv originalu PDF za 13 zhovtnya 2015 Procitovano 2 chervnya 2015 Jingu Kim and Haesun Park 2011 Fast Nonnegative Matrix Factorization An Active set like Method and Comparisons PDF SIAM Journal on Scientific Computing 33 6 3261 3281 doi 10 1137 110821172 nedostupne posilannya z kvitnya 2019 Ding C and He X and Simon H D 2005 On the equivalence of nonnegative matrix factorization and spectral clustering Proc SIAM Data Mining Conf 4 606 610 doi 10 1137 1 9781611972757 70 Campbell S L G D Poole 1981 Computing nonnegative rank factorizations Linear Algebra Appl 35 175 182 doi 10 1016 0024 3795 81 90272 x Kalofolias V Gallopoulos E 2012 Linear Algebra Appl 436 421 435 doi 10 1016 j laa 2011 03 016 Arhiv originalu za 24 veresnya 2015 Procitovano 2 chervnya 2015 Arora Sanjeev Ge Rong Halpern Yoni Mimno David Moitra Ankur Sontag David Wu Yichen Zhu Michael 2013 Proceedings of the 30th International Conference on Machine Learning arXiv 1212 4777 Arhiv originalu za 2 kvitnya 2015 Procitovano 2 chervnya 2015 DodatkovoJ Shen G W Israel 1989 A receptor model using a specific non negative transformation technique for ambient aerosol 23 10 2289 2298 doi 10 1016 0004 6981 89 90190 X 1997 Least squares formulation of robust non negative factor analysis 37 1 23 35 doi 10 1016 S0169 7439 96 00044 5 Raul Kompass 2007 A Generalized Divergence Measure for Nonnegative Matrix Factorization 19 3 780 791 doi 10 1162 neco 2007 19 3 780 PMID 17298233 Liu W X and Zheng N N and You Q B 2006 Nonnegative Matrix Factorization and its applications in pattern recognition PDF 51 17 18 7 18 doi 10 1007 s11434 005 1109 6 nedostupne posilannya Ngoc Diep Ho Paul Van Dooren and Vincent Blondel 2008 Descent Methods for Nonnegative Matrix Factorization arXiv 0801 3199 cs NA Rafal Zdunek and 2008 Nonnegative Matrix and Tensor Factorization 25 1 142 145 doi 10 1109 MSP 2008 4408452 Cedric Fevotte Nancy Bertin and Jean Louis Durrieu 2009 Nonnegative Matrix Factorization with the Itakura Saito Divergence With Application to Music Analysis 21 3 793 830 doi 10 1162 neco 2008 04 08 771 PMID 18785855 Ali Taylan Cemgil 2009 Bayesian Inference for Nonnegative Matrix Factorisation Models 2009 2 1 doi 10 1155 2009 785152 PMC 2688815 PMID 19536273 a href wiki D0 A8 D0 B0 D0 B1 D0 BB D0 BE D0 BD Cite journal title Shablon Cite journal cite journal a Obslugovuvannya CS1 Storinki iz nepoznachenim DOI z bezkoshtovnim dostupom posilannya nedostupne posilannya