Факторне моделювання на базі методу Верле

Метод Верле – це ітераційний метод обчислення наступного місцезнаходження матеріальної точки по поточному та минулому местоположениям з урахуванням накладених зв'язків усередині системи точок.

Пружна структура – це найбільш загальний вигляд структур для апроксимації даних. Це набір вузлів і пружних зв'язків між ними. В якості таких зв'язків можуть виступати пружинна зв'язок між парою точок з рівноважним відстанню між точками і ребра жорсткості трійки вузлів з рівноважним кутом між вузлами. Для апроксимації набору точок пружною структурою пропонується використовувати фізичну інтерпретацію точок даних як центрів, що притягують вузли пружної структури. Приватним випадком пружної структури є нелінійні головні компоненти. Це набір пружних ланцюжків з загальною точкою перетину. При великій жорсткості пружних зв'язків нелінійні головні компоненти переходять у класичні головні компоненти факторного аналізу. Для розрахунку руху точок пружної структури в полі тяжіння і врахування зв'язків між вузлами пружної структури пропонується використовувати метод чисельного інтегрування Верле.

Багатовимірне шкалювання дозволяє в рамках гіпотези про розмірності цільового простору розташувати об'єкти за їх взаємною відстаням таким чином, щоб відновлювані відстані між об'єктами наближалися до емпіричним. На базі методу Верле пропонується здійснити багатовимірне шкалювання, тим самим взаємні відстані між точками будуть враховані з найбільшою точністю. В якості матриці взаємних відстаней буде виступати матриця кореляцій. За допомогою багатовимірного шкалювання буде здійснена факторизація кореляційної матриці, тим самим буде відновлена факторна структура даних у факторному просторі. Щоб отримати интерпретабельное рішення пропонується використовувати окремі методи факторного обертання, застосовані до відновленої факторної структури.

Читати далі →

Як працює метод головних компонент (PCA) на простому прикладі



У цій статті я б хотів розповісти про те, як саме працює метод аналізу головних компонент (PCA – principal component analysis) з точки зору інтуїції, що стоїть за її математичним апаратом. Максимально просто, але докладно.

Читати далі →

Незвичайні моделі Playboy, або про виявлення викидів в даних c допомогою Scikit-learn

Мотивовану статті користувача BubaVV про передбачення ваги моделі Playboy за її формами та зростання, автор вирішив заглибитися if you now what I mean в цю чудову кров тему дослідження і в тих же даних знайти викиди, тобто особливо сисястые моделі, що виділяються на тлі інших своїми формами, зростанням або вагою. А на тлі цієї розминки почуття гумору заодно трохи розповісти починаючим дослідникам даних про виявлення викидів (outlier detection) і аномалій (anomaly detection) даних з допомогою реалізації однокласове машини опорних векторів (One-class Support Vector Machine) в бібліотеці Scikit-learn, написаної на мові Python.


Читати далі →