Войти в систему

Home
    - Создать дневник
    - Написать в дневник
       - Подробный режим

LJ.Rossia.org
    - Новости сайта
    - Общие настройки
    - Sitemap
    - Оплата
    - ljr-fif

Редактировать...
    - Настройки
    - Список друзей
    - Дневник
    - Картинки
    - Пароль
    - Вид дневника

Сообщества

Настроить S2

Помощь
    - Забыли пароль?
    - FAQ
    - Тех. поддержка



Пишет Best Linear Unbiased Predictor ([info]measure_01)
@ 2012-02-18 00:00:00


Previous Entry  Add to memories!  Tell a Friend!  Next Entry
manifold learning
Кстати, о применениях первокультурной математики.

Заинтересовавшись машинным обучением, обнаружил, что там активно используются многообразия. Одним из принципиальных вопросов в машинном обучении является проблема уменьшения размерности данных. Дело в том, что данные обычно являются каким-то подмножеством векторного пространства с большой размерностью (например, текстовые документы или изображения). Однако, во многих случаях скрытая размерность гораздо меньше. Например, если есть набор фотографий одного объекта повернутого на разные углы, то, очевидно, размерность у него как у O(3), несмотря на то, что объемлющее пространство имеет размерность в десятки тысяч.

Рабочей лошадкой для уменьшения размерности является анализ главных компонент (pricipal component analysis), где алгоритм пытается найти векторы, вдоль которых наблюдается наибольший variance. Этим векторам присваиваются веса соответствующие степени разброса. То есть, например, если данные это точки в трехмерном пространстве, которые все лежат на плоскости, то алгоритм найдет три вектора, но лишь у двух будет положительный вес. Очевидно, что такой метод хорошо работает только когда модель более-менее линейная.

В свою очередь, многообразия, как и значительная часть связанной с ними геометрии, очень хорошо схватывают нелинейные свойства и обладают множеством полезных инвариантов, упрощающих классификацию. Кроме того, многообразия помогают выявить хорошую метрику. Например, длина геодезической будет значительно адекватнее эвклидовой метрики. Вообще говоря, выбор метрики тоже является очень важной и нетривиальной проблемой в кластеризации информации. В целом, эта картина во многом напоминает переход классической механики от эвклидовых пространств к многообразиям.

Более того, state of art техники в области машинного обучения активно пользуются таким подходом и даже был создан специальный тулкит. Называется это всё «manifold learning».

Некоторые ссылки по теме:

http://people.kyb.tuebingen.mpg.de/lcayton/resexam.pdf
http://jmlr.csail.mit.edu/papers/volume11/mordohai10a/mordohai10a.pdf
http://tinyurl.com/c69anhd


(Добавить комментарий)


[info]vinogradov49
2012-02-18 12:12 (ссылка)
Вы ,как я посмотрю сильны в математике,помогите мне с решением этих задач .если можете.ДВ ИНТ F(x,y)=x=y по обл D огранич кривыми y=(x^2)/2 и y=2x Вычислить


Построить график ...найти интервал сходимости степенного ряда Е n=2 до макс(х=4)^ n /(n^2-2)

(Ответить) (Ветвь дискуссии)


(Анонимно)
2012-02-18 14:37 (ссылка)
чо студентов поёбываешь?

(Ответить) (Уровень выше) (Ветвь дискуссии)


[info]vinogradov49
2012-02-18 14:41 (ссылка)
мудак ты и пропидор испорченный,брату хочу помочь..всё у них завязывается на ебле педофилы вы сраные...зацикленные на анальной фазе развития.

(Ответить) (Уровень выше)


[info]http://heller.ru/blog/
2012-03-11 12:22 (ссылка)
О, годные ссылки, спасибо. Не то чтобы я сильно угораю по Machine Learning, но знать приятно.

(Ответить)