Laplacian Eigenmaps for Dimensionality Reduction and Data Representation

1/ INTRODUCTION

L’article s’intitule sur Eigenmap Laplacien pour la réduction de la dimensionnalité et la représentation des données dont les auteurs sont Michail Belkin et Partha Niyogi. Michail Belkin professeur à l’université de Chicago au département de mathématique et Partha Niyogi professeur à l’université de Chicago au département computer science and statistics. Il s’agit d’un journal extrait du calcul neural publié en juin 2003.Cet article est indexé par les algorithmes d’Eigenmap Laplacien vis-à-vis des données à grande dimensions et aussi d’autres d’algorithmes notamment les LLE. Nous verrons tout d’abord le concept des algorithmes Laplacien Eigenmap pour la réduction de la dimensionnalité et la représentation des données matricielles Laplacien. Puis nous comparons les algorithmes d’eigenmap Laplacien à ceux de LLE(Local Linear Embedding) pour trouver de nombreuses autres propriétés. Nous présenterons les différents résultats des expériences développés dans l’article enfin nous allons boucler par l’analyse et l’application qui finit le travail.

2/ CONTEXTE

Le cadre de l’analyse des données présentée ici fait usage explicitement au rôle des algorithmes d’eigenmap Laplacien dont les caractéristiques principales sont multidimensionnelles et descriptives. Ces données nécessitant plus de 2D via 3D sont difficiles à interpréter. Certaines méthodes ont aidées à trouver des relations existant entre ces différentes données et d’en conclure une information conduisant plus succincte les principales informations contenues dans ces données. Parmi ces méthodes, nous pouvons citer ceux énoncé dans l’article générant des cartes non linéaires, des cartes d’auto-organisation, problème de non linéarisation pour l’optimisation. On peut dire ces dernières présentent des solutions aussi des difficiles à atteindre. Cependant notons la récente approche de la généralisation de l’ACP (Analyse en Composantes Principales) grâce à des techniques basées sur le noyau. Ces méthodes ne prennent pas en compte explicitement la structure du collecteur pouvant être appliqué éventuellement. Tout de même les algorithmes LLE(Local Linear Embedding) ont contribués au développement des algorithmes eigenmap Laplacien pour extractions d’attributs. Selon le principe qui dévoile la structure des données en transformant l’univers vestibule en un nouvel univers de faible dimension.

3/POSITIONNEMENT

Les algorithmes Eigenmap Laplacien, les ACP (Analyse des Composantes Principaux ) et ceux de LLE(Locally Linear Embedding) ont pour but de trouver les corrélations et les connexions entre les différentes échantillons des objets observés et de les tracer enfin de les visualiser. Ces algorithmes ont permis de construire des graphes à partir des informations de voisinage de l’ensemble de données. Chaque point de donnée servira de nœud sur le graphe et la connectivité entre les nœuds par la proximité des points voisins. Ces graphes ainsi généré étant considéré comme une approximation discrète du collecteur de faible dimension dans l’univers de grandes dimensions en minimisant le cout des fonctions de sorte que les points proches les uns les autres sur le distributeur. Ils ont rencontrés un certain succès comme dans certaines hypothèses non limitatif développés dans l’article.

4/ CONTRIBUTION

Les méthodes classiques utilisant les ACP (Analyse des Composantes Principaux) pour la réduction de la dimension de façon linéaire et n’a pas permis une analyse correcte des graphes. D’après plusieurs graphes illustrés dans l’article permettent de voir aussi les inconvénients des algorithmes LLE vis-à-vis des algorithmes locaux. D’après ces astuces puisque les LLE éliminent la nécessité des calculs pour les points lointains et aussi combinés avec ceux des ACP (Analyse des Composantes Principaux) vont permettre l’apprentissage des collecteurs et des analyses plus profondes. L’introduction de ces approches ont permis de réduire la complexité des calculs des algorithmes, l’amélioration des performances et avec une bonne précision.Par exemple nous voyons l’énorme contribution des algorithmes de Rozwis et Saul (2000).