Dans cet article, nous étudions et développons un cadre unifié pour un certain nombre de méthodes non linéaires de réduction de dimensionalité, telles que LLE, Isomap, LE (Laplacian Eigenmap) et ACP à noyaux, qui font de la décomposition en valeurs propres (d'où le nom "spectral""). Ce cadre inclut également des méthodes classiques telles que l'ACP et l'échelonnage multidimensionnel métrique (MDS). Il inclut aussi l'étape de transformation de données utilisée dans l'agrégation spectrale. Nous montrons que, dans tous les cas, l'algorithme d'apprentissage estime les fonctions propres principales d'un opérateur qui dépend de la densité inconnue de données et d'un noyau qui n'est pas nécessairement positif semi-défini. Ce cadre aide à généraliser certains modèles pour prédire les coordonnées des exemples hors-échantillons sans avoir à réentraîner le modèle. Il aide également à rendre plus transparent ce que ces algorithmes minimisent sur les données empiriques et donne une notion correspondante d'erreur de généralisation."

Voir le document

Dernières publications

2017RP-03 RP
La surqualification professionnelle chez les diplômés des collèges et des universités : État de la situation au Québec
Brahim Boudarbat et Claude Montmarquette
Voir le document

2017s-11 CS
The social cost of contestable benefits
Arye Hillman et Ngo Van Long
Voir le document

2017s-09 CS
Fiscal Surprises at the FOMC
Dean Croushore et Simon van Norden
Voir le document

2017MO-04 MO
Méthodes avancées d’évaluation d’investissements / Advanced Methods of Investment Evaluation - Tome 2
Marcel Boyer
Voir le document

2017MO-03 MO
Méthodes avancées d’évaluation d’investissements / Advanced Methods of Investment Evaluation - Tome 1
Marcel Boyer
Voir le document


Centre interuniversitaire de recherche en analyse des organisations
1130 rue Sherbrooke Ouest, suite 1400
Montréal, Québec (Canada) H3A 2M8
(514) 985-4000
(514) 985-4039
reception@cirano.qc.ca

© 2017 CIRANO. Tous droits réservés.



Partenaire de :