Show simple document record

Other titre : Méthodes d'ensemble systématiques et extensions en apprentissage automatique pour la régression

dc.contributor.advisorDussault, Jean-Pierre
dc.contributor.authorAldave, Robertofr
dc.date.accessioned2015-07-02T19:58:43Z
dc.date.available2015-07-02T19:58:43Z
dc.date.created2015fr
dc.date.issued2015-07-02
dc.identifier.urihttp://hdl.handle.net/11143/6958
dc.description.abstractAbstract : The objective is to provide methods to improve the performance, or prediction accuracy of standard stacking approach, which is an ensemble method composed of simple, heterogeneous base models, through the integration of the diversity generation, combination and/or selection stages for regression problems. In Chapter 1, we propose to combine a set of level-1 learners into a level-2 learner, or ensemble. We also propose to inject a diversity generation mechanism into the initial cross-validation partition, from which new cross-validation partitions are generated, and sub-sequent ensembles are trained. Then, we propose an algorithm to select best partition, or corresponding ensemble. In Chapter 2, we formulate the partition selection as a Pareto-based multi-criteria optimization problem, as well as an algorithm to make the partition selection iterative with the aim to improve more the ensemble prediction accuracy. In Chapter 3, we propose to generate multiple populations or partitions by injecting a diversity mechanism to the original dataset. Then, an algorithm is proposed to select the best partition among all partitions generated by the multiple populations. All methods designed and implemented in this thesis get encouraging, and favorably results across different dataset against both state-of-the-art models, and ensembles for regression.fr
dc.description.abstractRésumé : L’objectif est de fournir des techniques permettant d’améliorer la performance de l’algorithme de stacking, une méthode ensembliste composée de modèles de base simples et hétérogènes, à travers l’intégration de la génération de la diversité, la sélection et combinaison des modèles. Dans le chapitre 1, nous proposons de combiner différents sous-ensembles de modèles de base obtenus au primer niveau. Nous proposons un mécanisme pour injecter de la diversité dans la partition croisée initiale, à partir de laquelle de nouvelles partitions de validation croisée sont générées, et les ensembles correspondant sont formés. Ensuite, nous proposons un algorithme pour sélectionner la meilleure partition. Dans le chapitre 2, nous formulons la sélection de la partition comme un problème d’optimisation multi-objectif fondé sur un principe de Pareto, ainsi que d’un algorithme pour faire une application itérative de la sélection avec l’objectif d’améliorer d’avantage la précision d’ensemble. Dans le chapitre 3, nous proposons de générer plusieurs populations en injectant un mécanisme de diversité à l’ensemble de données original. Ensuite, un algorithme est proposé pour sélectionner la meilleur partition entre toutes les partitions produite par les multiples populations. Nous avons obtenu des résultats encourageants avec ces algorithmes lors de comparaisons avec des modèles reconnus sur plusieurs bases de données.fr
dc.language.isoengfr
dc.publisherUniversité de Sherbrookefr
dc.rights© Roberto Aldavefr
dc.subjectEnsemble learningfr
dc.subjectStacked generalizationfr
dc.subjectSystematic cross-validationfr
dc.subjectEnsemble selectionfr
dc.subjectRegressionfr
dc.subjectPareto non-dominated alternativesfr
dc.subjectMulti-criteria optimizationfr
dc.titleSystematic ensemble learning and extensions for regressionfr
dc.title.alternativeMéthodes d'ensemble systématiques et extensions en apprentissage automatique pour la régressionfr
dc.typeThèsefr
tme.degree.disciplineInformatiquefr
tme.degree.grantorFaculté des sciencesfr
tme.degree.levelDoctoratfr
tme.degree.namePh.D.fr


Files in this document

Thumbnail

This document appears in the following Collection(s)

Show simple document record