Show simple document record

dc.contributor.advisorMonga, Ernestfr
dc.contributor.authorDubois, Jean-Françoisfr
dc.date.accessioned2014-05-16T15:27:04Z
dc.date.available2014-05-16T15:27:04Z
dc.date.created2000fr
dc.date.issued2000fr
dc.identifier.isbn0612672603fr
dc.identifier.urihttp://savoirs.usherbrooke.ca/handle/11143/4460
dc.description.abstractLa régression linéaire est une méthode d'analyse des données parmi les plus anciennes. On attribue à K. F. Gauss (vers 1809) le mérite d'avoir développé la méthode des moindres carrés afin d'ajuster une équation qui est linéaire du point vue de ses paramètres. Des développements impressionnants sont survenus au cours des 150 années qui ont suivies pour finalement stagner vers 1959 puisque la majorité des idées nouvelles nécessitait l'utilisation d'un ordinateur très performant pour éclore. Le perfectionnement des ordinateurs combiné à la réduction des coûts d'utilisation a permis à des méthodes telles que la sélection d'un sousensemble de variables, dont il sera question dans ce mémoire, de voir le jour. Dans le présent document, nous jetterons un regard à la fois descriptif et critique à l'égard des méthodes de sélection développées principalement au cours des trente dernières années. Nous étudierons un certain nombre de critères et de méthodes de sélection construites de façon à identifier un sous-ensemble de variables de qualité acceptable que l'on qualifiera de"meilleur" sous-ensemble de variables.fr
dc.language.isofrefr
dc.publisherUniversité de Sherbrookefr
dc.rights© Jean-François Duboisfr
dc.titleQuelques pièges cachés des méthodes de sélection de variables en régression linéaire multiplefr
dc.typeMémoirefr
tme.degree.disciplineMathématiquesfr
tme.degree.grantorFaculté des sciencesfr
tme.degree.levelMaîtrisefr
tme.degree.nameM. Sc.fr


Files in this document

Thumbnail

This document appears in the following Collection(s)

Show simple document record