Introduction générale
La modélisation constitue le parachèvement d’un travail statistique quand
il arrive à sa pleine maturité. En effet, établir le modèle qui gère un phé-
nomène signifie que nous avons compris et maîtrisé tous les tenants et les
aboutissants de ce phénomène. Le modèle met en lumière les facteurs in-
tervenants, le degré de leurs influences et les relations exactes qui les lient.
La puissance et l’intérêt de la statistique prennent toute leur ampleur dans
la modélisation qui permet un fait capital : l’extrapolation à la population
entière de l’information récoltée dans l’échantillon d’étude. Le modèle doit
rester valable en dehors des données qui ont servi pour son élaboration.
C’est ce qui fait que la régression soit un domaine central de la statis-
tique et qui revêt une grande importance. Beaucoup de domaines s’adossent
sur cette discipline et beaucoup d’autres y prennent leurs racines et leurs
fondements tels que, entre autres, les séries chronologiques et l’économétrie.
La régression est un domaine vaste qui a fait l’objet de beaucoup d’études.
Certains de ses aspects sont complètement maîtrisés ; d’autres présentent
encore des difficultés.
La part la plus importante des travaux a été consacrée à la régression
linéaire, qui est la plus largement utilisée. Elle est devenue un outil compris
et consacré, ne présentant pas de problèmes sauf lorsque les variables expli-
catives sont fortement corrélées. Mais même pour cette question, qui fait que
l’estimateur des moindres carrés soit instable, des estimateurs concurrents
ont été proposés et ont permis de dépasser l’obstacle.
La vraie grande question reste celle lorsqu’il y a non linéarité du modèle.
Les difficultés sont essentiellement d’ordre technique. Il est beaucoup plus
complexe de mener une régression non linéaire qu’une régression linéaire. Des
solutions partielles sont proposées pour traiter des familles particulières de
fonctions (régression logistique, régression polynômiale, . . . ) mais le problème
de fond persiste ; l’inexistence d’une méthode unifiée et générale conçue pour
effectuer toute sorte de régression non linéaire.
C’est une discipline, d’origine multidisciplinaire, mais qui est aujourd’hui
parfaitement assimilé à une extension des méthodes statistiques, qui depuis
quelques décades, vient apporter les outils pour traiter toutes les questions
qui sont restées en suspens. Ce sont les réseaux de neurones artificiels. Ils
permettent de reproduire tout aussi bien les méthodes standards de la sta-
tistique comme ils permettent de surmonter les problèmes relevant du non
linéaire. Ils sont aptes à apporter des solutions nouvelles et à juguler des
problèmes traditionnellement classés difficiles.
Dans notre travail, nous avons essayé de mener une étude comparative
opposant les techniques conventionnelles de régression et de discrimination à
3