L’essor de l’apprentissage profond (deep learning) ces dernières années a permis au connexionnisme d’occuper une place importante dans l’évolution de l’apprentissage machine (machine learning). Le connexionnisme consiste en l’apprentissage par expérience, par entraînement et donc par erreur. Il a pris le pas sur son adversaire (mais aussi partenaire) de toujours : le symbolisme. Ce dernier consiste à construire une représentation du monde à l’aide de règles créant un cadre, permettant ainsi d’associer chaque nouvelle notion à un symbole.
Le machine learning appartient au connexionnisme parce qu’il permet à une machine d’apprendre par entraînement. Il établit les règles qui caractérisent la relation entre des entrées (par exemple, des images) et leurs sorties (par exemple, des labels de chats). Ces règles sont déduites lors de l’apprentissage. Ce sont ces règles, une fois déduites, qui permettent à l’algorithme de reproduire l’action voulue. A contrario, les arbres de décisions ainsi que les systèmes experts appartiennent au symbolisme. Les règles sont définies en amont.
Dans le premier cas, nous avons besoin d’expériences (beaucoup de données), dans le second d’un système de règles. Dans le premier cas, l’apprentissage se fait à chaque nouvelle ingérence d’expérience de façon active (la méthode utilisée le plus souvent en deep learning est la rétropropagation du gradient). Dans le second, la donnée traverse le système de façon passive et n’en est pas actrice. Dans le premier cas, on observe un phénomène bottom up, dans le second, top down. (Pour plus de détails, lire cet article)
L’essor du connexionnisme est tout d’abord dû au fait qu’il se rapproche bien plus de la façon dont l’humain apprend, mais également du fait que pour certaines applications (comme pour la reconnaissance d’images), il est difficile d’établir un nombre de règles exhaustives qui lisent les entrées et sorties (symbolisme) en amont. A titre d’exemple, essayez de lister les règles qui permettront à un ordinateur de reconnaître toutes sortes de chats (dans toutes les situations possibles) !
Néanmoins, les règles qui sont déduites lors de l’apprentissage profond (deep learning), ne sont pas connues ! Par exemple, on sait qu’une image correspond à un chat, mais on ne sait pas pourquoi. C’est le phénomène de boîte noire. Nous sommes (encore) incapables d’expliquer ces règles. A moins que nous combinions les deux…
Par analogie, on pourrait associer ce phénomène à la pédagogie.
La pédagogie symbolique consisterait à assimiler des règles définies dans des livres, des théorèmes et principes inculqués par des professeurs (version passive, top down) tandis que la pédagogie connexionniste obligerait l’enseignant à remettre l’étudiant au centre de son apprentissage. Apprendre par successions d’erreurs et par expériences. Apprendre de façon active.
Et c’est le mix des deux comme pour l’IA qui crée une expérience pédagogique intéressante.
Vous avez aimé cet article ? Likez Forbes sur Facebook
Newsletter quotidienne Forbes
Recevez chaque matin l’essentiel de l’actualité business et entrepreneuriat.
Abonnez-vous au magazine papier
et découvrez chaque trimestre :
- Des dossiers et analyses exclusifs sur des stratégies d'entreprises
- Des témoignages et interviews de stars de l'entrepreneuriat
- Nos classements de femmes et hommes d'affaires
- Notre sélection lifestyle
- Et de nombreux autres contenus inédits