J’ai lu « Comprendre l’intelligence artificielle » de Nicolas Sabouret. Bien qu’il date d’avant l’explosion de chatGPT, j’ai tenu à lire ce livre pour sa dimension didactique. Nicolas Sabouret est docteur en intelligence artificielle et professeur des universités. Je reprends dans cette note quelques éléments saillants, sans viser une quelconque exhaustivité.
Comprendre l’intelligence artificielle
Tour d’horizon de l’intelligence artificielle
- L’ouvrage est clair et bien construit. Chaque chapitre est introduit par une petite phrase qui en résume le contenu. Par exemple, pour le premier chapitre « Qu’est-ce que l’intelligence artificielle ? », on peut lire « où l’on apprend ce que sont un ordinateur, un algorithme, un programme, et en particulier un programme d’intelligence artificielle ». Cela permet de rentrer déjà dans le contenu.
- L’auteur évoque bien sûr Alan Turing et le chatbot Eliza écrit en 1966 par Joseph Weizenbaum. Le nom Eliza vous est sans doute connu, car on appelle « effet Eliza » le fait de conférer à une intelligence artificielle une personnalité humaine, et que, de ce fait, on soit poli. Quand on remercie une IA pour ses résultats, on tombe sous le coup de l’effet Eliza.
- L’auteur évoque les arbres de décisions, et nous propose de jouer à Akinator pour bien comprendre ce qu’est un « arbres de décisions ». J’ai testé et le génie a bien trouvé mon personnage.
- Il évoque le perceptron inventé par Franck Rosenblatt en 1957 et la rétro-propagation (dont parle Yann Le Cun dans son livre « Quand la machine apprend« ).
- Il passe en revue tous les éléments à savoir, par exemple l’apprentissage supervisé, non supervisé et par renforcement.
- …
Limites des réseaux de neurones
Nicolas Sabouret évoque la principale limite des réseaux de neurones : l’incapacité à expliquer les décisions qui sont prises. « Les algorithmes symboliques comme celui de Michalski (…) avaient pour ambition de produire une explication « logique » pour chaque décision prise par le système. Au contraire, un perceptron demeure incapable de déterminer qu’un triangle est une figure à rois côtés ! Il reconnait les triangles, c’est tout. De même, votre voiture autonome freine à l’entrée d’un virage, mais elle ne peut pas vous expliquer pourquoi ». On voit au travers de ces courts passages que l’auteur est plutôt rassurant sur l’hypothétique survenance d’une intelligence artificielle forte. On est loin des ouvrages qui clament que la singularité est pour demain (comme celui de Jean-Michel Rodriguez). néanmoins il reste prudent « Beaucoup de chercheurs ne « croient » pas à la possibilité de réaliser une IA forte avec les moyens actuels. Mais personne n’est en mesure de prouver que c’est complètement impossible et plusieurs entreprises investissent dans ce type de recherches ».
Rôle délétère des réseaux sociaux
En revanche, il pointe sans retenue le rôle délétère des réseaux sociaux : « Cela ne serait pas grave si les réseaux sociaux n’étaient pas devenus la principale source d’information des 18-24 ans. Qu’est-ce qui empêche que, demain, une dictature de l’information, contrôlée par des géants de l’internet ou par des États totalitaires, de décider de ce que nous pouvons ou ne devons pas savoir. (…) Plusieurs chercheurs, dont Stuart Russell ont déjà alerté sur les dangers d’un détournement des techniques d’IA à des fins malveillantes. » David Chavalarias, auteur de Toxic Data démontre à merveille ces mécanismes néfastes. Nicolas Sabouret continue « C’est pour cela que de plus en plus de chercheurs s’intéressent à concevoir des algorithmes d’IA « explicables » ».
Finalement, tout cela interroge notre société et les mécanismes intellectuels humains. Cela permet de mieux nous comprendre nous-mêmes. Gérald Bronner ne finit pas différemment son ouvrage « Apocalypse cognitive » Cette révolution numérique est aussi une révélation de ce que nous sommes, et de ce que nous voulons devenir.
« Comprendre l’intelligence artificielle » de Nicolas Sabouret est édité chez Ellipse en 2019.
À lire
Jérôme Bondu