Les techniques algorithmiques de l’IA | Le raisonnement symbolique

Only in french

L’intelligence artificielle symbolique : qu’en est-il aujourd’hui ?

Écrit par Ilona Bois-Drivet – auxiliaire de recherche au Laboratoire de cyberjustice.

Pour entamer cette série, il sera question d’une des plus vieilles techniques algorithmiques en intelligence artificielle : l’approche symbolique. Noyau dur de l’intelligence artificielle en 1955 puis dans les années 1970 et 1980, cette technique s’appuie sur la logique et la manipulation de symboles. Son application la plus connue est la conception des systèmes experts.  

L’intelligence artificielle symbolique ou GOFAI (good old-fashion artificial intelligence) est à l’origine des premières recherches en intelligence artificielle.  En effet, dès 1950, dans son article Computing Machinery and Intelligence, Alan Turing évoque l’idée de simuler l’intelligence humaine sur des machines grâce à la manipulation de symboles. En 1956, l’atelier de travail A proposal for the Darmouth Summer Research Project on Artificial Intelligence marque les débuts de la recherche en intelligence artificielle et s’intéresse à l’étude des méthodes symbolique et des premiers systèmes experts. Aujourd’hui considérée comme une technique algorithmique désuète, le présent article propose de faire un bref portrait de son évolution à travers les années et de se questionner sur sa place dans la recherche en IA dans les années à venir.  

L’intelligence artificielle symbolique et les systèmes experts  

Décrite par le philosophe John Haugeland dans son ouvrage Artificial Intelligence: The Very Idea, les principes de l’intelligence artificielle symbolique peuvent être résumés de la manière suivante :  

“The claims essential to all GOFAI theories are these: 

  1. Our ability to deal with things intelligently is due to our capacity to think about them reasonably (including subconscious thinking); and 

  1. Our capacity to think about things reasonably amounts to a faculty for internal « automatic » symbol manipulation.  

Two points follow immediately. First, inasmuch and insofar as these internal symbol manipulations are intelligent thoughts, they must be interpreted as about the outside world (i.e., whatever the system deals with intelligently). Second, in being committed to internal symbol manipulation, GOFAI is committed to at least one level of analysis: that is, an intelligent system must contain some computational subsystems (« inner computers ») to carry out those « reasonable » internal manipulations.”1 

Donc, l’intelligence artificielle symbolique tente de simuler le raisonnement humain en s’inspirant de notre logique et de notre capacité à se représenter notre environnement à partir de symboles. Par exemple, si nous évoquons l’idée d’un avion en mouvement dans le ciel, notre esprit aura tendance à se représenter cette image. Ainsi, c’est cette capacité à se représenter des concepts abstraits qui nous permet d’entamer notre processus de pensée et de raisonnement.  Bref, l’IA symbolique part du principe que si un système apprend à raisonner à partir de symboles et de règles, il devient un agent intelligent capable de résoudre les problèmes qui lui sont soumis.  

Comme mentionné plus haut, les systèmes experts, dont le but est de reproduire le raisonnement et les connaissances d’un expert, sont la forme la plus connue et répandue d’IA symbolique. En principe, l’algorithme sera entrainé de manière à raisonner à partir de moteurs de règles de base et de fait : Si-alors. À titre d’exemple, l’on peut penser aux modèles d’intelligence artificielle capables de poser un diagnostic médical. Le système sera entrainé à partir d’une série de règles. Si tels symptômes sont présents et que l’organisme présente telles anomalies … Alors il y a un pourcentage de probabilité qu’une personne soit atteinte de cette maladie. Pour arriver à l’élaboration de ces règles, il faut reproduire le raisonnement d’un médecin (l’expert). Le programmeur devra donc décortiquer et détailler le raisonnement de l’expert pour en induire des règles qu’une machine sera capable d’appliquer afin d’arriver à un diagnostic.  

Très efficace comme outil de résolution de problèmes complexes dans le domaine des mathématiques et de la science, l’intelligence artificielle symbolique s’est avérée inefficace pour le traitement du langage et de la reconnaissance d’objets. En effet, un système d’IA symbolique ne peut agir que selon les règles qui lui sont soumises. Cependant, dans plusieurs situations, le raisonnement humain ne s’appuie pas seulement sur des règles rationnelles. Il est influencé par les subtilités de son milieu et s’appuie sur son esprit d’analyse et critique pour évaluer une situation. Ainsi, il est difficile de structurer le raisonnement humain à partir de règles rigides. Si nous reprenons l’exemple discuté plus haut, il devient fastidieux de réduire à un ensemble de règles l’ensemble des connaissances d’un spécialiste.  Les systèmes experts sont donc efficaces que dans des situations très précises.  

C’est d’ailleurs en partie dû à cette réalisation que l’IA symbolique a progressivement laissé sa place aux modèles connexionnistes :  

The difficulties faced by expert systems highlighted the need for systems to be able to fall back on details of experience, detect similar cases, make decisions on which case was relevant, and apply existing knowledge. These systems would need to be able to identify similarities between recurring tough problems to create new cases and scenarios, as well as update their existing sets of rules. These systems needed to enable machines to « learn » from their experiences. This realization gave birth to the now widely used term of « machine learning »; a coming together of statistics, fuzzy logic, knowledge acquisition, artificial intelligence, databases, data mining, computer science, and neuroscience back in 1987 and 1989 » 

Longtemps des courants rivaux, les connexionnistes défendent une différente approche de l’intelligence. Pour les connexionnistes, le raisonnement n’est qu’une part infime de l’intelligence humaine. L’humain apprend par expérience, perception et intuition. Le courant connexionniste met de l’avant l’idée que c’est en entrainant la machine à apprendre qu’elle sera en mesure d’agir de manière intelligente.  

De l’IA symbolique vers le courant connexionniste  

Évoluant de manière parallèle, ces deux courants ont longtemps divisé les recherches en intelligence artificielle. En effet, le courant connexionniste existe depuis aussi longtemps que le courant symbolique. L’étude de l’apprentissage automatique par réseaux de neurones artificiels remonte au milieu des années 50 avec le perceptron de Frank Rosenblatt. Cependant, l’apprentissage par réseaux convolutifs a longtemps été écarté par la communauté scientifique. Selon Yann LeCun, les ambitions de l’approche connexionniste ont souvent été considérées comme trop compliquées pour l’époque :  

« Les réseaux convolutifs sont très gourmands en calculs; or à l’époque, les ordinateurs sont lents et coûteux ; les jeux de données sont trop petits – nous sommes avant l’explosion d’Internet. Il faut donc les collecter soi-même, ce qui a un prix et limite les applications ; enfin, les logiciels pour les réseaux de neurones, comme SN, doivent être écrits à la main de A à Z par les chercheurs eux-mêmes. Un énorme investissement en temps » 

Ce n’est que plus tard, grâce à l’avènement d’Internet et à la collecte de Big Data que le courant connexionniste, à l’origine de l’apprentissage profond, a progressivement dominé les recherches et est venu proposer une alternative réaliste aux déficiences de l’IA symbolique.   

Vers un algorithme hybride ?  

Il demeure que l’intelligence artificielle symbolique occupe une place importante dans la recherche en IA. D’abord, elle est à l’origine des premiers systèmes d’intelligence artificielle et a été intégrée à plusieurs programmes d’IA qui font maintenant partie de notre quotidien. Ensuite, par son principe d’application de règles claires, le courant symbolique a l’avantage d’être facile à expliquer. En effet, il est plus commode de documenter la prise de décision de l’algorithme quand celui-ci s’appuie sur des bases de faits et de règles. Au contraire, l’approche connexionniste a souvent été critiquée pour son opacité. À partir du moment où la machine apprend, il est difficile d’expliquer et de retracer son processus de décision.  Ainsi, certains avancent l’idée d’une intelligence artificielle hybride. C’est ce que propose Murray Shanahan dans son papier Towards Deep Symbolic Reinforcement Learning. Selon Shanahan, il s’agit d’utiliser un système d’IA symbolique pour enseigner un ensemble de règles à une autre machine d’apprentissage profond. Ce transfert de connaissances permet à la machine d’apprentissage profond de raisonner à un niveau abstrait et d’atteindre de meilleures fonctions cognitives comme l’apprentissage par transfert, le raisonnement analogique et le raisonnement basé sur des hypothèses.   

Bref, ces deux courants d’intelligence artificielle ont longtemps été marqués par une rivalité. Cependant, pour être en mesure de se rapprocher du rêve mythique d’une intelligence artificielle générale, plusieurs avancent l’idée de courants complémentaires, capable de s’équilibrer. La recherche en intelligence artificielle tend à se diriger vers une association des différentes approches de l’IA et il serait faux de croire que le courant symbolique n’a plus rien à apprendre aux autres techniques algorithmiques. Son héritage demeure.   

This content has been updated on 02/21/2023 at 9 h 54 min.