Ecrivez-nous
|
intelligence artificielle
intelligence artificielle, branche de l’informatique traitant de la reproduction, par des machines, de certains aspects de l’intelligence humaine. L’intelligence artificielle apparaît dans les années cinquante, lorsque le développement des premiers ordinateurs donne à penser qu’ils seront rapidement capables de simuler la pensée. Le mathématicien britannique Alan Mathison Turing propose ainsi, en 1950, un test (appelé test de Turing) permettant d’évaluer l’intelligence d’une machine : un ordinateur est qualifié d’intelligent si, en communiquant avec lui à distance et par écrit, un utilisateur ne peut deviner s’il s’agit ou non d’un être humain. Turing et d’autres chercheurs, comme Donald Michie, pensent qu’un tel ordinateur peut voir le jour avant la fin du XXe siècle. Mais les résultats ne sont pas à la hauteur des attentes, car les difficultés pour reproduire les mécanismes de l’intelligence humaine se révèlent considérables. Toutefois, les recherches menées en intelligence artificielle permettent de concevoir des ordinateurs capables d’effectuer des déductions, d’apprendre à partir d’une expérience passée, ou de reconnaître des formes complexes. Aujourd’hui, les travaux réalisés sur la modélisation des connaissances et du raisonnement expert sont effectués dans le but de développer des systèmes experts et plus généralement des systèmes à bases de connaissances.
Les résultats les plus aboutis de l’intelligence artificielle concernent la résolution, par une machine, de problèmes complexes dans un domaine délimité de compétences. C’est la démarche des systèmes experts : les connaissances des experts humains sont explicitées symboliquement sous forme de règles d’inférences que la machine peut ensuite appliquer à une situation réelle. Il existe plusieurs applications opérationnelles, telles que le jeu d’échecs ou l’aide au diagnostic médical. Au début, les chercheurs ont surtout focalisé leurs études sur les problèmes liés aux mécanismes de raisonnement et sur les moteurs d'inférence. Mais aujourd'hui, l'acquisition des connaissances auprès des experts et la construction des bases de connaissances requièrent l'attention des chercheurs et surtout des industriels. Les premiers travaux dans ce domaine datent de 1979 avec le système Teiresias. Ces travaux portent sur la définition et la mise en place de moyens méthodologiques pour fournir au système les connaissances de l’expert. Non seulement ces systèmes peuvent traiter un problème, mais ils sont également capables d’expliciter ensuite le raisonnement détaillé permettant d’aboutir au résultat. En outre, les plus perfectionnés d’entre eux sont à même de nuancer leurs conclusions, en recourant à la « logique floue ». Au lieu de considérer les variables comme vraies ou fausses, ces ordinateurs leur attribuent un degré de véracité qui exprime une probabilité plus ou moins grande. Un résultat peut ainsi être « certainement vrai », « probablement vrai », « peut-être faux », « probablement faux », etc. Cependant, quel que soit le perfectionnement de ces systèmes, tous sont fondés sur la reproduction de connaissances explicites recueillies auprès d’experts d’un domaine. Or, ces personnes semblent procéder, lorsqu’elles résolvent un problème, d’une manière bien différente qu’un simple enchaînement de règles apprises par cœur. Par conséquent, il est possible que la reproduction de l’expertise humaine soit hors de portée des systèmes experts, qui sont dépourvus de toute intuition. C’est pourquoi ceux-ci sont appelés systèmes à bases de connaissances.
Pour passer avec succès le test de Turing, une machine doit être capable de résoudre des problèmes complexes qu’on peut lui soumettre, mais aussi de comprendre et d’employer la langue naturelle de son interlocuteur humain. Plus précisément, la traduction automatique d’une langue vers une autre constitue l’un des enjeux du traitement informatique du langage. D’importantes recherches ont été menées dans ce but après la Seconde Guerre mondiale. En effet, les Américains souhaitaient pouvoir lire des textes soviétiques sans devoir apprendre le russe. En 1962, les machines construites par des chercheurs ont produit un exemple resté célèbre. La phrase « L’esprit est fort mais la chair est faible. » (The spirit [esprit/alcool] is strong but the flesh [chair/viande] is weak) traduite automatiquement en russe, puis retraduite vers la langue d’origine, donnait : « la vodka est bonne, mais la viande est pourrie » ! Il apparaissait alors manifeste que la traduction automatique se révélait très délicate, si bien que les recherches dans ce domaine ont été singulièrement freinées. De fait, une traduction fidèle nécessite une compréhension précise du sens des phrases. Or, un très grand nombre d’énoncés sont ambivalents, pouvant avoir plusieurs sens selon le contexte. Par exemple, la phrase « la petite brise la glace » peut signifier « la petite fille brise la glace » ou bien « le petit vent frais la glace ». Dans cet exemple, même l’identification de la fonction grammaticale des mots requiert une compréhension préalable du contexte. De plus, la connaissance contextuelle nécessaire à l’interprétation d’une phrase s’étend bien au-delà du texte dont elle fait partie, car dans de nombreux cas, la compréhension fait appel à tout un contexte culturel dont l’ordinateur devrait disposer. Cependant, les recherches en linguistique menées dans ce sens ont tout de même abouti à des applications, comme les systèmes d’aide à la traduction, et les systèmes capables d’interroger des bases de données, d’analyser des ensembles de documents, de corriger l’orthographe de textes ou d’extraire la terminologie de corpus de textes.
Les différentes recherches menées en intelligence artificielle ont conduit au développement de langages de programmation particuliers, les principaux étant Lisp et Prolog. Ces langages sont des langages interprétés, évolués (ou de haut niveau), qui se prêtent à la définition de traitements symboliques sur les ordinateurs. Lisp, inventé en 1958, manipule indifféremment les données et les instructions sous forme de listes. Le langage Prolog, apparu au début des années soixante-dix, permet de déclarer des connaissances explicites et des règles de raisonnement : il est largement utilisé pour écrire des systèmes experts.
Les différents aspects de l’intelligence artificielle évoqués jusqu’ici correspondent à une approche symbolique du domaine, assimilant les connaissances à des symboles que l’ordinateur manipule selon des règles logiques. Même si l’on parvenait à doter une machine de capacités de connaissance, de raisonnement, et de langage, pourrait-on considérer qu’elle pense ? Pour illustrer cette question, le philosophe américain John Searle a proposé la métaphore de la « chambre chinoise ». Une personne qui ne connaît pas le chinois est enfermée dans une chambre, et ne dispose que d’un manuel lui indiquant des instructions précises à suivre. Un message en chinois lui est alors envoyé par une trappe. En appliquant scrupuleusement les formules du manuel, cette personne produit un autre message en chinois qu’elle transmet à l’extérieur : à son insu, elle a ainsi fourni une réponse très pertinente à la question posée. Pourtant, cette personne ne parle absolument pas chinois et n’a aucune idée du problème qu’elle a résolu. Cet exemple montre combien il est difficile d’affirmer qu’un ordinateur est capable de penser. Les développements de l’intelligence artificielle soulèvent ainsi de nombreuses questions d’ordre philosophique, relatives aux notions de conscience, d’intelligence et de sensibilité. Les retombées de ces recherches sur la connaissance de l’être humain sont étudiées plus précisément par les sciences cognitives.
Au lieu de formaliser des connaissances que les ordinateurs peuvent manipuler, on peut également réaliser un apprentissage par un ensemble de machines reliées entre elles. Dans ce cas, la connaissance est représentée par l’état du système dans son ensemble et n’apparaît plus formalisée. De tels réseaux peuvent ainsi affronter des problèmes très complexes, comme la vision artificielle ou la compréhension du langage, alors que chaque élément pris isolément ne connaît rien. La version la plus courante de ces réseaux est illustrée par les réseaux neuromimétiques ou réseaux neuronaux, appelés ainsi parce que le fonctionnement des éléments s’inspire de celui des cellules du cerveau. |