En informatique, l'intelligence artificielle (IA), parfois appelée intelligence machine, est une intelligence démontrée par des machines, à la différence de l'intelligence naturelle affichée par l'homme. Les principaux manuels sur l'intelligence artificielle définissent le domaine comme l'étude des "agents intelligents": tout appareil qui perçoit son environnement et prend des mesures qui maximisent ses chances d'atteindre ses objectifs. En termes familiers, le terme "intelligence artificielle" est souvent utilisé pour décrire des machines (ou ordinateurs) qui imitent les fonctions "cognitives" que les humains associent à l'esprit humain, telles que "l'apprentissage" et la "résolution de problèmes".
À mesure que les machines deviennent de plus en plus performantes, les tâches considérées comme nécessitant une "intelligence" sont souvent retirées de la définition de l'IA, un phénomène connu sous le nom d'effet de l'IA. Une phrase dans le théorème de Tesler dit "l'IA est tout ce qui n'a pas encore été fait". Par exemple, la reconnaissance optique de caractères est souvent exclue des choses considérées comme de l'IA, devenues une technologie courante. Les capacités des machines modernes généralement classifiées comme intelligence artificielle incluent la compréhension de la parole humaine, la compétition au plus haut niveau dans les systèmes de jeu stratégiques (tels que chess and Go), les voitures fonctionnant de manière autonome, le routage intelligent dans les réseaux de diffusion de contenu et les simulations militaires.
L'intelligence artificielle a été fondée en tant que discipline universitaire dans 1956. Au cours des années qui ont suivi, elle a connu plusieurs vagues d'optimisme, suivies de déceptions et de pertes de financement (appelées «hiver de l'IA»), suivies de nouvelles approches, de succès et d'un financement renouvelé. . Pendant la majeure partie de son histoire, la recherche sur l'IA a été divisée en sous-domaines qui souvent ne permettent pas de communiquer les uns avec les autres. Ces sous-domaines sont basés sur des considérations techniques, telles que des objectifs particuliers (par exemple, "robotique" ou "apprentissage automatique"), l'utilisation d'outils particuliers ("logique" ou réseaux de neurones artificiels) ou de profondes différences philosophiques. Les sous-champs ont également été basés sur des facteurs sociaux (institutions particulières ou travaux de chercheurs particuliers).
Les problèmes (ou objectifs) traditionnels de la recherche sur l'IA comprennent le raisonnement, la représentation des connaissances, la planification, l'apprentissage, le traitement du langage naturel, la perception et la capacité de déplacer et de manipuler des objets. L'intelligence générale fait partie des objectifs à long terme du domaine. Les approches incluent les méthodes statistiques, l'intelligence informatique et l'IA symbolique traditionnelle. De nombreux outils sont utilisés en intelligence artificielle, notamment des versions d'optimisation mathématique et de recherche, des réseaux de neurones artificiels et des méthodes basées sur les statistiques, les probabilités et l'économie. Le domaine de l'IA fait appel à l'informatique, à l'ingénierie de l'information, aux mathématiques, à la psychologie, à la linguistique, à la philosophie et à de nombreux autres domaines.
Le domaine a été fondé sur l'hypothèse que l'intelligence humaine "peut être décrite avec une précision telle qu'une machine peut être conçue pour la simuler". Cela soulève des arguments philosophiques sur la nature de l'esprit et sur l'éthique de la création d'êtres artificiels dotés d'une intelligence humaine. Mythes, fiction et philosophie explorent ces questions depuis l'Antiquité. Certaines personnes considèrent également que l'IA constitue un danger pour l'humanité si elle progresse sans relâche. D'autres pensent que l'IA, contrairement aux révolutions technologiques précédentes, créera un risque de chômage de masse.
Au XXIe siècle, les techniques d'intelligence artificielle ont connu une recrudescence après les progrès simultanés en matière de puissance informatique, de grandes quantités de données et de compréhension théorique. et les techniques d'intelligence artificielle sont devenues une partie essentielle de l'industrie des technologies, contribuant à résoudre de nombreux problèmes difficiles en informatique, en génie logiciel et en recherche opérationnelle.
Les êtres artificiels capables de penser sont apparus comme des dispositifs de narration dans l'Antiquité et ont été courants dans la fiction, comme dans Frankenstein de Mary Shelley ou le RUR (Robot Universal de Rossum) de Karel Čapek. Ces personnages et leur destin ont soulevé bon nombre des problèmes abordés dans l'éthique de l'intelligence artificielle.
L'étude du raisonnement mécanique ou "formel" a commencé avec les philosophes et les mathématiciens de l'Antiquité. L'étude de la logique mathématique a conduit directement à la théorie du calcul d'Alan Turing, qui suggère qu'une machine, en mélangeant des symboles aussi simples que "0" et "1", pourrait simuler n'importe quel acte de déduction mathématique concevable. Cette idée, que les ordinateurs numériques peuvent simuler n'importe quel processus de raisonnement formel, est connue sous le nom de thèse Church-Turing. Parallèlement aux découvertes simultanées en neurobiologie, théorie de l'information et cybernétique, les chercheurs ont alors envisagé la possibilité de construire un cerveau électronique. Turing a proposé de changer la question de savoir si une machine était intelligente, "si oui ou non une machine peut afficher un comportement intelligent". Le premier travail qui est maintenant généralement reconnu comme étant l'intelligence artificielle est la conception formelle 1943 de McCullouch et Pitts pour des "neurones artificiels" complets de Turing.
Le domaine de la recherche sur l'intelligence artificielle est né lors d'un atelier au Dartmouth College à 1956, où le terme "Intelligence artificielle" a été inventé par John McCarthy pour distinguer le domaine de la cybernétique et échapper à l'influence du cybernéticien Norbert Wiener. Allen Newell (CMU), Herbert Simon (CMU), John McCarthy (MIT), Marvin Minsky (MIT) et Arthur Samuel (IBM) sont devenus les fondateurs et les leaders de la recherche sur l'IA. Ils formaient avec leurs étudiants des programmes que la presse qualifiait d '"étonnants": les ordinateurs apprenaient les stratégies du vérificateur (c. 1954) (et, selon 1959, joueraient mieux que l'homme moyen), résolvant des problèmes de langage en algèbre, prouvant ainsi des théorèmes logiques (Logic Théoriste, premier essai (c. 1956) et parlant anglais. Au milieu des 1960, la recherche aux États-Unis était lourdement financée par le ministère de la Défense et des laboratoires avaient été établis dans le monde entier. Les fondateurs d'Amnesty International étaient optimistes quant à l'avenir: Herbert Simon avait prédit que "les machines seront capables, dans vingt ans, de faire tout le travail qu'un homme peut faire". Marvin Minsky a déclaré: "D'ici une génération, le problème de la création d'une" intelligence artificielle "sera résolu de manière substantielle", a-t-il déclaré.
Ils ont omis de reconnaître la difficulté de certaines des tâches restantes. Les progrès ont été ralentis et dans 1974, en réponse aux critiques de Sir James Lighthill et aux pressions incessantes du Congrès américain pour financer des projets plus productifs, les gouvernements américain et britannique ont mis fin à la recherche exploratoire sur l'IA. Les prochaines années seront plus tard appelées "hiver IA", une période difficile pour obtenir un financement pour des projets AI.
Au début des 1980, la recherche sur l'IA a été relancée par le succès commercial des systèmes experts, une forme de programme d'IA simulant les connaissances et les compétences analytiques d'experts humains. En 1985, le marché de l'IA avait atteint plus d'un milliard de dollars. Dans le même temps, le projet informatique de la cinquième génération japonaise a incité les gouvernements américain et britannique à rétablir le financement de la recherche universitaire. Cependant, à partir de l'effondrement du marché de la machine Lisp dans 1987, AI est à nouveau tombé en discrédit et un deuxième hiatus plus durable a commencé.
À la fin des années 1990 et au début des années 21, l'IA a commencé à être utilisée pour la logistique, l'extraction de données, le diagnostic médical et d'autres domaines. Ce succès est dû à l’accroissement de la puissance de calcul (voir la loi de Moore), à ​​la résolution de problèmes spécifiques, à la création de nouveaux liens entre l’IA et d’autres domaines (statistiques, économie et mathématiques) et à l’engagement des chercheurs à appliquer des méthodes mathématiques et des normes scientifiques. Deep Blue est devenu le premier système de jeu d'échecs sur ordinateur à battre un champion du monde en titre, Garry Kasparov, sur 11 May 1997.
En 2011, un Jeopardy! match d’exposition quiz, le système de réponse aux questions d’IBM, Watson, a vaincu les deux plus grands Jeopardy! champions, Brad Rutter et Ken Jennings, par une marge significative. Des ordinateurs plus rapides, des améliorations algorithmiques et l'accès à de grandes quantités de données ont permis des avancées dans l'apprentissage et la perception de la machine; Les méthodes d’apprentissage en profondeur, gourmandes en données, ont commencé à dominer les critères de précision relatifs à 2012. Le Kinect, qui fournit une interface body-motion 3D pour la Xbox 360 et la Xbox One, utilise des algorithmes issus d'une longue recherche en intelligence artificielle, au même titre que les assistants personnels intelligents dans les smartphones. En mars 2016, AlphaGo a remporté 4 hors des jeux 5 de Go dans un match avec le champion de Go, Lee Sedol, devenant ainsi le premier système de jeu d'ordinateur à battre un joueur de Go professionnel sans handicap. Lors du Sommet 2017 Future of Go, AlphaGo a remporté un match de trois matchs avec Ke Jie, qui à l’époque tenait en permanence le classement mondial n ° 1 pendant deux ans. Cela a marqué l'achèvement d'une étape importante dans le développement de l'intelligence artificielle, car Go est un jeu relativement complexe, plus que les échecs.
Selon Jack Clark de Bloomberg, 2015 a été une année charnière pour l'intelligence artificielle, le nombre de projets logiciels utilisant AI Google étant passé d'un "usage sporadique" sous 2012 à plus de projets 2,700. Clark présente également des données factuelles indiquant les améliorations de l'intelligence artificielle depuis que 2012 est supporté par des taux d'erreur plus faibles dans les tâches de traitement d'image. Il attribue cela à une augmentation du nombre de réseaux de neurones abordables, due à la montée en puissance de l'infrastructure informatique en nuage et à l'augmentation du nombre d'outils de recherche et de jeux de données. Parmi d'autres exemples cités, citons le développement par Microsoft d'un système Skype capable de traduire automatiquement d'une langue à une autre et le système de Facebook permettant de décrire des images à des personnes aveugles. Dans une enquête 2017, une entreprise sur cinq a déclaré avoir "intégré l'IA dans certaines offres ou processus". Autour de 2016, la Chine a considérablement accéléré ses financements publics; certains observateurs pensent que, compte tenu de l’importante quantité de données et de la croissance rapide de ses résultats de recherche, il pourrait devenir une "superpuissance de l’IA". Cependant, il a été reconnu que les informations concernant l'intelligence artificielle ont tendance à être exagérées.

Retour au sommet