Les réseaux de neurones artificiels (RNA) ou systèmes connexionnistes sont des systèmes informatiques inspirés des réseaux de neurones biologiques qui constituent le cerveau des animaux. De tels systèmes apprennent (améliorent progressivement leur capacité) à effectuer des tâches en considérant des exemples, généralement sans programmation spécifique à une tâche. Par exemple, en reconnaissance d'image, ils peuvent apprendre à identifier les images contenant des chats en analysant des exemples d'images étiquetées manuellement comme "chat" ou "pas de chat" et en utilisant les résultats analytiques pour identifier les chats dans d'autres images. Ils ont trouvé que la plupart des applications dans des applications difficiles à exprimer avec un algorithme informatique traditionnel utilisant une programmation basée sur des règles.
Un ANN est basé sur un ensemble d'unités connectées appelées neurones artificiels (analogues aux neurones biologiques d'un cerveau biologique). Chaque connexion (synapse) entre neurones peut transmettre un signal à un autre neurone. Le neurone récepteur (postsynaptique) peut traiter le (s) signal (s), puis signaler les neurones en aval qui lui sont connectés. Les neurones peuvent avoir un état, généralement représenté par des nombres réels, typiquement entre 0 et 1. Les neurones et les synapses peuvent aussi avoir un poids qui varie avec l’apprentissage, ce qui peut augmenter ou diminuer la force du signal qu’il envoie en aval.
Généralement, les neurones sont organisés en couches. Différentes couches peuvent effectuer différents types de transformations sur leurs entrées. Les signaux voyagent de la première couche (entrée) à la dernière couche (sortie), éventuellement après avoir traversé les couches plusieurs fois.
L’objectif initial de l’approche par réseau de neurones était de résoudre les problèmes de la même manière qu’un cerveau humain. Au fil du temps, l’attention s’est concentrée sur l’appariement de capacités mentales spécifiques, entraînant des déviations de la biologie telles que la rétropropagation, ou la transmission d’informations en sens inverse et l’ajustement du réseau pour refléter ces informations.
Les réseaux de neurones ont été utilisés pour diverses tâches, notamment la vision par ordinateur, la reconnaissance de la parole, la traduction automatique, le filtrage des réseaux sociaux, les jeux de société et les jeux vidéo, ainsi que le diagnostic médical.
À partir de 2017, les réseaux de neurones ont généralement quelques milliers à quelques millions d’unités et des millions de connexions. Bien que ce nombre soit de plusieurs ordres de grandeur inférieur au nombre de neurones d'un cerveau humain, ces réseaux peuvent effectuer de nombreuses tâches à un niveau supérieur à celui des humains (par exemple, reconnaître des visages, jouer à "Go").
Un réseau neuronal profond (DNN) est un réseau neuronal artificiel (ANN) avec plusieurs couches entre les couches d'entrée et de sortie. Le DNN trouve la manipulation mathématique correcte pour transformer l’entrée en sortie, qu’il s’agisse d’une relation linéaire ou non linéaire. Le réseau parcourt les couches en calculant la probabilité de chaque sortie. Par exemple, un DNN formé à la reconnaissance des races de chiens examinera l'image donnée et calculera la probabilité que le chien de l'image soit d'une certaine race. L'utilisateur peut consulter les résultats et sélectionner les probabilités que le réseau doit afficher (au-dessus d'un certain seuil, etc.) et renvoyer l'étiquette proposée. Chaque manipulation mathématique en tant que telle est considérée comme une couche et les DNN complexes comportent de nombreuses couches, d'où le nom de réseaux "profonds".
Les DNN peuvent modéliser des relations non linéaires complexes. Les architectures DNN génèrent des modèles de composition dans lesquels l'objet est exprimé sous forme de composition en couches de primitives. Les couches supplémentaires permettent la composition des entités des couches inférieures, modélisant potentiellement des données complexes avec moins d'unités qu'un réseau peu profond effectuant les mêmes performances.
Les architectures profondes incluent de nombreuses variantes de quelques approches de base. Chaque architecture a rencontré le succès dans des domaines spécifiques. Il n'est pas toujours possible de comparer les performances de plusieurs architectures, à moins qu'elles aient été évaluées sur les mêmes ensembles de données.
Les DNN sont généralement des réseaux à absorption dans lesquels les données circulent de la couche d'entrée à la couche de sortie sans effectuer de rebouclage. Au début, le DNN crée une carte des neurones virtuels et assigne des valeurs numériques aléatoires, ou "poids", aux connexions entre eux. Les poids et les entrées sont multipliés et renvoient une sortie entre 0 et 1. Si le réseau ne reconnaissait pas avec précision un modèle particulier, un algorithme ajusterait les poids. De cette façon, l'algorithme peut rendre certains paramètres plus influents jusqu'à ce qu'il détermine la manipulation mathématique correcte pour traiter complètement les données.
Les réseaux de neurones récurrents (RNN), dans lesquels les données peuvent circuler dans n'importe quelle direction, sont utilisés pour des applications telles que la modélisation de langage. La mémoire longue à court terme est particulièrement efficace pour cette utilisation.
Les réseaux de neurones profonds convolutifs (CNN) sont utilisés en vision par ordinateur. Les CNN ont également été appliqués à la modélisation acoustique pour la reconnaissance automatique de la parole (ASR).

Retour au sommet