L’apprentissage en profondeur, une technique d’intelligence artificielle avancée, est devenu de plus en plus populaire ces dernières années, grâce à des données abondantes et à une puissance de calcul accrue. Il s’agit de la principale technologie derrière de nombreuses applications que nous utilisons au quotidien, notamment la traduction linguistique en ligne, le marquage automatique des visages dans les médias sociaux, les réponses intelligentes dans votre courrier électronique et la nouvelle vague de modèles génératifs. Bien que l’apprentissage en profondeur ne soit pas nouveau, il a beaucoup bénéficié d’une plus grande disponibilité des données et des progrès de l’informatique.
ChatGPT, le chatbot alimenté par l’IA qui est devenu le application à la croissance la plus rapide de tous les temps(Ouvre dans une nouvelle fenêtre), est alimenté par un modèle d’apprentissage en profondeur qui a été formé sur des milliards de mots recueillis sur Internet. DALL-E, Midjourney et Stable Diffusion, des systèmes d’IA capables de générer des images à partir de descriptions textuelles, sont des systèmes d’apprentissage en profondeur qui modélisent la relation entre les images et les descriptions textuelles.
Apprentissage en profondeur contre apprentissage automatique
L’apprentissage en profondeur est un sous-ensemble de l’apprentissage automatique, une branche de l’intelligence artificielle qui configure les ordinateurs pour effectuer des tâches grâce à l’expérience. Contrairement aux systèmes d’IA classiques basés sur des règles, les algorithmes d’apprentissage automatique développent leur comportement en traitant des exemples annotés, un processus appelé “formation”.
Par exemple, pour créer un programme de détection de fraude, vous entraîneriez un algorithme d’apprentissage automatique avec une liste de transactions bancaires et leur résultat éventuel (légitime ou frauduleux). Le modèle d’apprentissage automatique examine les exemples et développe une représentation statistique des caractéristiques communes entre les transactions légitimes et frauduleuses.
Après cela, lorsque vous fournissez à l’algorithme les données d’une nouvelle transaction bancaire, il la classera comme légitime ou frauduleuse en fonction des modèles qu’il a glanés dans les exemples de formation. En règle générale, plus vous fournissez de données de haute qualité, plus un algorithme d’apprentissage automatique devient précis dans l’exécution de ses tâches.
L’apprentissage automatique est particulièrement utile pour résoudre des problèmes où les règles ne sont pas bien définies et ne peuvent pas être codées en commandes distinctes. Différents types d’algorithmes excellent dans différentes tâches.
Apprentissage profond et réseaux de neurones
Alors que les algorithmes d’apprentissage automatique classiques résolvent de nombreux problèmes avec lesquels les programmes basés sur des règles ont lutté, ils sont peu capables de traiter des données logicielles telles que des images, des vidéos, des fichiers audio et du texte non structuré.
Par exemple, la création d’un modèle de prédiction du cancer du sein à l’aide d’approches classiques d’apprentissage automatique nécessiterait les efforts de dizaines d’experts du domaine, de programmeurs informatiques et de mathématiciens, selon le chercheur en intelligence artificielle et scientifique des données Jeremy Howard dans la vidéo ci-dessus.
Les chercheurs auraient à faire beaucoup d’ingénierie de fonctionnalités, un processus ardu qui programme l’ordinateur pour trouver des modèles connus dans les radiographies et les IRM. Après cela, les ingénieurs utilisent l’apprentissage automatique en plus des fonctionnalités extraites. La création d’un tel modèle d’IA prend des années.
Réseau de neurones artificiels (Crédit : Wikipedia)
Les algorithmes d’apprentissage en profondeur résolvent le même problème en utilisant les réseaux de neurones profonds, un type d’architecture logicielle inspirée du cerveau humain (bien que les réseaux de neurones soient différent des neurones biologiques(Ouvre dans une nouvelle fenêtre)). Les réseaux de neurones sont des couches superposées de variables qui s’adaptent aux propriétés des données sur lesquelles ils sont entraînés et deviennent capables d’effectuer des tâches telles que la classification d’images et la conversion de la parole en texte.
Les réseaux de neurones sont particulièrement efficaces pour trouver indépendamment des modèles communs dans des données non structurées. Par exemple, lorsque vous formez un réseau neuronal profond sur des images de différents objets, il trouve des moyens d’extraire des caractéristiques de ces images. Chaque couche du réseau neuronal détecte des caractéristiques spécifiques telles que les bords, les coins, les visages, les globes oculaires, etc.
Les couches supérieures des réseaux de neurones détectent les caractéristiques générales. Des couches plus profondes détectent les objets réels. (Crédit : arxiv.org)
Les réseaux de neurones existent depuis les années 1950 (au moins conceptuellement). Mais jusqu’à récemment, la communauté de l’IA les écartait en grande partie parce qu’elles nécessitaient de grandes quantités de données et de puissance de calcul. Au cours des dernières années, la disponibilité et l’abordabilité des ressources de stockage, de données et de calcul ont propulsé les réseaux de neurones à l’avant-garde de l’innovation en IA.
Aujourd’hui, il existe différents types d’architectures d’apprentissage en profondeur, chacune adaptée à différentes tâches. Les réseaux de neurones convolutifs (CNN) sont particulièrement efficaces pour capturer des motifs dans les images. Les réseaux de neurones récurrents (RNN) sont efficaces pour traiter des données séquentielles telles que la voix, le texte et les notes de musique. Les réseaux de neurones graphiques (GNN) peuvent apprendre et prédire les relations entre les données graphiques, telles que les réseaux sociaux et les achats en ligne.
Une architecture d’apprentissage en profondeur qui est devenue très populaire récemment est la transformateur(Ouvre dans une nouvelle fenêtre), utilisé dans les grands modèles de langage (LLM) tels que GPT-4 et ChatGPT. Les transformateurs sont particulièrement efficaces pour les tâches linguistiques et peuvent être entraînés sur de très grandes quantités de texte brut.
À quoi sert le Deep Learning ?
Il existe plusieurs domaines dans lesquels le deep learning aide les ordinateurs à résoudre des problèmes auparavant insolubles :
Vision par ordinateur
La vision par ordinateur est la science qui consiste à utiliser un logiciel pour donner un sens au contenu des images et des vidéos. C’est l’un des domaines où l’apprentissage en profondeur a fait beaucoup de progrès. Au-delà du cancer du sein, les algorithmes de traitement d’images d’apprentissage en profondeur peuvent détecter autres types de cancer(Ouvre dans une nouvelle fenêtre) et aide diagnostiquer d’autres maladies(Ouvre dans une nouvelle fenêtre).
Mais ce type d’apprentissage en profondeur est également ancré dans de nombreuses applications que vous utilisez au quotidien. Face ID d’Apple utilise la vision par ordinateur pour reconnaître votre visage, tout comme Google Photos pour diverses fonctionnalités telles que la recherche d’objets et de scènes ainsi que la correction d’images. Facebook a utilisé l’apprentissage en profondeur pour taguer automatiquement les personnes sur les photos que vous téléchargez, avant que cette fonctionnalité ne soit fermée en 2021.
L’apprentissage en profondeur aide également les entreprises de médias sociaux à identifier et à bloquer automatiquement les contenus douteux, tels que la violence et la nudité. Et enfin, l’apprentissage en profondeur joue un rôle très important en permettant aux voitures autonomes de donner un sens à leur environnement.
Reconnaissance vocale et vocale
Lorsque vous prononcez une commande sur votre haut-parleur intelligent Amazon Echo ou sur Google Assistant, des algorithmes d’apprentissage en profondeur convertissent votre voix en commandes textuelles. Plusieurs applications en ligne utilisent également le deep learning pour transcrire des fichiers audio et vidéo. L’application de clavier de Google, Gboard, utilise l’apprentissage en profondeur pour fournir une transcription vocale en temps réel sur l’appareil qui tape au fur et à mesure que vous parlez.
Traitement et génération du langage naturel
Traitement du langage naturel (TAL), la science qui consiste à extraire le sens d’un texte non structuré, a été un problème historique pour les logiciels classiques. Définir toutes les différentes nuances et significations cachées de la langue écrite avec des règles informatiques est pratiquement impossible. Mais les réseaux de neurones formés sur de grands corps de texte peuvent effectuer avec précision de nombreuses tâches NLP.
Le service de traduction de Google a vu un augmentation soudaine des performances(Ouvre dans une nouvelle fenêtre) lorsque l’entreprise est passée à l’apprentissage en profondeur. Les haut-parleurs intelligents utilisent la PNL d’apprentissage en profondeur pour comprendre les différentes nuances des commandes, telles que les différentes façons dont vous pouvez demander la météo ou les directions.
L’apprentissage en profondeur est également très efficace pour générer un texte significatif, également appelé génération de langage naturel (NLG). Smart Reply et Smart Compose de Gmail utilisent l’apprentissage en profondeur pour apporter des réponses pertinentes à vos e-mails et des suggestions pour compléter vos phrases. Un modèle de génération de texte développé par OpenAI a créé de longs extraits de texte cohérent.
Grands modèles de langage (LLM) tels que ChatGPT d’OpenAI peuvent effectuer un large éventail de tâches, notamment résumer du texte, répondre à des questions, rédiger des articles et générer du code logiciel. Les LLM sont intégrés dans un large éventail d’applications, y compris les applications de messagerie et de messagerie d’entreprise, les applications de productivité et les moteurs de recherche.
Recommandé par nos rédacteurs
Génération artistique
Un domaine dans lequel l’apprentissage en profondeur est devenu très utile récemment est la génération d’images. Des modèles tels que DALL-E et Stable Diffusion peuvent créer de superbes images à partir de descriptions textuelles. Microsoft utilise déjà DALL-E dans plusieurs produits, dont Designer. Adobe utilise également des modèles génératifs dans plusieurs de ses applications.
(Crédit : fotograzia/Getty Images)
Les limites de l’apprentissage en profondeur
Malgré tous ses avantages, l’apprentissage en profondeur présente également quelques lacunes.
Dépendance des données
En général, les algorithmes d’apprentissage en profondeur nécessitent de grandes quantités de données d’entraînement pour effectuer leurs tâches avec précision. Malheureusement, il n’y a pas suffisamment de données de formation de qualité pour créer des modèles d’apprentissage en profondeur capables de répondre à de nombreux types de problèmes.
Explicabilité
Les réseaux de neurones développent leur comportement de manière extrêmement compliquée – même leurs créateurs ont du mal à comprendre leurs actions. Le manque d’interprétabilité rend extrêmement difficile le dépannage et la correction des erreurs dans les algorithmes d’apprentissage en profondeur.
Biais algorithmique
Les algorithmes d’apprentissage en profondeur sont aussi bons que les données sur lesquelles ils sont formés. Le problème est que les données de formation contiennent souvent des biais cachés ou évidents, et les algorithmes héritent de ces biais. Par exemple, un algorithme de reconnaissance faciale formé principalement sur des photos de personnes blanches fonctionnera moins précisément pour les personnes non blanches.
Manque de généralisation
Les algorithmes d’apprentissage en profondeur sont efficaces pour effectuer des tâches ciblées, mais médiocres pour généraliser leurs connaissances. Contrairement aux humains, un modèle d’apprentissage en profondeur formé pour jouer à StarCraft ne pourra pas jouer à un jeu similaire, par exemple WarCraft.
De plus, l’apprentissage en profondeur ne parvient pas à gérer les données qui s’écartent de ses exemples de formation, également appelés « cas limites ». Cela peut devenir dangereux dans des situations telles que les voitures autonomes, où les erreurs peuvent avoir des conséquences fatales.
(Crédit : Getty)
L’avenir de l’apprentissage en profondeur
En 2019, les pionniers du deep learning ont reçu le prix Turing, l’équivalent informatique du prix Nobel. Mais le travail sur l’apprentissage en profondeur et les réseaux de neurones est loin d’être terminé. Divers efforts sont en cours pour améliorer l’apprentissage en profondeur.
Certains travaux intéressants incluent des modèles d’apprentissage en profondeur qui sont explicables ou ouverts à l’interprétation, des réseaux de neurones qui peuvent développer leur comportement avec moins de données de formation, et des modèles d’IA de pointe, des algorithmes d’apprentissage en profondeur qui peuvent effectuer leurs tâches sans dépendre d’une grande ressource informatique en nuage.
Et bien que l’apprentissage en profondeur soit actuellement la technique d’intelligence artificielle la plus avancée, ce n’est pas la destination finale de l’industrie de l’IA. L’évolution de l’apprentissage en profondeur et des réseaux de neurones pourrait nous donner des architectures totalement nouvelles.
Recevez nos meilleures histoires !
Inscrivez vous pour Quoi de neuf maintenant pour recevoir nos meilleures histoires dans votre boîte de réception tous les matins.
Cette newsletter peut contenir des publicités, des offres ou des liens d’affiliation. L’inscription à une newsletter indique votre consentement à notre Conditions d’utilisation et politique de confidentialité. Vous pouvez vous désabonner des newsletters à tout moment.