Qu’est-ce que le Machine Learning ? Définition de l’apprentissage automatique

Qu'est-ce que le Machine Learning ? Définition de l'apprentissage automatique

La technologie d’apprentissage automatique, ce que l’on appelle communément le « Machine Learning« , révolutionne de nombreux secteurs et applications, de la médecine au filtrage des e-mails. Les algorithmes d’apprentissage automatique permettent de développer de puissants modèles prédictifs capables de prendre des décisions sans être explicitement programmés. En tant que sous-ensemble de l’intelligence artificielle, l’apprentissage automatique continue d’être appliqué et affiné pour être utilisé dans une variété de tâches exigeantes. Le succès du Machine Learning s’explique en grande partie par sa capacité à traiter des ensembles de données comportant des milliers, voire des millions de variables, ce qui permet de prendre des décisions fondées sur les données et de libérer la valeur cachée dans les grands ensembles de données. Dans notre société de plus en plus axée sur les données, l’apprentissage automatique est un outil important qui offre aux calculs des capacités de prise de décision améliorées et des résultats beaucoup plus précis. Zoom sur la question.

Histoire et origines du Machine Learning

Depuis son invention par Arthur Samuel, le machine learning est devenu un concept révolutionnaire dans les domaines des jeux vidéo et de l’intelligence artificielle mais à l’époque, on parlait encore souvent d’ordinateurs « auto-apprenants ».

Au début des années 1960, la société Raytheon avait mis au point une « machine à apprendre » expérimentale appelée Cybertron, qui utilisait l’apprentissage par renforcement pour analyser les signaux de sonar, les électrocardiogrammes et les modèles de parole. La machine était constamment entraînée par un professeur humain qui utilisait un bouton spécial « goof » pour lui faire savoir quand elle avait pris des décisions incorrectes. À cette époque, des livres sur l’apprentissage automatique, comme Learning Machines de Nilsson, qui se concentrait sur la classification des modèles, étaient publiés et l’intérêt pour ce domaine augmentait rapidement. Il ne faudra pas longtemps pour que l’intelligence artificielle, en tant que discipline universitaire, prenne un essor d’intérêt considérable dans tous les pays du monde.

En 1981, un rapport influent a été publié sur l’utilisation de stratégies d’apprentissage pour qu’un réseau neuronal puisse apprendre et reconnaître 40 caractères à partir d’un terminal d’ordinateur. Ce rapport plutôt révolutionnaire a démontré la capacité d’utiliser différents algorithmes d’apprentissage pour aider à automatiser le processus de reconnaissance, ce qui a conduit à de nombreuses études ultérieures visant à l’étendre et à l’améliorer. Au cours des décennies suivantes, l’évolution de l’intelligence artificielle et de la recherche sur les algorithmes a permis de perfectionner constamment cette technologie, de sorte qu’aujourd’hui, la reconnaissance de caractères complexes peut être effectuée avec une précision proche de 100 %. Ce rapport de 1981 est donc largement considéré comme l’un des nombreux grands débuts du développement de cette technologie du Machine Learning.

origines du machine learning
Aux origines, le machine learning était surtout théorique

Le tournant des années 1990

Avec le développement de nouvelles machines (par la mémoire RAM notamment), plus en capacité de calculer, le rêve de voir des ordinateurs apprendre par eux-même n’a cessé de se renforcer. On se souvient des efforts consentis par un Steeve Jobs pour faire parler par exemple son Mac et nombreuses sont les équipes universitaires qui ont particulièrement travaillé sur des projets dits de IA (et plus particulièrement d’apprendtissage automatique)/

« On dit d’un programme informatique qu’il apprend de l’expérience E en ce qui concerne une certaine classe de tâches T et une mesure de performance P si sa performance aux tâches dans T, telle que mesurée par P, s’améliore avec l’expérience E. »

La définition opérationnelle de l’apprentissage automatique proposée ci-dessus par Tom M. Mitchell en 1997 a des répercussions considérables sur le domaine. Cette définition réunit un éventail de tâches modernes et traditionnelles ; des véhicules autonomes circulant dans les rues des villes aux agents d’IA jouant aux échecs avancés, tout programme capable d’améliorer ses performances grâce à l’expérience accumulée relève de l’apprentissage automatique tel que décrit par la définition de Mitchell. En outre, l’approche de Mitchell s’écarte de l’article d’Alan Turing, considéré souvent comme l’inventeur pionnier de l’informatique, intitulé « Computing Machinery and Intelligence« , dans lequel les capacités cognitives des machines sont explorées afin de fournir une mesure plus simple et plus « opérationnelle » permettant de quantifier leurs progrès. Cette proposition a largement façonné la trajectoire future de l’apprentissage automatique moderne.

Et aujourd’hui ?

Les deux objectifs de l’apprentissage automatique moderne sont de permettre une classification efficace des données et de prédire les résultats futurs. Par exemple, un hypothétique algorithme de vision par ordinateur associé à un apprentissage supervisé pourrait être entraîné à classer les grains de beauté cancéreux. Dans le secteur des opérations boursières, les algorithmes d’apprentissage automatique peuvent fournir un aperçu analytique des performances potentielles futures. De plus, ces prédictions permettent de guider les traders dans leurs décisions d’investissement à court et à long terme. Les algorithmes d’apprentissage automatique offrent un large éventail d’applications dans de nombreux secteurs (on pense notamment aux moteurs de recherche comme Google qui mettent en avant ces technologies), ce qui en fait un outil précieux pour les entreprises et les particuliers, ce qui fait aussi que c’est l’un des sujets les plus traités de l’informatique moderne.

Les trois grandes approches du Machine Learning

Les approches du Machine Learning peuvent avoir un impact considérable sur de nombreux aspects différents de notre vie. D’une manière générale, le secteur se divise en trois grandes catégories distinctes. L’apprentissage supervisé consiste à présenter à l’ordinateur des exemples d’entrées et de sorties, une analogie qui s’apparente en quelque sorte à un enseignant dans une salle de classe. En revanche, l’apprentissage non supervisé ne s’accompagne pas d’étiquettes ou d’indicateurs des résultats souhaités ; il repose plutôt sur des algorithmes qui détectent de manière autonome des modèles dans les données. Cette approche est utile pour trouver des modèles cachés, ainsi que pour aider à atteindre les résultats souhaités. Ainsi, observons les trois types actuels d’apprentissage automatique.

L’apprentissage supervisé

L’apprentissage supervisé est un élément clé du domaine car il consiste à apprendre à un ordinateur à associer certaines entrées aux sorties souhaitées. Cela permet à la machine de prédire intuitivement les résultats futurs possibles en utilisant le même modèle qui a été établi. Ce processus s’effectue en présentant à l’ordinateur des exemples d’entrées et de sorties, donnés par un « enseignant », qui décompose essentiellement les tâches en modèles simplifiés pouvant être évalués de manière efficace et précise. Grâce à cette approche, les machines sont capables d’évaluer rapidement et précisément les résultats potentiels de nouvelles données d’entrée sur la base de leur expérience antérieure.

les trois grandes approches de l'apprentissage automatique
Les trois grandes approches de l’apprentissage automatique

L’apprentissage non supervisé

L’apprentissage non supervisé : Dans ce type d’apprentissage automatique, aucune étiquette n’est donnée à l’algorithme. Au lieu de cela, il est laissé seul pour découvrir des modèles dans ses données d’entrée. L’apprentissage non supervisé peut être utilisé à diverses fins, comme la découverte de modèles cachés dans les données ou l’extraction de caractéristiques à partir de ces modèles, mais il peut aussi être utilisé comme un objectif principal en soi. En utilisant des algorithmes non supervisés pour automatiser divers processus, les machines peuvent prendre des décisions et créer des stratégies sans intervention humaine.

L’apprentissage par renforcement

L’apprentissage par renforcement est une forme avancée d’apprentissage automatique qui permet aux programmes informatiques d’interagir avec un environnement dynamique et d’atteindre des objectifs spécifiques. Plutôt que de définir d’emblée les paramètres de réussite, l’apprentissage par renforcement utilise un retour d’information similaire aux récompenses attribuées à chaque étape de son espace de problème. Cela lui permet d’optimiser les niveaux de réussite dans de nombreuses tâches, comme la conduite d’un véhicule ou les jeux contre des adversaires. À mesure que le retour d’information arrive, l’apprentissage par renforcement ajuste intelligemment la programmation en fonction de ce qu’il perçoit comme la solution optimale.

En quel langage fait-on du machine learning ?

Le langage Python s’est rapidement imposé dans le monde de l’apprentissage automatique, renforçant son rôle de langage de référence pour ces applications. Tout au long de la croissance de sa popularité, Python a été reconnu comme l’un des langages de programmation open-source les plus conviviaux du marché, avec sa syntaxe simple et ses capacités à mettre en œuvre des algorithmes sophistiqués. Grâce à l’ajout de bibliothèques externes comme PyBrain, Scikit-learn et TensorFlow, les développeurs de logiciels sont désormais en mesure de créer des modèles et des outils d’intelligence artificielle hautement personnalisables destinés à être utilisés dans divers secteurs. Python étant l’un des langages de codage les plus utilisés aujourd’hui, il ne fait aucun doute que son impact continuera à se faire sentir dans le développement des nouveaux systèmes de Machine Learning.

R.C.

Politique de confidentialité et mentions légales accessibles dans le Plan de site