“Intelligence artificielle” est actuellement le mot à la mode le plus populaire de la technologie. Et à juste titre - après des décennies de recherche et développement, plusieurs techniques auparavant réservées à la science-fiction se sont lentement transformées en faits scientifiques..

Les techniques d'intelligence artificielle font déjà partie de nos vies: l'IA détermine nos résultats de recherche, traduit nos voix en instructions utiles pour les ordinateurs et peut même aider à trier nos concombres (pour plus d'informations à ce sujet plus tard). Au cours des prochaines années, nous utiliserons l'intelligence artificielle pour conduire nos voitures, répondre à nos demandes de service à la clientèle et, ainsi, à bien d'autres choses encore..

Mais comment en sommes-nous arrivés là? D'où vient cette nouvelle technologie puissante? Voici dix des grandes étapes qui nous ont conduit à ces temps passionnants.

Obtenir la "grande idée"

Le concept d'intelligence artificielle n'est pas apparu soudainement - il fait l'objet d'un débat philosophique profond qui fait encore rage aujourd'hui: une machine peut-elle vraiment penser comme un humain? Une machine peut être Humain? L’un des premiers à y penser fut René Descartes, en 1637, dans un livre intitulé Discours sur la méthode. Étonnamment, étant donné qu’à l’époque même un Amstrad Em @ iler aurait semblé incroyablement futuriste, Descartes a résumé certaines des questions cruciales et des défis auxquels les technologues devront faire face:

“S'il existait des machines qui ressemblaient à nos corps et imitaient nos actions aussi fidèlement que possible à toutes fins pratiques, nous devrions toujours disposer de deux moyens très sûrs de reconnaître qu'elles n'étaient pas de vrais hommes..”

Un portrait de René Descartes

Il poursuit en expliquant qu'à son avis, les machines ne pourraient jamais utiliser de mots ou “mettre ensemble des signes” à “déclarer nos pensées aux autres”, et que même si nous pouvions concevoir une telle machine, “il n'est pas concevable qu'une telle machine produise des arrangements de mots différents de manière à donner une réponse signicative appropriée à tout ce qui se dit en sa présence, comme le peut le plus ennuyeux des hommes.”

Il continue ensuite en décrivant le grand défi du moment présent: créer une IA généralisée plutôt que quelque chose de strictement ciblé - et comment les limitations de l'IA actuelle montreraient que la machine n'est en aucun cas un humain:

“Même si certaines machines font certaines choses aussi bien que nous, voire mieux, elles échoueraient inévitablement dans d’autres, ce qui indiquerait qu’elles agissent non par compréhension, mais seulement par la disposition de leurs organes..”

Alors maintenant, grâce à Descartes, en ce qui concerne l'IA, nous avons le défi.

Le jeu d'imitation

Le deuxième repère philosophique majeur a été fourni par le pionnier de l'informatique, Alan Turing. En 1950, il décrit pour la première fois ce que l’on appelle désormais le test de Turing et ce qu’il appelle “Le jeu d'imitation” - un test pour mesurer quand on peut enfin déclarer que les machines peuvent être intelligentes.

Son test était simple: si un juge ne peut pas faire la différence entre un humain et une machine (par exemple, grâce à une interaction textuelle avec les deux), la machine peut-elle amener le juge à penser que c'est lui qui est humain?

Alan Turing, pionnier britannique de l'informatique

De manière amusante à l'époque, Turing avait fait une prédiction audacieuse sur l'avenir de l'informatique - et il a estimé que son test serait passé à la fin du XXe siècle. Il a dit:

“Je pense que dans environ cinquante ans, il sera possible de programmer des ordinateurs, avec une capacité de stockage d'environ [1 Go], pour les amener à jouer du jeu d'imitation si bien qu'un interrogateur moyen n'aura plus que 70% des chances de le faire. la bonne identification après cinq minutes d’interrogatoire.… Je pense qu’à la fin du siècle, l’utilisation de mots et l’opinion générale de l’éducation auront tellement changé que l’on pourra parler de machines pensantes sans s’attendre à être contredites..”

Malheureusement, sa prédiction est un peu prématurée. En 2000, la technologie était beaucoup plus primitive. Mais hé, au moins, il aurait été impressionné par la capacité du disque dur - qui avoisinait les 10 Go au début du siècle.

Le premier réseau de neurones

“Réseau neuronal” est le nom de fantaisie que les scientifiques donnent à l’essai et à l’erreur, le concept clé qui sous-tend l’IA moderne. Essentiellement, lorsqu'il s'agit de former une IA, la meilleure façon de le faire est de laisser le système deviner, recevoir un retour d'information, et deviner encore une fois - en changeant constamment les probabilités qu'il obtienne la bonne réponse..

Une image créée par un réseau Google Neural.

Ce qui est assez étonnant, c’est que le premier réseau de neurones a été créé en 1951. “SNARC” - l'ordinateur de renforcement analogique neuronal stochastique - il a été créé par Marvin Minsky et Dean Edmonds et n'était pas constitué de puces et de transistors, mais de tubes à vide, de moteurs et d'embrayages.

Le défi pour cette machine? Aider un rat virtuel à résoudre un labyrinthe. Le système enverrait des instructions pour naviguer dans le labyrinthe et chaque fois que les effets de ses actions seraient réinjectés dans le système, les tubes à vide étant utilisés pour stocker les résultats. Cela signifiait que la machine était capable d'apprendre et de déplacer les probabilités, ce qui augmentait les chances de traverser le labyrinthe..

Il s’agit essentiellement d’une version très, très simple du même processus utilisé par Google pour identifier les objets présents sur les photos..

La première voiture autonome

Quand nous pensons à des voitures autonomes, nous pensons au projet Waymo de Google - mais étonnamment, en 1995, Mercedes-Benz avait réussi à conduire une Classe S modifiée essentiellement de manière autonome de Munich à Copenhague..

Une Mercedes Classe S récente

Selon AutoEvolution, le trajet de 1043 milles a été effectué en introduisant dans le coffre un supercalculateur. La voiture contenait 60 puces de transfor- mateur, qui étaient à la pointe de la technologie en matière d'informatique parallèle, ce qui lui permettait de traiter beaucoup de Données de conduite rapides - un élément crucial pour rendre les voitures autonomes suffisamment réactives.

Apparemment, la voiture a atteint une vitesse de 115 mi / h, et était en fait assez similaire aux voitures autonomes d’aujourd’hui, car elle était capable de dépasser et de lire les panneaux de signalisation. Mais si on nous offrait un voyage? Euh… nous insister tu y vas en premier.

Passer aux statistiques

Bien que les réseaux de neurones aient existé en tant que concept pendant un certain temps (voir ci-dessus!), Il a fallu attendre la fin des années 1980 pour que les chercheurs en intelligence artificielle subissent un changement important. “règles basées” approche à la place basée sur des statistiques - ou l'apprentissage automatique. Cela signifie que plutôt que d'essayer de construire des systèmes imitant l'intelligence en essayant de deviner les règles selon lesquelles les humains fonctionnent, d'adopter plutôt une approche empirique et d'ajuster les probabilités en fonction des commentaires est un bien meilleur moyen d'apprendre aux machines à penser. C'est un gros problème - car c'est ce concept qui sous-tend les choses étonnantes que l'IA peut faire aujourd'hui.

Gil Press de Forbes affirme que ce changement a été annoncé en 1988, lorsque le centre de recherche TJ Watson d’IBM a publié un article intitulé “Une approche statistique de la traduction linguistique”, qui parle spécifiquement de l’utilisation de l’apprentissage automatique pour savoir exactement ce que Google Translate fonctionne aujourd’hui.

IBM aurait apparemment introduit dans leur système 2,2 millions de phrases en français et en anglais pour former le système - les phrases étaient toutes extraites des transcriptions du Parlement canadien, qui publie ses enregistrements dans les deux langues - ce qui peut sembler beaucoup, mais sans comparaison. Google ayant l'ensemble de l'internet à sa disposition - ce qui explique pourquoi Google Translate est si effroyablement bon aujourd'hui.

Deep Blue bat Garry Kasparov

Malgré le recentrage sur les modèles statistiques, les modèles fondés sur des règles étaient toujours utilisés - et en 1997, IBM était peut-être responsable du match d'échecs le plus célèbre de tous les temps. Il s'agit de Deep Blue computer, champion du monde d'échecs, Garry Kasparov. les machines peuvent être.

Le combat était en fait une revanche: en 1996, Kasparov a battu Deep Blue 4-2. Ce n’est qu’en 1997 que les machines ont pris le dessus en remportant deux des six matches et en battant Kasparov à égalité trois autres..

L'intelligence de Deep Blue était, dans une certaine mesure, illusoire - IBM estime elle-même que sa machine n'utilise pas l'intelligence artificielle. Deep Blue utilise plutôt une combinaison de traitement de la force brute, qui traite des milliers de déplacements possibles chaque seconde. IBM a alimenté le système avec des données sur des milliers de jeux précédents, et chaque fois que le tableau changeait à chaque film, Deep Blue n'apprendrait rien de nouveau, mais rechercherait comment les précédents grands maîtres réagissaient dans les mêmes situations.. “Il joue les fantômes du passé des grands maîtres,” comme le dit IBM.

Qu’il s’agisse ou non d’intelligence artificielle, il est clair qu’il s’agissait là d’un jalon important qui a beaucoup attiré l’attention, non seulement des capacités de calcul des ordinateurs, mais également du terrain dans son ensemble. Depuis la confrontation avec Kasparov, conquérir des joueurs humains dans les jeux est devenu une méthode populiste majeure d'analyse de l'intelligence des machines - comme nous l'avons vu à nouveau en 2011, lorsque le système Watson d'IBM a facilement dépassé deux des jeux télévisés. Périlmeilleurs joueurs.

Siri langue des ongles

Le traitement du langage naturel est depuis longtemps un saint graal d’intelligence artificielle - et il est crucial si nous voulons avoir un monde où les robots humanoïdes existent, ou où nous pouvons aboyer des ordres sur nos appareils comme dans Star Trek.

Et c’est pourquoi Siri, construit à l’aide des méthodes statistiques susmentionnées, était aussi impressionnant. Créé par SRI International et même lancé en tant qu'application distincte sur l'App Store iOS, il a été rapidement acquis par Apple lui-même et profondément intégré à iOS: il s'agit aujourd'hui de l'un des fruits les plus en vue de l'apprentissage automatique. des produits équivalents de Google (l'assistant), de Microsoft (Cortana) et, bien sûr, de l'Alexa d'Amazon, ont changé la façon dont nous interagissons avec nos appareils d'une manière qui aurait semblé impossible quelques années auparavant.

Aujourd'hui, nous prenons cela pour acquis - mais il suffit de demander à toute personne ayant déjà essayé d'utiliser une application de voix vers texte avant 2010 de comprendre à quel point nous avons progressé..

Le défi ImageNet

A l'instar de la reconnaissance vocale, la reconnaissance d'image est un autre défi majeur que l'IA contribue à relever. En 2015, les chercheurs ont conclu pour la première fois que les machines, en l'occurrence deux systèmes concurrents de Google et de Microsoft, étaient plus aptes à identifier des objets dans des images que les humains, dans plus de 1000 catégories..

Celles-ci “l'apprentissage en profondeur” les systèmes ont réussi à relever le défi ImageNet - pensez à quelque chose comme le test de Turing, mais pour la reconnaissance d'image - et ils seront fondamentaux si la reconnaissance d'image dépasse jamais les capacités humaines.

Les applications pour la reconnaissance des images sont, bien sûr, nombreuses - mais un exemple amusant que Google aime à se vanter en promouvant sa plate-forme d'apprentissage automatique TensorFlow, c'est le tri des concombres: en utilisant la vision par ordinateur, un agriculteur n'a pas besoin d'employer des humains pour décider si sont prêts pour le dîner - les machines peuvent décider automatiquement, ayant été formées sur des données antérieures.

Les GPU rendent l'IA économique

L’une des principales raisons pour lesquelles l’intelligence artificielle est si importante tient au fait que c’est seulement au cours des dernières années que le coût du traitement d’une quantité aussi importante de données est devenu abordable..

Selon Fortune, ce n’est qu’à la fin des années 2000 que les chercheurs ont compris que les unités de traitement graphique (GPU), développées pour les graphiques et les jeux 3D, étaient 20 à 50 fois plus performantes en calcul profond que les processeurs traditionnels. Et une fois que les gens l'ont compris, la quantité de puissance de calcul disponible a considérablement augmenté, permettant ainsi aux plates-formes d'intelligence artificielle en nuage d'alimenter d'innombrables applications d'intelligence artificielle aujourd'hui..

Alors merci, les joueurs. Vos parents et vos conjoints n’apprécieront peut-être pas que vous passiez autant de temps à jouer à des jeux vidéo - mais les chercheurs en IA le savent.

AlphaGo et AlphaGoZero conquièrent tous

En mars 2016, le logiciel AlphaGo de Google a réussi à battre Lee Sedol, l'un des joueurs les plus en vue du jeu de société Go, pour faire écho au match historique de Garry Kasparov..

Ce qui le rend important n’est pas seulement le fait que Go est un jeu encore plus complexe du point de vue mathématique que les échecs, mais aussi qu’il a été entraîné en utilisant une combinaison d’opposants humain et artificiel. Google a remporté quatre des cinq matches en utilisant apparemment 1920 processeurs et 280 GPU.

Peut-être encore plus significatif sont les nouvelles de l'année dernière - lorsqu'une version ultérieure du logiciel, AlphaGo Zero. Au lieu d’utiliser des données antérieures, comme AlphaGo et Deep Blue, pour apprendre le jeu, il a tout simplement joué des milliers de matchs contre lui-même. Après trois jours d’entraînement, il a pu vaincre la version d’AlphaGo, qui avait battu 100 jeux contre Lee Sedol. Qui a besoin d'apprendre à une machine à être intelligente, quand une machine peut apprendre par elle-même?

  • TechRadar Semaine de l'IA vous est présenté en association avec Honour.