S'abonner
Services

Deep Learning : entre science et fiction

Publié le 6 mai 2015

Par Gredy Raffin
6 min de lecture
Au mois de mars, pas moins de 4 000 experts se sont réunis à San Jose, au cœur de la Silicon Valley, pour parler du futur technologique. Au centre du débat s’est donc naturellement placé le “Deep Learning”, soit certainement la plus grosse révolution depuis le Cloud.
Preuve à l’appui, Andrew NG, directeur scientifique de Baidu Research, se félicite de dominer le secteur de la reconnaissance vocale devant les cadors que sont Google, Apple et Microsoft.

Derrière la débauche de technologies présentées au Consumer Electronic Show de Las Vegas en janvier dernier, il y avait un élément structurant. Quelle que fût l’industrie, si tant est qu’elle ait des aspirations à s’afficher à la pointe, il y avait un tronc commun. Une nouvelle branche de la recherche. En terre anglophone, les ingénieurs parlent de “Deep Learning”. Un terme qui désigne, s’il faut le traduire, l’intelligence artificielle. Mais pas n’importe laquelle, celle qui fait de la machine un outil capable d’apprendre. Plus encore, à intégrer des données pour parvenir à des déductions.

Mise sur le papier, l’équation est complexe. Et pour cause, elle aspire à faire de notre ordinateur un objet plus proche du cerveau humain qu’aucune chose ne l’a jamais été. “Nous essayons de reproduire le fonctionnement des neurones, et donc le cheminement de l’information”, disaient les experts qui défilaient en mars dernier sur scène, lors de la conférence annuelle de Nvidia organisée près de son siège, à San Jose, en Californie.

Les images et les sons doivent être compris par des algorithmes pour être identifiés selon une classification. Imaginez un instant : vous montrez une photo à une caméra et instantanément, l’ordinateur vous décrit le contenu, par exemple qu’il s’agit d’un oiseau dans un arbre avec une brindille dans le bec. Cette prouesse technologique n’est possible qu’à la force de l’apprentissage continu, le “Deep Learning”.

Clarifions les choses : si une partie non négligeable du chemin a été accomplie, il reste encore des chantiers ouverts. “Les produits annoncés par Nvidia vont participer de l’effort de R&D”, se félicitent des entreprises de renom comme Google et son concurrent chinois Baidu Research, Tesla Motors ou des Français comme Dassault.

Travail de classification

“Il n’y a pas une industrie qui échappera à l’apport du Deep Learning”, promet Andrew Ng, le directeur scientifique de Baidu Research, l’une des entreprises civiles les plus en avance sur le sujet. L’automobile compte parmi les premiers débouchés possibles. Et pour cause, déjà auréolée du titre d’objet le plus complexe, la voiture confirmera son statut avec l’introduction de l’automatisation de la conduite. On estime, en effet, qu’il faudra bientôt 100 millions de lignes de code pour régir le fonctionnement d’un véhicule – et de ses quelque 70 modules indépendants – quand une navette spatiale n’en requiert que 500 000 et un Boeing 777 pas plus de 4 millions.

La voiture autonome sera indissociable de la technologie du “Deep Learning”. La raison se veut simple : ce sera l’intelligence en charge des capteurs, que l’on parle des caméras, des sondes ou des radars. Cette technologie doit conduire les véhicules à “comprendre” leur environnement en temps réel, tout comme le fait le cerveau d’un automobiliste, avec ce que lui rapportent ses sens.

Chez Nvidia, l’avance a donc été prise sur cette évolution logique. En janvier dernier, toujours au CES de Las Vegas, le fabricant faisait en effet sensation avec le Drive PX, qu’il entend vendre comme le futur ordinateur de la voiture à conduite automatisée. Un lever de voile qui s’est alors accompagné d’une démonstration de l’œuvre de classification qui a été réalisée en complément. Explication : Nvidia détient peut-être à ce jour la base la plus complète en termes de référencement des véhicules dans leur environnement naturel, c’est-à-dire sur la route. Pour y parvenir, il faut parcourir des millions de kilomètres dans la circulation, capter les images, engranger de la donnée et enseigner au serveur central ce qui est un véhicule léger (et son segment), ce qui est un utilitaire, ce qui est un poids lourd, ce qui est un véhicule de transport public ou d’intervention (et son statut)… Chez Google, il y a une anecdote à ce sujet. On raconte qu’un jour une Google Car s’est vu couper la route par une dame âgée, en fauteuil roulant, qui poursuivait un canard. “Une situation cocasse qu’il faut vivre pour inculquer les bons réflexes au système d’automatisation de la conduite”, diront les ingénieurs en charge du développement.

On se trouve là clairement dans la problématique de reconnaissance des images. Le taux d’erreur doit être amenuisé au maximum pour s’assurer que le véhicule adoptera le comportement approprié. Jen-Hsun Huang, le cofondateur de Nvidia, lors de son intervention en ouverture de la conférence annuelle de son entreprise en mars dernier, exposait une représentation du monde virtuel que se crée une voiture et notamment la façon dont elle calcule l’espace libre sur sa voie de circulation, en fonction des autres usagers. On va jusqu’à prévoir une échappatoire en cas d’ouverture subite de portière d’un véhicule stationné sur le côté. Impressionnant. Cette technologie a déjà fait ses preuves. Elle s’est embarquée sur la fameuse Audi A7 qui a relié la Silicon Valley à Las Vegas cet hiver.

Auto-calibration

Le Deep Learning devrait par ailleurs trouver des débouchés dans les habitacles. Google et Baidu, à mots feutrés, se préparent à la course aux signatures. En matière de recherche sur la synthèse vocale, les deux géants de l’Internet ont une longueur d’avance sur la concurrence qui, dans l’ordre des performances, s’appelle Facebook, Microsoft et Apple (on pourrait citer Nuance également). Eux seuls parviennent à descendre en deçà des 15 % de taux d’erreur aux tests récents.

Comme avec les images, la donnée brute suit un cheminement identique pour être interprétée. “Nous allons changer radicalement la manière d’interagir avec un véhicule, assène-t-on chez Baidu Research. Les constructeurs pourront imaginer de nouveaux usages et simplifier les existants”, car il ne sera plus question de phrase prédéfinie à connaître par cœur, mais de commande des plus naturelles, qui s’adaptera à chacun. Une tendance confirmée par les ingénieurs de BMW installés dans la Silicon Valley. Mais les applications se font encore attendre, d’autant qu’elles pourraient concerner à juste titre les éclairages, la gestion de l’air ambiant ou encore de l’énergie. Certains vont même jusqu’à expliquer que, bientôt, les capteurs seront auto-calibrant, ce qui économiserait des coûts sur les chaînes de production.

-----------
FOCUS - Marketing à vue

Au-delà de son mode de consommation, la promotion du produit automobile pourrait changer avec l’intelligence artificielle. Les moteurs de recherche comme Google veulent en effet que, d’ici peu de temps, il soit possible de lancer une requête dans un moteur de recherche à partir d’un visuel. Concrètement, un individu pourrait alors prendre en photo un véhicule et obtenir de fait la page Web ou tout le contenu relatif à ce produit.

---------
FOCUS - Reconnaissance gestuelle

Nvidia a présenté les avancées de ses travaux dans le domaine de la détection de mouvement. D’une caméra simple, les ingénieurs du programme Gesture UI2 sont arrivés à un système employant une association de caméra 3D, de caméra couleur et d’un radar pour détecter les mouvements. Une solution qui réduit le taux d’erreur, notamment en cas de fort ensoleillement de l’habitacle de la voiture.
 

Vous devez activer le javacript et la gestion des cookies pour bénéficier de toutes les fonctionnalités.
Partager :

Sur le même sujet

Laisser un commentaire

cross-circle