kiss my frogs
Contribuer
Twitter Facebook LinkedIn RSS
[ Rechercher ]
Accueil Contribuer TwitterTwitter FacebookFacebook LinkedInLinkedIn RSSRSS

IA longtemps cantonnée aux labos obscurs et à l’imaginaire SF, l’Intelligence Artificielle est aujourd’hui au centre de tous les regards. Qu’on soit expert ou non, le sujet titille. Pourquoi ce surgissement soudain alors que ce champ de recherche est apparu bien en amont de l’Internet ? Pierre-Louis Xech revient sur la genèse de l’objet technologique et social “Intelligence Artificielle” et ce qu’on peut en attendre dans le futur proche.

IA, Un surgissement quasi-imprévisible

IA et cyclogenèse, Background image: NASA this version: Nilfanion [Public domain], via Wikimedia Commons

Après un long voyage à travers l’Atlantique, certaines dépressions tropicales nées au large des côtes d’Afrique occidentale se transforment en cyclones à l’approche des Caraïbes et des Côtes américaines. Certaines, mais pas toutes. Même phénomène en Méditerranée à la fin de l’automne : les dépressions nées entre la Corse et la Sardaigne ou au sud des Baléares apportent des pluies battantes lorsqu’elles atteignent les côtes sud de la France. Certaines sont plus violentes que d’autres, on parle d’« épisodes cévenols » ou « méditerranéens ». Ce sont des phénomènes qui ne peuvent être prédits qu’au moment de leur quasi-occurrence, car ils sont fonction d’une combinaison de paramètres complexes et difficiles à démêler les uns des autres. On parle alors de « cyclogenèse explosive »

Il en va de l’Intelligence Artificielle (IA) comme d’une cyclogenèse : sa résurgence dans les débats tech et au-delà a été furtive et soudaine. Il ne passe un jour sans qu’un article n’aborde le sujet de l’IA, sa conception, son impact sur le travail et nos vies, les questions éthiques majeures qu’elle soulève déjà. Pourtant, cet emballement pour l’IA et son avatar grand public – les chatbots – date… du printemps 2016. La séquence de médiatisation éclair a été déclenchée par AlphaGo, suivie de la polémique Tay. Dans une industrie qui s’interroge plus volontiers sur son futur que son passé, comment expliquer les surprises de cette nature ? Mode éphémère ou réel changement de paradigme de l’industrie informatique ? Quelle en est la cyclogenèse ?

The long nose of innovation : des cycles de 20 ans

En 2008, Bill Buxton propose dans un article publié par Bloomberg une théorie de l’innovation qu’il intitule « The long nose of innovation », en référence explicite au modèle de « la longue traîne » énoncé en 2004 dans Wired par Chris Anderson. Bill Buxton y évoque “une image symétrique à celle de la longue traîne, tout aussi importante pour comprendre le processus d’innovation”. D’après son cadre conceptuel, une technologie donnée se déploie sur un cycle de 20 ans, depuis son invention jusqu’à sa généralisation : “toute technologie qui va avoir un impact dans les dix années à venir date d’au moins dix ans. Toute technologie qui va avoir un impact significatif dans les 5 années à venir est âgée d’au moins 15 ans, et se trouve probablement encore sous le radar”, c’est-à-dire en deçà du seuil où elle commence à se diffuser dans un cercle plus large que celui des initiés. Et de nous mettre en garde : “ne croyez pas ceux qui vous expliquent qu’une “nouvelle” idée va “décoller” dans les cinq prochaines années, à moins qu’ils puissent démontrer que son historique s’étend sur au moins 15 années”.


Skype’s Videophone and the Long Nose of Innovation par FORAtv

Retracer un tel historique n’est pas toujours chose aisée, tant l’incarnation produit d’une technologie donnée peut se métamorphoser au fil du temps, jusqu’au point d’être non reconnaissable pour un non averti. Par exemple, quel est le point commun entre une souris et un Iphone ? Bill Buxton explique que l’aboutissement du long nez de la gestation de la technologie contenue dans la souris informatique est l’Iphone, mis sur le marché en 2008. La conquête du marché doit tout au génie industriel et marketing d’Apple, mais aussi à l’arrivée à maturité industrielle (production de masse, bas prix) des écrans tactiles capacitifs. Jusque là, on ne savait produire en masse que des écrans tactiles résistifs, fragiles, en interaction « single point », nécessitant un stylet. Avec l’Iphone, l’écran capacitif, multipoint, l’interaction tactile « naturelle », s’imposent à très grande échelle. Un bel exemple de cyclogenèse des interactions « multi-touch ». Qui se souvient encore du Palm Pilot ou du Newton ?

Le rôle des choix industriels dans le surgissement d’une techno

La théorie de l’innovation de Bill Buxton met l’accent sur l’importance de ce moment de « surgissement » lorsqu’une innovation qui mijote depuis des années dans les laboratoires de recherche se transforme en marché chiffré en milliards. Parce que ce tipping point survient dans la dernière partie du cycle de 20 ans, on comprend pourquoi les informaticiens engagés de plain pied dans la R&D depuis des années sont les premiers surpris quand une technologie ou domaine de recherche qui fait leur quotidien devient mainstream. Car les facteurs sont souvent exogènes à la recherche stricto sensu et touche à l’innovation d’usage, si importante aux Etats-Unis et par trop méprisée en France. Les choix de quelques acteurs industriels de référence sont en ce sens décisifs : Apple pour les touchscreens, Google et Microsoft ainsi que Facebook pour les différents champs de ce que l’on nomme Intelligence Artificielle aujourd’hui.

De l’importance de la reconnaissance vocale

Si l’on applique cette théorie à l’IA, quel est le facteur ayant poussé les majors du numérique à parier leur avenir sur l’Intelligence Artificielle ? Quelle est la technologie sous-jacente qui mature depuis une vingtaine d’années ?

Il s’agit d’une technologie qui a trait à un champ intrinsèque de l’intelligence humaine : la reconnaissance vocale, à savoir la capacité d’une technologie à retranscrire et interpréter le langage. Dans les années 90, les recherches académique et industrielle sur algorithmes de transcription du langage naturel (transcription, speech to text) ont très vite progressé, jusqu’à atteindre un plateau. Le « word error rate», mesure de la performance de cette technologie, a stagné à 25%, taux bien supérieur à celui d transcripteur humain (6%). C’est seulement en 2009, avec l’arrivée du deep learning qui a « disrupté » la linguistique computationnelle (comme beaucoup d’autres domaines en même temps) que le taux d’erreur chute à à 7% entre 2009 et 2012. En octobre 2016, une équipe de Microsoft Research annonce que leur système de reconnaissance vocale atteint la parité avec la performance humaine avec  un taux d’erreur de 2,9%. Dans ce cas précis, on peut réellement parler d’intelligence artificielle !

Le perfectionnement de la reconnaissance vocale, si elle a de nombreuses applications plus ou moins connues du grand public, s’incarne sur le marché B2B et B2C sous la forme d’assistants personnels. Apple, Microsoft, Google ont rapidement adopté ces nouvelles techniques avec Siri, Cortana et Google Now, intégrés désormais dans tous les appareils et soft qu’ils produisent. Du côté de Microsoft, il présentait en 2012 une spectaculaire expérimentation de traduction simultanée Chinois/Anglais. En 2015 la traduction simultanée (Microsoft Translator) était intégrée dans Skype. Enfin, dernièrement, il a été annoncé que le moteur de traduction de Microsoft Translator se ferait selon le protocole de deep learning (jusque-là seule la transcription audio/texte était basée sur du deep learning), ouvrant une nouvelle perspective de progrès rapide dans la qualité de la traduction, qui n’est quant à elle pas encore à parité avec la performance d’un traducteur humain.

Des références ? En voilà quelques unes

La puissance de calcul dans le cloud, une dernière étape ?

C’est en partie grâce à l’intégration de technologies de perception (auditive et visuelle, notamment) dont la performance est aujourd’hui comparable à celle de l’intelligence humaine que l’intelligence artificielle a dépassé le tipping point décrit par Buxton. Mais les prouesses technologiques stricto sensu ne seraient rien sans leur intégration par les géants de la tech dans leurs produits et services : c’est parce que ces derniers étaient convaincus que l’AI a précipité un changement de paradigme que ce dernier a pu avoir lieu ! Un bel exemple de prophétie auto-réalisatrice.

Il ne manque  à ce cocktail qu’un seul facteur pour que l’IA passe dans la dernière phase du modèle du “long nose”, et pas des moindres : une hausse significative de la puissance de calcul disponible dans le cloud. Si l’arrivée du deep learning a été permise par les progrès dans les architectures de calcul (clusters de GPU), la généralisation de l’AI requiert une quantité virtuellement infinie de puissance de calcul dans le cloud. Grâce à cette puissance de calcul, ainsi qu’aux nouvelles architectures comme celles annoncées par Google (Tensor Processing Unit) ou Microsoft (Project Catapult) que se généraliseront les modèles économiques « AI as a service », conditions de la tant attendue démocratisation des technologies de l’AI. Et si l’on en croit Buxton, l’attente ne devrait pas dépasser cinq ans.

Summary
IA, Intélligence artificielle, la cyclogenèse
Article Name
IA, Intélligence artificielle, la cyclogenèse
Description
IA, “Intelligence Artificielle” retour sur la genèse de l’objet technologique et social et ce qu’on peut en attendre dans le futur
Author
Publisher Name
Kiss My Frogs
Publisher Logo
Publié le 5 février 2017 -

Les commentaires sont fermés pour cet article