kiss my frogs
Contribuer
Twitter Facebook LinkedIn RSS
[ Rechercher ]
Accueil Contribuer TwitterTwitter FacebookFacebook LinkedInLinkedIn RSSRSS

Chaque géant tech a sa conférence dev : Google I/O, Facebook F8, Apple WWDC. Depuis 2011 et tous les ans, Microsoft organise //build/, dont la dernière édition s’est tenue à Seattle à la mi-mai. Alors que depuis plusieurs années déjà, Microsoft inscrit son activité dans une vision globale de la technologie, Build 2017 en a donné une version particulièrement claire et intégrée : le défi est l’intelligence. Artificielle bien sûr, mais surtout humaine.

Mélanie et Pierre, tout juste de retour de Seattle, décryptent pour KMF la portée des annonces et démos présentées.

Imaginons un chantier dont la sécurité serait organisée de façon préventive. Les caméras ne se contentent pas d’enregistrer des heures et des heures d’images, permettant au mieux d’analyser les incidents déjà passés. En analysant l’environnement de façon intelligente, ces caméras deviennent des outils au service de la sécurité des ouvriers, que ces derniers peuvent et savent manier en fonction de leurs besoins.

Imaginons encore une application qui permettrait de créer, en un tour de main, une vidéo à l’égal d’un pro. Le montage en est entièrement automatisé : l’app récupère et détecte des vidéos et photos qui concernent un même événement, reconnaît des visages et y intègre une bande son ou encore des objets 3D.

Ces deux exemples ne sont pas des songes, mais des applications « en chair et en os » figurant parmi les nombreuses démos de Build 2017. Elles incarnent la vision de Microsoft: faire de l’IA le « collaborateur » qui amplifie notre intelligence et notre créativité, toutes deux proprement humaines.

Rien n’incarne mieux cette ambition que le projet Emma, porté par Haiyan Zhang, qui utilise l’IA pour compenser nos propres défaillances neurologiques. Suite à sa rencontre avec Emma Lawton, une graphiste de 33 ans atteinte de la maladie de Parkinson, la chercheuse, directrice de l’innovation au laboratoire de Recherche de Microsoft à Cambridge, a travaillé sur un bracelet permettant de réduire les tremblements de la main liés à la maladie. Présentée en clôture de plénière, le prototype, relié à une application mobile, utilise les vibrations pour tromper le cerveau et l’empêcher d’envoyer des signaux erronés aux muscles grâce à des capteurs intégrés et à de l’intelligence artificielle. Ce leurre a la capacité de calmer les mouvements musculaires et facilite l’écriture.

Emma Lawton et Haiyan Zhang du Projet Emma

Cet horizon ne relève ni de fantasmes, ni de la science-fiction. Pour autant, on n’y est pas encore, pas totalement du moins. Comment atteindre à un niveau d’intégration de l’IA qu’elle soit quasiment imperceptible, mobilisée aussi naturellement que le sont les outils technologiques les plus simples ?

En substance, en trois étapes : deep learning, fluidité, distribution.

Etape 1 : rendre les objets (vraiment) intelligents

Si l’on doit résumer l’IA en quelques mots, il s’agit simplement d’algorithmes qui se nourrissent de données, entraînant ainsi des modèles d’apprentissage afin qu’ils prennent des décisions de manière autonome dès qu’ils recevront de nouvelles données. C’est le domaine réservé des modèles dits entraînés, c’est-à-dire des heures et des heures d’analyse de données pour lesquelles on fournit la question et la réponse jusqu’au moment où le modèle donne la bonne réponse sur un jeu de nouvelles valeurs. Les algorithmes traditionnels ne pouvant traiter autant de données et de paramètres en entrées tout en répondant de manière variable.

L’application, présentée ci-dessous, illustre le fonctionnement d’un modèle entraîne, ce que, communément, on appelle le deep learning . Vous dessinez 1, le réseau de neurones donnera une réponse qui variera en fonction de ce qu’il aura appris. Le contexte peut ainsi changer en fonction de la langue de celui qui saisit : le chiffre 1 peut s’apparenter au chiffre 7 dans la langue anglaise par exemple. Dans ce cas, le réseau de neurones renverra une réponse différente. La clé d’entrainement de cet algorithme reste la data. Plus on lui envoie de données, plus le réseau apprend : le réseau est par définition datavore.

Made by Adam Harley, détails du projet ici.

Et ce n’est pas la data qui manque. Les données numériques, nous en produisons chaque jour un peu plus, et les champs et pratiques concernées ne cesse de s’amplifier. Si chaque nouvelle technologie repose sur des données existantes, elle en génère à son tour, engraissant une boule de données déjà opulente. Une voiture autonome génère ainsi à elle seule près de 100 gigaoctets / seconde. Selon l’IDC, l’univers numérique double tous les deux ans et sera multiplié par 10 d’ici 2020 alors même que 22% de ces datas sont aujourd’hui exploitables et 5% d’entre elles seulement analysées.

Mais si les données sont le fuel de l’IA, le moteur de sa démocratisation est un engin bicéphale.

  • d’abord, le cloud avec ses capacités à traiter toute cette data rapidement
  • ensuite, les bons algorithmes, qui permettent à l’entraînement d’aller dans la bonne direction et de s’autocorriger.

 

Lors de la keynote d’ouverture de //build/, Satya Nadella, CEO de Microsoft, a présenté la vision d’une intelligence artificielle pervasive, qui se déporte du cloud vers les objets, quels qu’ils soient : “from mobile first, cloud first to a new world made of an intelligent cloud and an intelligent edge”. Pour illustrer cette idée qui, disons-le franchement, n’est pas des plus accessibles à première vue, Satya Nadella évoque la voiture autonome. Par définition, cette dernière sait quand elle doit freiner, elle a été entraînée à cet effet : prendre la bonne décision au bon moment. Cet entrainement ne peut se faire qu’avec une puissance de calcul disponible dans le cloud. Pour autant, dans la rue, quand elle freine, elle n’a pas besoin d’être connectée au cloud – il ne faut d’ailleurs surtout pas qu’elle en soit dépendante pour agir ! Elle en a juste besoin pour apprendre à mieux freiner dans un premier temps, à l’instar d’un enfant qui a besoin de roues latérales (l’équivalent de la data) avant de se pédaler son deux-roues en toute confiance.

Ainsi, si elles ont été correctement entraînées grâce à la bonne combinaison de data, d’algos et de cloud, une voiture, une caméra ou une machine-outil peuvent désormais embarquer une intelligence dynamique de façon autonome, en appliquant des modèles d’analyse et de décision sans recourir en permanence aux données numériques.

Etape 2 : l’intégration des IA au nom de la continuité des expériences

Aussi bien entraînée et efficace soit-elle, une application concrète de l’IA sera impuissante à conquérir l’adhésion des individus si elle débouche sur une expérience quotidienne saccadée et peu intégrée avec l’environnement dans son ensemble, y compris la multitude de produits et services que nous utilisons déjà. Le lecteur ne niera pas que la réunion d’équipe est probablement l’un de ces cas où l’expérience est presque toujours frustrante.

Build 2017 a été l’occasion de présenter une application intéressante : la réunion dopée à l’AI. Le scénario, loin d’être futuriste, expliquait comment s’assurer, de manière automatisée, que chacun prenne la parole, que chaque participant ait une expérience fluide et homogène qu’il soit présent physiquement, connecté à distance ou en mobilité, que chacun reçoive un compte-rendu automatique par email avec les actions clés qu’il doit suivre. Or, pour qu’une telle réunion soit possible, il s’agit de concevoir un environnement où les IA sous toutes ses formes sont parfaitement intégrées.

Car aujourd’hui, nous sommes plutôt confrontés à des discontinuités dans nos expériences numériques, principalement en fonction du device que nous utilisons : multiplication des notifications, changements de design des applications (web, desktop, mobile), interruption de l’activité. Pourquoi dans cette démo, l’expérience est-elle fluide et homogène ?

La première raison, c’est la construction de données sous forme de Graph qui permet de rendre l’IA « transparente ». Il ne s’agit pas d’une nouvelle architecture de données, c’est en réalité le socle des réseaux sociaux. Elle a pour effet de décloisonner les données et de créer des liens entre les datas de l’utilisateur (données démographiques, centres d’intérêt…), celles de ses relations et ses activités.

Appelable au travers d’une API, Microsoft Graph organise déjà les données des applications Office autour des individus et de leurs activités. Grâce à Windows 10 Fall Creators Update, il intégrera les tous les devices utilisés, quels qu’ils soient : Windows / iOS / Android (nom de code du projet : Rome). Dans notre exemple, l’assistant personnel Cortana suit sans interruption de service l’utilisatrice de son smartphone Android vers son PC.

La fluidité des interactions vient également de l’intégration des outils entre eux. L’extension des fonctionnalités de Teams permet d’interroger un bot (dans notre exemple, celui d’Adobe) directement depuis l’espace de travail partagé.

Enfin, l’expérience collaborative dans cette réunion est nourrie par les services cognitifs utilisés pour les différentes applications, qui assurent la reconnaissance de la parole, la recherche intuitive des informations et l’indexation du contenu et des images. Disponibles sous forme d’API et basés sur des modèles déjà entrainés, ils se sont enrichis. Ils sont maintenant au nombre de 29, certains d’entre eux supportant un modèle d’entrainement personnalisable.

Etape 3 : vers des architectures distribuées

Embarquer depuis le cloud de l’intelligence dans les objets signifie qu’il va falloir les administrer, les gérer.

L’informatique est faite de cycles : pour créer des IA, on a besoin du cloud pour centraliser la très forte volumétrie des données et leur traitement. Microsoft innove aujourd’hui en proposant une architecture qui distribuera cette intelligence entrainée vers tous ces objets pour les rendre plus autonomes et plus rapides dans leur capacité de réponse. C’est ce qu’on appelle une architecture distribuée.

Ces changements ont été expliqués en plénière à travers l’exemple de Sandvick, une entreprise industrielle suédoise dans le domaine de l’outillage présente dans 130 pays.  Afin de diminuer les délais d’interruption d’une machine en cas d’identification de panne, Sandvick a choisi pour une de ses usines des architectures basées sur les conteneurs, de plus en plus répandues dans les architectures applications pour le cloud. Pour administrer ces machines, elle utilise Azure IoT Edge qui permet de déplacer des conteneurs du Cloud vers des objets sans rien changer. Ceci s’inscrit dans architecture Docker, dont l’ambition, rappelons-le est de « Build, Ship, and Run Any App, Anywhere ».

Pour aller plus loin

« Une grande responsabilité est la suite inséparable d’un grand pouvoir »

La vision de l’intelligence artificielle présentée à //build/ ouvre des contrées inexplorées pour les développeurs. Si les promesses sont énormes, les responsabilités le sont tout autant. Satya Nadella l’a rappelé avec insistance : « With enormous opportunity comes enormous responsibility. The choices that we, developers, will make, will have profound consequences ». Le souci de la responsabilité éthique de l’entreprise est profondément ancré dans la stratégie de Microsoft, et déclinée avec soin à tous les niveaux à partir de ces trois principes :

  • empower people
  • inclusive design
  • build trust in technology

 

Mais c’est toute la communauté numérique, et celle des développeurs en particulier, qui doit se préoccuper constamment de l’impact que les choix technologiques auront sur la société en son ensemble : « I do believe that it is up to us to ensure that some or the more dystopian scenarios do not come true”.

Les commentaires sont fermés pour cet article