Plus d’un an après la publication du rapport Villani, la stratégie du gouvernement en matière d’intelligence artificielle commence à se concrétiser. Mais toutes les pistes n’ont pas encore été explorées. Dans certains domaines, les actions concrètes manquent.
Bien que la France n’ait pas la maitrise de toutes les données produites sur son territoire, elle en possède tout de même une quantité importante, notamment dans le domaine de la santé. Impulsé par le rapport Villani, le « Health Data Hub » vise à centraliser ces données sur une plateforme unique. Il a été officiellement lancé ce 1er décembre 2019 (même s’il n’est pas encore homologué).
Pour le moment, les premiers projets à bénéficier de l’accès à ces données ont été retenus. On peut citer un algorithme de prédiction des infarctus basé sur un croisement de données, un logiciel visant à améliorer la prise en charge du Sarcome ou encore une application consacrée à la gestion de la surveillance sanitaire. Quant aux projets publics, ils n’ont pas encore été révélés.
Le budget alloué à ce Data Hub est de 40 millions d’euros par an, et « tous les six mois, de trois à cinq projets seront accompagnés par une équipe dédiée », peut-on lire dans le rapport de la mission de préfiguration.
Mais le projet n’est pas encore totalement en place qu’il est déjà remis en question : les pouvoirs publics ont fait le choix d’héberger les masses de données sur le cloud public de Microsoft. Au-delà du coût, c’est la sécurité même des données qui est questionnée. Sans compter que la CNIL a émit des réserves concernant le chiffrement du Système national des données de santé (SNDS), mettant en cause sa capacité à sécuriser son contenu.
Cette situation est susceptible d’être résolue, puisque la France travaille actuellement avec l’Allemagne à la mise au point d’une infrastructure de stockage européenne et sécurisée. La présentation du projet retenu devrait avoir lieu au printemps 2020.
Quatre secteurs prioritaires
En mars 2018, Cédric Villani présente son rapport « Donner un sens à l’intelligence artificielle – pour une stratégie nationale et européenne ». Le dossier apporte son lot de recommandations pour le développement à venir des IA en France, tant dans leurs applications que dans l’encadrement éthique et légal.
Quatre secteurs d’applications sont désignés par le rapport comme prioritaires : la santé, l’environnement, les transports et mobilités, ainsi que la défense et sécurité. Il est alors préconisé de mutualiser au maximum les infrastructures et ressources via des plateformes propres à chaque milieu.
Au-delà des secteurs mis en avant, le groupe de travail aborde également des questions autour de l’intelligence artificielle même. Sa place dans notre société et le cadre dans laquelle l’inscrire pour en garder la maitrise. Retour sur les axes majeurs du rapport et les réponses apportées à ce jour.
Rapatrier les données
Les premières pages du rapport insistent sur l’importance de reprendre possession des données produites en France par les particuliers. Sur ce point, force est de constater que la situation n’a pas évolué dans l’hexagone : les données des utilisateurs sont toujours très largement captées par les firmes américaines, « Gafam » en tête (Google, Amazon, Facebook, Apple et Microsoft). Toutes défendent férocement la possession exclusive de ces contenus, qui constituent l’une de leurs principales sources de revenus.
Une entente cordiale sur la maitrise des données ne semble pas à l’ordre du jour. Le rapport qu’entretient le gouvernement avec les géants du web s’est dégradé. Depuis la mise en place d’une « taxe gafa » défendue par le Ministre de l’économie Bruno Le Maire, la France se trouve dans un rapport de force avec les États-Unis (l’administration Trump menace de taxer des produits français en représailles).
Le conflit pourrait toutefois trouver une issue favorable si les négociations au sein de l’OCDE aboutissent à une réforme internationale de la fiscalité des entreprises du numérique. Le moment serait opportun pour aborder la question de la souveraineté des nations sur les données produites sur leur territoire.
Favoriser l’interdisciplinaire
Pour la recherche, le rapport proposait une solution déjà prête au déploiement. Le dossier propose de créer des Instituts Interdisciplinaires d’Intelligence Artificielle (3IA) ayant pour vocation de rassembler chercheurs, ingénieurs et étudiants autour de thématiques propres à chaque institut. Par ailleurs, il était recommandé de passer des contrats avec des partenaires privés.
Les 3IA sont également chargés de la formation dans l’intelligence artificielle. Estimé entre 3000 et 5000, le nombre d’étudiants doit doubler selon les recommandations du rapport.
À l’automne 2018, quatre projets ont été retenus : ceux de Grenoble, Nice, Paris et Toulouse. C’est en avril dernier qu’ils ont été officiellement lancés. Ils se partagent une enveloppe publique de 75 millions d’euros. À l’origine, le gouvernement avait pourtant avancé la somme de 100 millions.
D’autre part, l’acquisition d’un supercalculateur sous l’impulsion du CNRS en ce début d’année doit permettre de nouvelles recherches. C’était également l’une des propositions formulées dans le rapport. Baptisée Jean Zay, la machine superpuissante est désormais accessible à tous sur présentation de projet.
L’artificiel s’inspire du naturel
En cette période de transition énergétique, ne pas aborder la question environnementale eut été surprenant. Pour rendre les IAs plus vertes, le rapport mentionne le potentiel de la neuromorphique (des technologies qui imitent nos neurones dans leur construction). Un domaine dans lequel la France est pionnière.
Une solution qui devrait permettre « des économies d’énergie considérables » selon le rapport, grâce à leur fonctionnement moins énergivore que les composants classiques d’ordinateurs.
En revanche, il faut souligner qu’aucune proposition concrète n’a été formulée. Le stockage des données reste une importante source d’émissions nocives pour l’environnement, par exemple. Il y a également le problème des batteries des voitures autonomes qui réclament toujours plus de métaux rares et dont on ne maitrise pas encore le recyclage. Sur ces points, les pouvoirs publics ne semblent pas avoir établi de stratégie claire.
Cadrer les voitures autonomes
Les voitures autonomes avaient aussi droit à leurs recommandations dans le rapport Villani. Pour le moment, difficile de constater les avancées du côté du gouvernement. En effet le rapport prônait l’évolution du cadre légal d’ici 2022 avant d’homologuer les premiers modèles.
Cette année est annoncée comme charnière par les constructeurs les plus optimistes, même si les estimations commencent à être revues à la baisse et que cette date était déjà bien trop avancée pour le milieu de la recherche. Quoi qu’il en soit, il reste encore à répondre à certaines questions comme celle des personnes à préserver en priorité en cas d’accident, par exemple.
Comité d’éthique dédié
La création d’un comité d’éthique en intelligence artificielle répond à la recommandation du rapport. La première réunion, présidée par Claude Kirchner, directeur de recherche à l’Institut national de recherche dédié aux sciences du numérique (Inria), a eu lieu début décembre. Pour le moment, trois sujets sont au centre des discussions.
Tout d’abord, l’encadrement des agents conversationnels (ou chatbots) qui tendent à rendre de plus en plus compliquée leur identification en tant que robots pour l’utilisateur. Ensuite, les questions entourant les voitures autonomes, plus particulièrement celle de la responsabilité en cas d’accident. Enfin, la transparence des diagnostiques médicaux et l’utilisation de ces données est à l’ordre du jour.
En 2021, un bilan sera rendu au Comité consultatif national d’éthique (CCNE) dont il dépend. Ce dernier devra estimer si le comité IA doit être pérennisé ou si ce n’est pas nécessaire.
Synergie unilatérale
Les auteurs du rapport mettaient aussi l’accent sur le besoin de créer des synergies entre l’innovation civile et militaire. À cette fin, un « Innovation Défense Lab » a été inauguré courant 2019 avec pour objectif d’accompagner les différents projets en la matière.
Lorsqu’on se penche sur les thématiques mises en avant par le site du Lab, les bénéfices côté militaire semble évident : véhicules tout-terrain autonomes, capteurs, détection de comportements anormaux, etc. En revanche les retombées pour la société civile ne sont pas mises en avant, et les apports pour cette dernière ne semblent pas évidents.
Dans ce domaine, comme pour l’environnement et les mobilités, les actions entreprises par l’exécutif à l’heure actuelle peinent à répondre pleinement aux problématiques posées par le rapport Villani. À l’inverse, des champs comme la recherche et l’éthique bénéficient de mesures clairement formulées.
En affichant l’ambition de s’emparer pleinement du sujet de l’IA, le gouvernement risque de s’éparpiller et de traiter inégalement des secteurs pourtant désignés par le rapport comme prioritaires. Un équilibre reste donc à trouver entre un cadre assez souple et des innovations régulées.
_________________________________________________
Illustration : © École polytechnique – J.Barande