Tout le dossier Tout le dossier
-
Données personnelles
L’affaire FBI vs Apple close mais pas réglée
-
Cybersécurité
Apple et le FBI ou l’impossible (mais indispensable) éthique du chiffrement
-
Les experts du numérique
Apple vs FBI : et si cela se passait en France...
-
Juridique
Le FBI a peut-être une solution pour hacker un iPhone… sans l’aide d’Apple
-
Cybersécurité
Sécurité des données : Le FBI se bat contre Apple... mais aussi Google, Microsoft, Facebook, l'ONU et tous les autres
-
Cybersécurité
L'avenir de nos données se joue dans le conflit qui oppose Apple au FBI
-
Les experts du numérique
Chiffrement des données : et si le conflit qui oppose Apple au FBI se passait en France ?
-
Le numérique en questions
L'affaire Apple vs FBI, c'est un peu celle d'un psychiatre face à un serial killer selon le PDG d'Inria
L'affaire Apple vs FBI, c'est un peu celle d'un psychiatre face à un serial killer selon le PDG d'Inria
Apple vs FBI, éthique de la data, enjeux du laboratoire d’Intelligence artificielle de Facebook en France, cryptographie post-quantique, priorités du CNNum, valorisation...
Antoine Petit, le PDG d’Inria, aborde avec nous tous les sujets chauds du numérique.
L'Usine Digitale : Quelle est votre position sur le bras de fer qui oppose Apple au FBI ?
Antoine Petit : On ne peut pas apporter une réponse binaire. Pour moi, c’est un peu la même chose que si vous allez voir votre psychiatre, tenu par le secret professionnel. S’il se rend compte que vous être un serial killer, le secret professionnel tombe. C’est une question de limite. Mais il est très compliqué de la définir. Si les constructeurs informatiques se mettent à fournir les données de n’importe quel ordinateur que l’autorité policière aura saisi, on comprend bien que c’est la porte ouverte à tous les abus. À l’inverse, si vous savez qu’en ouvrant un ordinateur on peut mettre fin à Daesh... la seule solution est d’avoir une décision de justice, qui soit argumentée et contre laquelle on puisse plaider.
Mais en creux, l’affaire ne pose-t-elle pas la question du contrôle sur l’utilisation des technologies de chiffrement ?
Un gouvernement n’empêchera jamais un chercheur brillant de proposer en open source un logiciel de cryptage. Il n’est donc pas possible de contrôler ces technologies. Ou alors, on est dans un état policier et l’on empêche les gens d’avoir un certain nombre d’activités. On n'a pas le droit de construire une arme atomique. Mais il est plus difficile d'interdire du développement logiciel. En fait, c’est un problème éthique. Mais encore une fois, il n’y a pas de réponse simple "oui/non" dans l’affaire Apple-FBI.
L’Inria se pose-t-il ces questions éthiques ?
Nous avons un comité d’éthique, qui vérifie que les chercheurs ne veulent pas faire des choses qui soient contraires à la Loi. Par exemple, étudier votre comportement devant un ordinateur est intéressant. Si c’est fait avec votre consentement, pourquoi pas. Si on vous espionne, c’est une catastrophe. Autre exemple : de nombreuses publications sortent sur les mooc et ce qu’une société comme Coursera peut en tirer. Si, lors de la correction des copies le professeur peut regarder comment vous avez répondu à l’examen, hésité, corrigé choisi l’ordre des questions… vous n’avez pas forcément envie que cela entre en compte dans l’évaluation.
Mais, massivement, ces informations peuvent être riches d’enseignement, pour adapter les cursus par exemple ?
Cela pose la question de savoir ce qui relève des données personnelles et de ce qui relève des données collectives. Et, si l’on y réfléchit bien, le mot de "désanonymisation" est en lui-même un gag, car cela signifie qu’au départ ce n’est pas anonyme. Et un des dangers avec les données est que si on les recoupe, on peut en déduire des choses que vous n’avez pas envie de dévoiler. Sur ces questions l’Inria travaille notamment sur le droit à l’oubli et l’idée de délais d’effacement et d’obsolescence des données.
Vous êtes un nouveau membre du CNNum. Allez-vous y travailler sur ces sujets d’éthique ou de sécurité ?
Nous nous sommes réunis la première fois le 25 février pour faire connaissance et réaliser un premier tour de table des sujets. Il y en a beaucoup. Et rien n’est décidé. Mais le CNNum travaille sur l’enseignement du numérique. Et souhaite se positionner sur le sujet des PME.
Comment réagissez-vous quand Facebook vient ouvrir un laboratoire d’intelligence artificielle en France ?
On est ravi. D’abord parce que l’on est content de travailler avec les très bons de Facebook et d’avoir accès à des jeux de données sur lesquels tester nos algorithmes. Le choix de Facebook est aussi un signe de reconnaissance de notre excellence. On est ravis aussi parce qu’ils sont malins. Ils pourraient faire des offres que nos chercheurs ne pourraient pas refuser. Et ils pourraient nous prendre tous nos meilleurs dans le domaine. Mais, ils savent très bien que s’ils faisaient cela, ils couperaient la branche sur laquelle ils sont assis. Car ce sont les chercheurs d’aujourd’hui qui forment les chercheurs de demain.
Si vous enlevez tous les très bons du milieu universitaire, les étudiants ne viendront plus dans ce domaine-là. A moyen terme Facebook serait perdant, parce qu’il ne pourra pas recruter les talents dont il a besoin. Pour autant, nous réfléchissons à comment l’on peut coopérer avec eux, y compris au niveau individuel. Par exemple, Yann Le Cun, directeur du laboratoire IA de Facebook, est aussi à temps partiel à la New York University. Il faut qu’on arrive à créer ces doubles positions public-privé. Cela ne peut qu’accroître les synergies.
En parlant de synergie, qu’est devenue l’initiative d’ouvrir vos laboratoires aux PME ?
Pour mémoire, nous avons plusieurs manières de coopérer avec les entreprises. La première, c’est le transfert de compétences, avec nos chercheurs qui rejoignent le monde de l’entreprise. La deuxième, c’est la dizaine de laboratoires communs avec de grands groupes : Microsoft, Alcatel-Nokia, Total, EDF, Orange, Alstom, Airbus Group… La troisième, c’est la création de start-up, 120 en 30 ans, qui ont créé 3 000 emplois. Et la quatrième, ce sont les Inria innovation lab pour travailler avec les PME avec des délais beaucoup plus courts qu’avec les grands. On a une dizaine de ces labos aujourd’hui. Et on est en train d’en créer un nouveau à Bordeaux avec Safety Line sur le thème de la réduction de la consommation de carburant des avions.
De manière complémentaire nous avons lancé courant 2015 sur Lille, avec le support d’Euratechnologie, Inria Tech. Le nom est inspiré de CEA Tech, mais l'objet est différent. Là, une dizaine d’ingénieurs – et non des chercheurs — vont apporter un premier niveau de réponse à un besoin d’industriel. Les débuts sont encourageants.
Le temps de la recherche est un temps long, mais le numérique va très vite. Comment conciliez-vous ces différentes vitesses ?
C’est un peu une légende de penser que le temps du numérique est très rapide. Il y a douze ans j’étais responsable du secteur informatique au ministère de la Recherche, et il y avait, avant l’ANR, le Fonds national pour la science. En 2003 on avait créé trois nouvelles actions : sécurité informatique, masse de données et nouvelles interfaces des mathématiques. Ces sujets, sont ceux d’aujourd’hui. Il ne faut pas croire que dans les 6 mois va sortir un nouveau sujet extraordinaire, qui va mettre nos chercheurs au chômage. Ce sont eux qui savent les sujets de demain. Le temps n’est pas si court. Ce qui peut être court, c’est la mise sur le marché.
Justement, quels sont aujourd’hui les grands axes de recherche pour Inria ?
Nos 160 équipes travaillent à tout ce qui touche à la modélisation et à la simulation et à tout ce qui a trait au big data, avec la recherche de nouveaux algorithmes pour le traitement de ces données, leur visualisation, leur codage, leur transport. Les autres grands axes sont la robotique, l’internet des objets et la cybersécurité. Encore une fois, il ne s’agit pas des choses nouvelles mais des sujets qui deviennent à la mode.
Par exemple, derrière la blockchain il y a de la crypto et il faut comprendre quels sont les verrous scientifiques. On a aussi plusieurs équipes qui travaillent sur l’algorithmie et la crypto post-quantique. Car si les fameux https sont considérés inviolables, le jour où vous avez un ordinateur quantique vous pouvez casser ce protocole… et toutes les transactions bancaires ! On ne sait pas si un tel ordinateur existera vraiment. Mais on ne peut pas attendre qu’il existe pour se poser la question.
SUR LE MÊME SUJET
L'affaire Apple vs FBI, c'est un peu celle d'un psychiatre face à un serial killer selon le PDG d'Inria
Tous les champs sont obligatoires
0Commentaire
RéagirPARCOURIR LE DOSSIER