Souveraineté Numérique - Interview de novembre : Aurélie Jean


Souveraineté Numérique - Interview de novembre : Aurélie Jean

Article
Accueil Effisyn S.D.S
 
| Effisyn S.D.S | Intelligence Artificielle | Scientifique  Vu 26835 fois
Article N°25738

Souveraineté Numérique - Interview de novembre : Aurélie Jean

Je vous propose de découvrir la dernière interview réalisée par mes soins pour Effisyn-sds sur les acteurs du numérique français.  Il s'agit pour vous de découvrir cette jeune femme passionnée qui maîtrise sur le bout des doigts le sujet des algorithmes et de l'intelligence artificielle. Elle cherche à démocratiser ce sujet, et je vous resommande notamment la lecture de son ouvrage "De l'autre côté de la machine - Voyage d'une scientifique au pays des algorithmes". J'espère que vous aurez plaisir à lire cet article


Interview d’Aurélie Jean spécialiste des algorithmes, chercheuse, entrepreneuse (DPEEX, ISV) et auteur à succès d’ouvrages destiné à vulgariser ces sujets qui ont un impact si important sur nos vies. Au cours de cette interview, nous aborderons des sujets variés, des algorithmes en passant par l’Intelligence Artificielle (IA) et sans oublier la souveraineté numérique
 

[Emmanuel M] : Bonjour Aurélie, tout d’abord merci d’avoir accepté cet échange. Pourrais-tu nous brosser en quelques mots, ton parcours et ce qui t’anime ?

A la suite d’études en mathématique, physique et mécanique (avec une mineure en sciences informatiques), je réalise un doctorat en mécanique numérique des matériaux et morphologie mathématique. Puis j’ai appliqué la science numérique (computational science en anglais) à la médecine pendant 7 ans (Université d’État de Pennsylvanie, MIT) puis à la finance pendant 2 ans (Bloomberg). Depuis 2018 je partage mon temps entre le conseil et le développement (In Silico Veritas), la recherche qui a donné naissance à ma seconde boite DPEEX en médecine, l’enseignement continu, et l’écriture (entre autres ma chronique dans Le Point et mes livres).
 Ce qui m’anime au quotidien est d’être dans la capacité, grâce à la modélisation et à la simulation algorithmique, de résoudre des problèmes concrets et complexes, de grande ampleur. Je contribue comme de nombreux scientifiques et ingénieurs à comprendre notre monde et à le rendre meilleur en s’attaquant à des problèmes à fort impact, comme celui que j’ai taclé et qui a donné DPEEX, la détection au stade pré-diagnostic du cancer du sein.
 

[EM] : Tu expliques que les biais lors de la création des algorithmes sont plus ou moins inévitable. Pourrais-tu nous redonner succinctement, quels sont les principaux outils pour les éviter ?

On ne peut jamais statuer que notre technologie ne contient aucun biais algorithmique, comme on ne peut jamais dire que notre code ne contient aucun bug. Cela étant dit, on peut affirmer qu’on a conçu un algorithme selon des bonnes pratiques afin de minimiser le risque. Cela inclut des discussions avec le métier, des tests en cours de développement, des tests pendant le déploiement puis une fois en production (quand l’algorithme est utilisé parfois par des millions d’individus). Il y a également des méthodes de calcul à appliquer sur l’algorithme une fois entrainé ou calibré, qui consistent à extraire une partie de sa logique. On parle de calcul d’explicabilité algorithmique (le coeur du sujet de mon livre “les Algorithmes font-ils la Loi ?” paru chez L’Observatoire).
 

[EM] : Nous ne pouvons que constater, l’avancement de la transformation digitale de notre société. Que penses-tu du risque de réification de l’humain, comme l’évoquent certains philosophes comme Jacques Ellul ou plus contemporain comme Michel Onfray ?


Je regrette la prise de parole de certains intellectuels qui ne comprennent pas concrètement comment ces technologies fonctionnent, ce qui les empêche de pointer des arguments techniquement justes et donc de proposer des solutions qui sortent de la posture dramatique malheureusement courante aujourd’hui. Oui, le risque de réification existe mais ce n’est absolument pas une fatalité, mais pour cela il faut comprendre les tenants et les aboutissants scientifiques et techniques afin de construire des solutions pragmatiques et pratiques. C’est ce qu’a fait le philosophe Gaspard Koenig lors de son voyage dans le monde de l’IA qui a donné naissance à son excellent livre “La fin de l’individu” paru chez L’Observatoire en 2019. Il dénonce la fin de l’unité individuelle en amenant des arguments concrets sur le fonctionnement des technologies qui pour certaines homogénéisent les individus par une considération forte des tendances statistiques générales en perdant l’unicité de l’individu. À de nombreuses reprises, il ouvre le débat sous un angle technique. Il faut sortir d’une condamnation seule, mais l’associer à des réponses qui nous permettent de profiter des technologies tout en écartant les risques et les menaces pour notre humanité.
 

[EM] : Sur l’Intelligence Artificielle, basée sur les algorithmes, comment se place la France et l’Europe, dans cette compétition mondiale ?


Nous avons clairement des budgets privés et publics limités en comparaison à ceux des USA par exemple. Cela étant dit, nous avons des talents exceptionnels. Je pense profondément qu’il ne faut pas penser uniquement “France” quand il s’agit d’imaginer une stratégie d’innovation en algorithmique. Au contraire, il faut penser Europe, pour combiner des jeux de données, unir les talents, et partager des technologies. Le RGPD est une révolution sur la collecte et l’usage des données à caractère personnel dont on doit profiter encore davantage. On ne le dit pas assez souvent, mais le RGPD a inspiré des textes comme le CCPA (California Consumer Privacy Act).
 

[EM] : Parlons de souveraineté. Pour toi la souveraineté numérique, est-il un concept valide ? Nos dirigeants et industriels prennent-ils vraiment en compte la mesure de ce sujet ?


La souveraineté est assurément un sujet politique, comme je l’avais expliqué dans une de mes chroniques du magazine Le Point “La souveraineté numérique est avant tout un sujet politique”. Si on ne s’appuie uniquement sur les capacités techniques et scientifiques des candidats pour le choix d’une solution, on prendra systématiquement des solutions de gros acteurs efficaces et performants - souvent américains -. Il faut une volonté des États de créer un terrain favorable de développement de nouvelles technologies sur leur territoire, mais aussi de faire des choix clairement assumés pour favoriser la croissance économique de certains acteurs français ou européens - comme le choix d’un acteur français pour l’hébergement des données de santé des citoyens -. En théorie les dirigeants politiques et économiques en ont conscience mais en pratique nous n’avons pas encore de stratégie claire, avec des opportunités manquées (encore une fois concernant le health data hub).
 

[EM] : Devant la montée des tensions géopolitiques, et d’un retour à une conflictualité élevée, la souveraineté numérique peut-elle être protectrice de nos intérêts selon toi ?

Il faut construire une souveraineté numérique sans tendre vers un nationalisme contre-productif. C’est là toute la difficulté. Cela sera possible grâce à une connaissance plus fine de la part de nos dirigeants des STEM et des avancées technologiques afin de construire une vision cohérente et ambitieuse.
 

[EM] : Aurélie, nous arrivons à la fin de cet entretien. Je tiens à te renouveler mes remerciements pour le temps que tu m’as accordé. Pourrais-tu donner en quelques mots une conclusion pleine de perspectives ?

Je finirais sur un conseil pour tes lecteurs. Méfiez-vous quand on vous présente un monde binaire et une pensée fataliste. La vie est souvent une question de nuances, et nous avons toujours le choix.
 

Emmanuel MAWET

Lien :www.effisyn-sds.com

  • 1
    • j'aime
    • Qui aime ça ? »
  • 0
    • je n'aime pas
    • Qui n'aime pas ça ? »
  •  
 

Réagissez, commentez !

  • Aucun commentaire pour l'instant
rechercher un article, une vidéo...