Manifeste pour une Intelligence Artificielle Souveraine


Manifeste pour une Intelligence Artificielle Souveraine

Article
Accueil Effisyn S.D.S
 
| Effisyn S.D.S | Intelligence Artificielle | I.A. Souveraine  Vu 18528 fois
Article N°27567

Manifeste pour une Intelligence Artificielle Souveraine

Compte tenu des questions soulevées par la révolution industrielle que représente l'Intelligence Artificielle et de ces impacts sociétaux, culturels, économiques et même philosophiques, nous avons souhaité dans ce document dresser un certains nombres de principes que nous trouvons fondamentaux. Pour ne pas être dépasser par ces technologies, et pour développer un écosystème numérique au service de l'Homme et de notre intérêt commun, il était important de poser ces principes fondamentaux.
Vous ne serez pas surpris, si cela recoupe les questions soulevées par le député Philippe Latombe dans sa dernière interview des Rendez-vous de l'Actu..
#souveraineténumérique #iasouveraine #éthique #IAresponsable

 

Manifeste

1. Préambule :
Nous, partisans d'une Intelligence Artificielle (IA) souveraine, reconnaissons l’énorme potentiel de l'IA pour transformer notre société et améliorer la vie des individus. Cependant, nous constatons que l'IA est actuellement centralisée, contrôlée par un petit nombre d'entreprises technologiques d’envergures mondiales, et utilisée principalement pour maximiser leurs profits, sans prendre en compte les intérêts comme les besoins des utilisateurs et des communautés locales. Cela entraîne inégalités, dépendance excessive, potentiels risques pour la vie privée, la sécurité et la souveraineté des nations.
Nous croyons fermement que dans l’intérêt général, nous devons changer de paradigme et promouvoir une IA souveraine, développée localement, et déployée sur une infrastructure décentralisée, relocalisée et gouvernée par les usagers. Nous croyons en une IA qui profite à tous, encourage l'innovation locale, se met au service de l'humain, dans le respect de principes éthiques, au bénéfice des droits de l'homme et de la diversité culturelle.
 
2. Principes fondamentaux :
1. Souveraineté : Nous défendons le principe de souveraineté numérique, pour que chaque nation, chaque communauté et chaque individu aient le droit de contrôler leur propre IA et de décider de son mode d’utilisation dans leur environnement local, conformément aux lois
et principes culturels de leur pays.
2. Localisation : Nous promouvons le développement local de l'IA, en encourageant la création de centres de recherche, de développement et de formation dans les territoires, afin de favoriser localement l'émergence d'une expertise et d’emplois de haute qualité. Nous encourageons également l'utilisation de données locales pour former les modèles d'IA, qui reflètent les spécificités culturelles, sociales et économiques.
3. Gouvernance participative : Nous soutenons une gouvernance de l'IA basée sur la participation active des utilisateurs et des parties prenantes, en vue de garantir des décisions éthiques, transparentes et équitables concernant l'IA. Nous insistons sur la nécessité de créer
des conseils consultatifs locaux, composés d'utilisateurs, d'experts et de représentants de la société civile, pour orienter le développement, le déploiement et l'utilisation de l'IA.
4. Décentralisation : Nous prônons une infrastructure décentralisée pour le déploiement de l'IA, basée sur des petites infrastructures interconnectées en grappes et relocalisées chez les clients. Cela réduit la dépendance à l'égard des grands centres de données centralisés,
d'améliorer la sécurité et la confidentialité des données, de maintenir un accès équitable et résilient à l'IA en tout point, y compris les zones rurales, périphériques, et en développement. Nous nous opposons à la concentration entre quelques acteurs des moyens de stockage et de traitements des données et nous rejetons toute situation de monopole ou d’oligopole dans ce domaine.
5. Éthique et responsabilité : Nous mettons en avant les valeurs éthiques dans le développement et l'utilisation de l'IA. Nous défendons l’obligation sur la transparence des algorithmes, la protection de la vie privée, la responsabilité des développeurs d'IA dans la conception de
modèles équitables et impartiaux, ainsi que dans la prise en compte des impacts sociaux, environnementaux et économiques de l'IA. Nous appelons à l'adoption de normes éthiques et de bonnes pratiques dans le domaine de l'IA, ainsi qu'à la mise en place de mécanismes de
mise en responsabilité des entreprises et des institutions recourant à l'IA.
6. Utilisation responsable de l'IA : Nous appelons aux respects de principes éthiques dans la conception, le développement et l'utilisation des modèles d'IA, en veillant à ce qu'ils demeurent justes, impartiaux et transparents. Nous encourageons également la mise en place
de mécanismes indépendants de surveillance et d'évaluation pour garantir la conformité aux normes éthiques et locales. Nous promouvons l'utilisation de l'IA pour résoudre et non renforcer les défis sociétaux, tels que la santé, l'éducation, l'environnement et la lutte contre
les inégalités.
7. Formation et sensibilisation : Nous croyons que la formation et la sensibilisation sont essentielles pour promouvoir une IA souveraine. Nous encourageons la formation de talents locaux dans le domaine de l'IA, en mettant l'accent sur l’égalité d’accès. Nous défendons également la sensibilisation du grand public aux enjeux de l'IA, en expliquant les avantages, les risques et les défis associés à cette technologie, et en encourageant un débat ouvert et éclairé sur son utilisation et son impact dans la société.
 
3. Conclusion
Nous soutenons la vision d'une IA souveraine, locale, gouvernée par ceux qui l’utilisent, déployée sur des infrastructures décentralisées et relocalisées près des usagers. Nous encourageons à la responsabilisation des développeurs d'IA, à la participation citoyenne dans la gouvernance de l'IA, et à la création d'un écosystème éthique, équitable et transparent.
En adoptant ce manifeste, nous nous engageons à promouvoir une IA souveraine qui respecte les normes locales, protège les droits de l'homme, favorise l'innovation, et contribue au bien-être de la société dans son ensemble. Nous appelons gouvernements, entreprises, collectivités, chercheurs et citoyens à se joindre à cette vision et à collaborer pour la mise en oeuvre d’une IA en tant qu’outil bénéfique, équitable et au service de l'humanité.

Annexes

Annexe : Pourquoi une infrastructure décentralisée et sous souveraineté locale pour l'IA ? Une infrastructure pour l’IA qui soit décentralisée et relocalisée au plus près des usagers, présente plusieurs avantages clés :
1. Souveraineté locale : En adoptant une approche décentralisée, chaque client peut exercer son contrôle sur ses données et sur l'IA déployée dans un environnement maîtrisé. Cela garantit que les décisions concernant l'IA soient prises localement, en tenant compte des lois, des
régulations et des valeurs culturelles propres à chaque région ou pays. Cela évite également la dépendance à l'égard de grandes entreprises technologiques et à des puissances étrangères, par contrecoup cela préserve la souveraineté numérique des nations.
2. Flexibilité et performances : Une infrastructure décentralisée permet de s'adapter aux besoins et préférences de chaque client. Cette architecture s’appuie sur de petite unité de stockage et de traitement de donnée, des micro-clouds. Chaque micro-cloud sera configuré en fonction d’exigences spécifiques de l'IA déployée, de l'environnement local et des besoins des usagers. Cela offre aussi une plus grande  flexibilité dans le déploiement de l'IA, plus de liberté pour optimiser les performances. Par ailleurs en proximité, les délais de réponses entre machines sont accélérés, et leur maintenance améliorée par des équipes locales et identifiées.
3. Confidentialité et protection des données : L'IA traite de grandes quantités de données, potentiellement sensibles. Une infrastructure décentralisée renforce la confidentialité des données en évitant leur transfert massif vers des serveurs centralisés. La démultiplication et l’interconnexion des micro-clouds assure la redondance et le secours entre unité, tout en autorisant la création d’espaces étanches privatifs. Ce maillage résilient est une solution au risque que fait peser la centralisation sur de grandes unités en cas de sinistre. Les données
demeurant localement chez les clients, cela éloigne les risques de violations, de fuites d'informations, d'atteintes à la vie privée. En outre, une utlisation des données conforme aux lois et régulations locales s’en trouve garantie.
4. Innovation et diversité : Une infrastructure décentralisée encourage l'innovation en permettant aux développeurs locaux d'expérimenter, de créer et de déployer leurs propres solutions d'IA. En favorisant la diversité des approches et des modèles. La compétition saine entre les développeurs locaux est stimulée, ce qui peut déboucher sur des avancées technologiques plus rapides et à des solutions plus adaptées.
5. Transparence et responsabilité : Dans une infrastructure décentralisée, les décisions prises par l'IA sont plus transparentes et responsables. Les clients ont un meilleur contrôle sur les décisions prises par l'IA déployée dans leur environnement, ils gardent une meilleure compréhension des processus de décision, et ce qui permet de mieux cerner les périmètres de responsabilités en cas d'erreurs ou de biais. La confiance des utilisateurs et des parties prenantes dans l'IA est favorisée, cap essentiel pour son adoption et son acceptation dans la société.

En résumé, en adoptant une approche décentralisée de l’infrastructure, nous pouvons garantir que l'IA est utilisée de manière responsable, éthique et transparente, tout en préservant la souveraineté numérique, et en favorisant l'innovation dans le domaine de l'IA.

Annexe : Collecte des données par ChatGPT

Développée par OpenAI, l’IA ChatGPT dit ne pas collecter de données auprès des utilisateurs. En d'autres termes, ChatGPT n'aurait pas la capacité de collecter des informations de manière proactive auprès des utilisateurs pendant une session de chat. Elle se limiterait à un modèle de langage, qui fonctionne en générant des réponses basées sur les modèles statistiques appris à partir d'un large corpus de texte, sans capacité de collecte de données en temps réel.
Cependant, lorsque les utilisateurs interagissent avec ChatGPT, leurs interactions sont enregistrées et stockées dans les journaux (logs) pour raisons de sécurité, de débogage, d'amélioration du modèle et de qualité du service. Ces journaux incluent les entrées de texte des utilisateurs et les réponses générées par ChatGPT. Ces données seraient anonymisée et agrégée pour des analyses statistiques globales, Chat GPT soutient qu’elles ne sont pas utilisées pour identifier individuellement les utilisateurs.
ChatGPT assure que ses traitements sont conformes aux lois et régulations en vigueur en matière de confidentialité et de protection des données, telles que le Règlement général sur la protection des données (RGPD) de l'Union européenne et autres lois applicables en matière de confidentialité. Pourtant ses conditions d’utilisations comme les fuites de données qu’a rencontrées l’application éveillent la méfiance, jusqu’à ce que des plaintes soient déposées dans divers pays, et débouchent à la fermeture du service en Italie. ChatGPT échappe totalement au contrôle de ses utilisateurs et soulève des questions éthiques, alors que les différentes « plaques » légales révèlent nombre d’interférences et contradiction entre elles, à l’instar du RGPD européen et du Cloud Act étatsunien.

Annexe : Collecte des données et contrôle des infrastructures par les États-Unis

Les États-Unis sont un acteur majeur dans le domaine de l'intelligence artificielle (IA). En conséquence, on peut s'inquiéter du contrôle exercé par les États-Unis sur la collecte des données et les infrastructures d'IA à l'échelle mondiale. Voici quelques raisons expliquant ces préoccupations :
1. Collecte des données : Les entreprises technologiques basées aux États-Unis, telles que Google, Facebook, Amazon, et d'autres, amassent d'énormes quantités de données partout dans le monde. Ces données incluent informations personnelles sensibles, préférences d'utilisation, habitudes de consommation... On peut s’inquiéter de la manière dont ces données sont collectées, stockées, et utilisées, notamment en matière de confidentialité, de sécurité et de surveillance potentielle.
2. Contrôle des infrastructures : Les États-Unis contrôlent de manière importante les infrastructures d'IA, au travers de serveurs, de centres de données et des réseaux de communication concourant au déploiement et à la gestion des systèmes d'IA. Cette emprise est mondiale. Les interrogations sont nombreuses quant à la dépendance envers ces infrastructures et la concentration du pouvoir entre les mains des États-Unis.
3. Inégalités technologiques et accès inéquitable : La concentration du développement et du contrôle des technologies d'IA aux États-Unis peut contribuer à creuser ou aggraver les inégalités technologiques entre les pays et les régions.
4. Extraterritorialité des lois américaines : Les lois américaines, telles que le Cloud Act (Clarifying Lawful Overseas Use of Data Act), peuvent permettre aux autorités américaines d'accéder à des données stockées à l'étranger dans certaines circonstances. Cela soulève des préoccupations de souveraineté, de confidentialité et de protection des données des utilisateurs ou des entreprises situées en dehors des États-Unis, ces derniers justifiant grâce à leur arsenal légal une capacité de préemption numérique.
5. Géopolitique et surveillance : En tant que superpuissance, les États-Unis sont impliqués dans des questions géopolitiques, de sécurité nationale et de surveillance. Cela pose des questions sur l'entraînement et l’utilisation potentielle d'IA à des fins de surveillance, de collecte de
renseignements ou d'autres activités intrusives.
Toutes ces préoccupations ne sont pas spécifiques aux États-Unis, elles peuvent s'appliquer à d'autres pays et acteurs technologiques dans le monde. Mais en raison de leur position dominante, les États-Unis arrivent en tête des acteurs étatiques qui pourraient se servir de l’IA au dépend des citoyens ou des organisations.

Annexe : Collecte des données et volonté de contrôle des infrastructures d’IA par la Chine

La Chine est actuellement le principal concurrent des Etats-Unis pour la domination globale, y compris en tant qu’acteur du développement stratégique d’IA, et qu’utilisatrice de cette dernière à des fins de surveillance et de coercition. A ce titre, la Chine a développé une position propre.
1. Souveraineté numérique et protection des données : La Chine cherche à exercer un contrôle souverain sur les données collectées sur son territoire. Elle s’est dotée de dispositifs légaux et techniques de régulations strictes sur la collecte, le stockage, le traitement et la protection
des données. La Chine considère que la collecte des données opérées sur son territoire est une question de souveraineté et de sécurité nationale, elle privilégie de fait les infrastructures locales.
2. Contrôle de l'infrastructure et de la gouvernance : La Chine met en place des de contrôle sur les infrastructures d'IA opérées sur son territoire. Les entreprises étrangères qui travaillent en Chine sont invitées à signer des partenariats avec des entreprises locales et partagent
éventuellement leur technologie avec elles. Cette approche vise à garantir que gouvernance et décisions sur les questions d'IA sont effectuées conformément aux lois et aux politiques chinoises.
3. Stratégie géopolitique et indépendance technologique : La Chine considère le développement de l'IA comme un enjeu stratégique et s’attache donc à l’indépendance technologique. Des politiques favorisent le développement de l'IA locale, mais aussi la collecte des données
opérées sur le territoire chinois, qui garantit un accès direct aux informations nécessaires pour former des modèles d'IA et améliorer les algorithmes. La réduction de la dépendance de la Chine envers les technologies d'IA étrangères et renforcer sa compétitivité sur le marché
mondial sont au coeur de cette démarche.
4. Contrôle de l'information et de la sécurité nationale : La collecte des données et le contrôle des infrastructures d'IA garantissent la sécurité nationale et protègent les intérêts de l'État. Des régulations strictes encadrent collecte et gestion des données, pour éviter que des
informations sensibles voire stratégiques ne soient partagées ou stockées à l'étranger. La Chine déclare protéger les données de ses citoyens, ainsi que les intérêts économiques et géopolitiques du pays. La Chine affiche sa volonté de devenir le leader mondial de l’IA.
5. Risques de surveillance et de violation de la vie privée : Cependant des préoccupations légitimes existent concernant la surveillance gouvernementale ou l'utilisation des données à des fins de censure, de surveillance et de contrôle social. Ces politiques peuvent porter
atteinte aux droits fondamentaux des utilisateurs ; l’IA amplifie potentiellement cette tendance. La Chine possède un système de censure et de surveillance Internet connu sous le nom de Great Firewall of China, qui bloque l'accès à certains sites Web et applications
étrangères jugées contraires aux intérêts nationaux.

En conclusion, la Chine adopte une approche souveraine en réaction à la domination étatsunienne, mais aussi pour la remplacer. A l’intérieur de ses frontières, elle recourt à un arsenal technologique qui renforce sa domination autoritaire sur les populations, par le contrôle et la surveillance. L’IA constitue pour la Chine un enjeu existentiel.

Annexe : Position européenne sur la collecte des données et le contrôle des infrastructures d'IA

L'Union européenne (UE) adopte une approche équilibrée et met officiellement l'accent sur la protection des droits individuels, la souveraineté numérique, la sécurité, la transparence et la promotion de l'innovation. La France membre de l'UE, partage cette approche tout en maintenant
quelques spécificités.
1. Protection des droits individuels et de la vie privée : Concernant la collecte et l'utilisation des données par les technologies d'IA, l'UE insiste sur la protection des droits individuels. Le Règlement général sur la protection des données (RGPD) de l'UE, entré en vigueur en 2018,
en réglemente le cadre et l’application.
2. Souveraineté numérique et sécurité : L'UE défend en théorie la souveraineté numérique ou la capacité pour les États membres de l'UE de contrôler leurs propres infrastructures d'IA et de garantir leur sécurité. La France a adopté une posture en faveur de la souveraineté
numérique, et prend des mesures pour promouvoir le développement d'une IA souveraine, grâce à des centres de recherche dédiés, à des partenariats public-privé et à des dispositifs d’investissements en faveur des start-ups.
3. Transparence et éthique : L'UE soutient la transparence et l'éthique dans le développement et l'utilisation d'IA. Elle responsabilise les développeurs dès la conception au déploiement à l'utilisation des systèmes d'IA. La France soutient cette approche par le biais de lignes
directrices, de codes de conduite et de mécanismes de certification.
4. Promotion de l'innovation : L'UE et la France favorisent l'innovation dans le domaine de l'IA, au travers du financement de la recherche et la promotion de l'entrepreneuriat en milieu technologique. L'UE a mis en place des programmes tels que le programme Horizon 2020. La position de l'UE diffère de celle des États-Unis et de la Chine sur plusieurs aspects. Quand les États-Unis adoptent une approche axée sur la collecte massive de données et la primauté des entreprises technologiques, l'UE met l'accent sur la protection des droits individuels, la souveraineté numérique et la sécurité des infrastructures d'IA. La Chine quant à elle suit la voie de la centralisation et défend aussi la collecte de données massives contrairement à l'UE qui le respect de la vie privée.

Annexe : Interférences entre les visions des États-Unis, de la Chine et de l'UE en matière d'IA

L'IA est au coeur de la compétition mondiale entre États-Unis, Chine, Union européenne et quelques acteurs comme le Japon ou la Russie, chacun défendant une approche propre. Les interférences entre ces visions peuvent avoir un impact sur le développement, le déploiement et la gouvernance de l'IA.
1. Vision des États-Unis : Considérés comme étant en tête de la course, les Etats-Unis dotés de grandes entreprises leaders, dominent le secteur. La vision étatsunienne de l'IA met l'accent sur la collecte massive de données pour entraîner des modèles, et tend fortement vers
l'innovation et la compétitivité économique. Par conséquent, Les entreprises comme Google, Amazon et Facebook, ont accès à d'énormes quantités de données provenant du monde entier, ce qui leur confère un avantage stratégique dans le domaine.
Cependant, cette approche peut être vécue comme prédatrice par les autres nations, et soulève des interrogations quant à la souveraineté, le respect de la vie privée, de la propriété intellectuelle, des libertés ; la concentration de ce pouvoir numérique entre les mains de quelques entreprises interroge aussi la puissance de l’Etat face à ces acteurs. Les États-Unis doivent relever des défis liés à la régulation de l'IA, dont le cadre juridique en constante évolution peine à suivre le rythme rapide des progrès technologique.
2. Vision de la Chine : En concurrence avec les Etats-Unis, la Chine considère l'IA comme une priorité stratégique et souhaite devenir leader mondial dans ce domaine d'ici 2030. La séparation de l’internet chinois, et la création d’une IA souveraine motive la position actuelle très « indépendantiste » de la Chine. La vision chinoise de l'IA repose aussi sur la collecte massive de données par le gouvernement et les entreprises pour entraîner des modèles. L'État soutient et favorise la recherche de manière très active et planifiée. Un des plus grands
champs d’application est la surveillance des populations à des fins de stabilité sociale et de sécurité intérieure.
Cette approche orwellienne assumée par la Chine suscite des réactions quant à des violations régulières des droits de l'homme. En outre, la Chine est aussi confrontée à la qualité et à la fiabilité des données collectées, elle éveille par ailleurs la suspicion au sujet de la protection
de la propriété intellectuelle, ce qui peut limiter la compétitivité de ses entreprises sur les marchés internationaux.
3. Vision de l'Union européenne : L'UE adopte une approche plus équilibrée en matière d'IA, mettant en avant la protection des droits individuels, la souveraineté numérique, la sécurité, la transparence et l'éthique. L'UE a mis en place des régulations strictes pour protéger la vie privée et les droits des individus, telles que le RGPD. L'UE insiste sur la coopération internationale, la collaboration entre ses pays membres et au respect des normes culturelles européennes.
Mais cette approche européenne est plus lente en termes d'innovation et de compétitivité par rapport aux États-Unis et à la Chine. Les entreprises européennes se confrontent à des problématiques d'accès aux données et de financement, ce qui limite leur avancement
technologique. De plus, la fragmentation réglementaire au sein de l'UE peut également créer des obstacles à l'adoption et au déploiement de l'IA à l'échelle européenne. Pour conclure, ces faiblesses favorise le lobbying opéré par des firmes étrangères au dépend de solutions
locales, renforçant la dépendance de l’UE vis-à-vis des Etats-Unis. Le terme de « colonisation numérique » est parfois avancé pour décrire cette situation.
4. Vision gagnante : Il est difficile de dire quelle vision sera finalement gagnante dans la course à l'IA, car cela dépendra de nombreux facteurs, notamment la capacité à innover, à accéder aux données, à respecter les normes éthiques et à répondre aux besoins de la société.
Cependant, une approche équilibrée qui tient compte des enjeux économiques, sociaux, éthiques et réglementaires de l'IA, tout en protégeant les droits individuels et en promouvant la coopération internationale, pourrait être la clé pour un développement durable et
responsable de l'IA à l'échelle mondiale.
En conclusion, les interférences entre les visions des États-Unis, de la Chine et de l'Union européenne en matière d'IA sont complexes et entraînent des tensions sur divers aspects. La vision gagnante sera idéalement celle qui pourra concilier innovation technologique, protection des droits individuels, respect des normes éthiques et coopération internationale pour un développement responsable de l'IA à l'échelle mondiale. Cependant elle se heurte à la réalité d’une lutte « impériale » entre la Chine et les Etats-Unis, alors que l’UE tente de continuer à exister entre ces deux acteurs dominants, elle devrait dégager une vision réellement souveraine, et pratiquer une forme de protectionnisme pour survivre en tant qu’entité pourvoyeuse de solutions compétitives.

Annexe : méthode d'adoption pour promouvoir une IA souveraine

1. Sensibilisation et engagement : Sensibiliser est essentiel. Le gouvernement, les collectivités, les entreprises, les chercheurs, la société civile ou le grand public devraient être initiés aux avantages d'une IA souveraine. Campagnes de sensibilisation, ateliers, conférences ou
discussions publiques sont autant d’outil pour propager le principe d’une IA souveraine. Les thématiques insisteraient sur les enjeux de confidentialité, de souveraineté, de sécurité, d’écoresponsabilité, et d'éthique.
2. Collaboration multi-acteurs : La mise en oeuvre d'une IA souveraine nécessite la collaboration des différents acteurs publics, privés et associatifs. Partenariats public-privé, alliances industrielles, collaborations académiques et consultations multi-acteurs doivent favoriser une
approche collective, afin que l’IA ne soit pas seulement un enjeu de compétition économique, mais plutôt un outil de développement dans l’intérêt général.
3. Développement local de l'IA : parallèlement à la constitution d’infrastructures numériques sous contrôle local, Il est essentiel de faciliter le développement d'IA en proximité des usagers. Un fonctionnement local et décentralisé évite la captation des données par des acteurs
centraux dominants au mépris de la souveraineté des citoyens. On favorisera les acteurs locaux pour la formation de chercheurs et d'ingénieurs, en encourageant la création de startups ou d'entreprises locales spécialisées dans l'IA, en facilitant la collaboration entre les
entreprises et les universités présente sur le territoire proche pour promouvoir l'innovation.
4. Réglementation appropriée : La formation d'un cadre réglementaire spécifique est inévitable pour guider le développement et l'utilisation de l'IA souveraine. La défense de la souveraineté technologique, la protection des données, la transparence, la responsabilité et l'éthique dans
l'utilisation de l'IA doivent motiver le législateur. Attention cependant à ne pas entraver l'innovation.
5. Incitations économiques : Le gouvernement peut mettre en place des politiques d'incitation, telles que crédits d'impôt, subventions, investissements publics et programmes de financement, pour encourager les entreprises et les chercheurs à développer et à adopter des
solutions d'IA souveraines. Il serait souhaitable d’activer aussi des mesures de protection du marché local pour favoriser l'adoption de solutions indigènes.
6. Évaluation et amélioration continue : Une approche itérative et basée sur les retours d'expérience est nécessaire. Les autorités, les entreprises et les usagers doivent surveiller résultats et impacts de l'IA souveraine, en vue d’ajuster puis d’améliorer ses performances, sa
sécurité, sa confidentialité et son impact sur la société. On accordera une importance particulière aux retours d'expérience et aux besoins des utilisateurs.

La promotion de l'IA souveraine devrait impliquer les collectivités locales afin qu’elles s’équipent tout en respectant les périmètres qui encadrent la protection des données des citoyens. Ce recours à des IA locales augmenterait les performances des services dans les territoires aux profits de leurs ressortissants, et deviendrait un puissant outil de développement économique et social.


Télécharger le document
 

Jean-Roch Cousinier & Emmanuel MAWET

Lien :https://effisyn-sds.com/2023/05/04/manifeste-pour-une-intelligence-artificielle-souveraine/

  • 0
    • j'aime
    • Qui aime ça ? »
  • 0
    • je n'aime pas
    • Qui n'aime pas ça ? »
  •  
 

Réagissez, commentez !

  • Aucun commentaire pour l'instant
rechercher un article, une vidéo...