Retour à l’accueil

Intelligence artificielle : opportunités et risques

L'intelligence artificielle (IA) influence de plus en plus notre quotidien. Découvrez les opportunités et les risques qu'elle entraine.

La future croissance et prospérité de l'Europe dépendra grandement de comment elle gèrera les données et les technologies connectées. L'IA peut amener de grands bouleversements (positifs ou négatifs) dans nos vies, ce qui a poussé le Parlement européen à fonder une commission qui examinera l'impact de cette technologie. Voici quelques opportunités et risques associés à l'application de l'IA à l'avenir.

Les avantages de l'IA

Les pays de l'UE sont déjà performants dans le secteur de l'industrei numérique et les applications d'entreprise à entreprise. Une infrastructure numérique de haute qualité et un cadre légal qui protège la vie privée et la liberté d'expression permettrait à l'UE de devenir unleader mondial dans l'économie des données et ses applications.

Les avantages de l'IA pour les citoyens

l'IA pourrait permettre aux citoyens d'accéder à de meilleurs soins de santé, des voitures et d'autres modes de tranport plus surs, ainsi que des services moins couteux, mieux adaptés à leurs besoins et munis d'une plus longue durée de vie. Elle pourrait également faciliter l'accès à l'information, l'éducation et les formations - des aspects fortement mis en avant durant la pandémie de la Covid-19. L'IA peut aussi contribuer à rendre le milieu du travail plus sûr, puisque des robots peuvent être employés pour compléter des taches dangereuses, tout en créant de nouveaux emplois avec l'expansion des entreprises utilisant l'IA.

Les avantages de l'IA pour les entreprises

Du point de vue des entreprises, l'IA peut favoriser le développement d'une nouvelle génération de produits et services, y compris dans des secteurs où les entreprises européennes occupent déjà une place importante : l'économie verte et circulaire, la machinerie, l'agriculture, la santé, la mode et le tourisme. Elle peut créer de nouvelles voies de vente, améliorer la maintenance de machines, augmenter le rendement, améliorer les services pour les consommateurs et permettre d'effectuer des économies d'énergie.

Les avantages de l'IA pour les services publics

Lorsque'elle est utilisée dans les services publics, l'IA peut réduire les couts et offrir de nouvelles opportunités dans les domaines du transport public, l'éducation, l'énergie, la gestion de déchets et peut améliorer la durabilité des produits. L'IA pourrait donc aider à atteindre les objectifs mentionnés dans le Pacte vert pour l'Europe.

Renforcer la démocratie

Les examens minutieux basés sur les données, la lutte contre la désinformation et les cyber-attaques et l'accès à des informations vérifiées pourraient aider à renforcer la démocratie. L'IA pourrait promouvoir la diversité et favoriser l'ouverture d'esprit, en atténuant les risques de préjudice pendant l'embauche en se basant sur l'analyse de données lorsqu'un candidat est choisi (par exemple).

L'IA et la sécurité

Les experts prédisent que l'IA sera plus fréquemment employée dans le système judiciaire et dans la prévention de la délinquance, avec des ensembles massifs de données analysés rapidement, une évaluation plus fine des risques associés à certains profils criminels, voire meme l'émergence de systèmes capables de prédire et prévenir des attaques terroristes. Elle est déjà utilisée par les plateformes en ligne pour détecter les comportements illégaux ou dangereux en ligne.
Dans le domaine militaire, l'IA peut etre utilisée pour élaborer des stratégies de défense et d'attaque dans des cas de piratage ou de phishing ou pour cibler des systèmes névralgiques dans des guerres cybernétiques. Elle peut aider à élaborer des armes autonomes, permettant de minimiser le recours au conflit armé et réduire les atteintes à l'intégrité physique.

Les risques et défis associés à l'IA

Le recours accru à l'IA comporte aussi des risques potentiels.

Sous-exploitation et surexploitation de l'IA

La sous-exploitation de l'IA est perçue comme un risque majeur : si l'UE venait à rater certaines opportunités, cela pourrait déboucher sur une mauvaise application de ses programmes clés, tels que le Pacte vert. Cela pourrait aussi entrainer une perte d'avantages concurrentiels par rapport à d'autres régions du monde ou mener à une stagnation économique. Une sous-exploitation pourrait provenir d'un manque de confiance en l'IA de la part des entreprises et des citoyens, d'un manque d'infrastructures, d'un manque d'initiative, d'investissements insuffisants ou d'un émiettement du marché numérique.
Une surexploitation peut elle aussi se révéler problématique : investir dans des applications IA qui n'ont pas d'utilité ou avoir recours à l'IA là où elle n'a pas sa place (pour expliquer des questions sociétales complexes, par exemple).

Qui est responsable en cas de dégâts causés par l'IA ?

Un défi majeur est de déterminer qui est responsable lors de dégats causés par un service ou un appareil employant l'IA : si une voiture autonome est impliquée dans un accident, est-ce le conducteur, le concepteur ou le programmeur qui doit être tenu pour responsable ?
Si le concepteur ne peut être tenu pour responsable, cela risque de ne pas l'encourager à proposer un produit ou un service de qualité, ce qui entrainerait les gens à ne plus faire confiance à cette technologie. À contrario, la règlementation pourrait devenir trop stricte et étouffer toute innovation.

Les risques par rapport aux droits fondamentaux et à la démocratie

Les résultats produits par l'IA dépendent de la façon dont elle est élaborée et des données qu'elle utilise. L'élaboration et les données peuvent être consciemment ou inconsciemment biaisées. Par exemple, un aspect important d'une question pourrait être exclu de l'algorithme ou celui-ci pourrait être programmé pour reproduire et refléter un biais structurel. De plus, employer des chiffres pour traduire une réalité sociale complexe pourrait faire croire que l'IA est factuelle et précise alors que ce n'est pas le case (un phénomène connu sous le nom de « mathwashing »).
Si elle n'est pas correctement appliquée, l'IA pourrait mener à prendre des décisions à l'embauche basées sur l'appartenance ethnique, le genre, ou l'âge du candidat - voire même lors de procédures pénales.
L'IA pourrait avoir un grave impact sur le droit à la vie privée et sur la protection des données. Elle peut être employée dans des appareils de reconnaissance faciale ou pour profiler ou traquer des personnes en ligne. L'IA peut également combiner différentes données afin de créer une nouvelle donnée sur une personne et donner un résultat inattendu.
Elle pourrait aussi représenter un risque pour la démocratie : on la tient pour responsable de la création des « chambres à écho » sur le web, ne proposant à un individu que du contenu qui lui est agréable, au lieu de forcer la personne à confronter ses idées avec d'autres points de vue contraires.
Elle est également employée dans la création des deepfakes. Ces éléments contribuent à polariser l'espace public et peuvent avoir des conséquences politiques majeures.
L'IA pourrait aussi porter atteinte au droit de rassemblement, puisqu'elle peut être utilisée pour localiser et profiler les individus liés à certaines croyance ou comportements.

L'influence de l'IA sur l'emploi

Le recours à l'IA dans l'espace de travail pourrait déboucher sur des pertes d'emplois massifs. Même si l'utilisation de l'IA pourrait voir émerger de nouveaux emplois, il faudra se reposer sur une éducation et des formations adaptées afin d'éviter un chômage structurel à long terme s'enraciner.
14 % des emplois au sein des pays de l'OCDE sont susceptibles d'être automatisés et 32% supplémentaires pourraient subir de grands changements (estimation, EP Think Tank 2020).

Concurrence

La collecte de données peut mener à des distorsions de concurrence, puisque les acteurs ayant accès à plus d'informations auront l'avantage face à leurs compétiteurs et pourraient plus aisément les éliminer.

Les risques sécuritaires

Les applications basées sur l'IA en contact physique avec des humains - ou intégrés dans le corps humain - peuvent représenter un risque s'ils sont mal conçus, mal utilisés ou piratés. Une mauvaise règlementation de l'IA dans les armes pourrait entrainer une perte du contrôle humain sur des armes dangereuses.

Défis du point de vue de la transparence

Les déséquilibres face à l'accès à l'information peuvent être exploités. Par exemple, sur base du comportement en ligne d'une personne ou sur base d'autres données et sans que cette personne ne s'en rende compte, un vendeur en ligne peut utiliser l'IA afin de prédire combien cette personne est prête à payer pour un produit ou service. Une campagne politique pourrait utiliser ces mêmes informations pour modifier son message. Un autre défi du point de vue de la transparence survient lorsqu'une personne ne peut pas déterminer si elle est en train d'interagir avec un humain ou une IA.

bluekai