L’éthique de l’intelligence artificielle

Les technologies numériques offrent de grandes perspectives pour l’économie et la société. Cependant, certaines évolutions récentes, comme la reconnaissance faciale, soulèvent également des dilemmes éthiques. Les défis sont immenses pour la Suisse, qui compte parmi les pays les plus avancés dans le développement de l’intelligence artificielle (IA).

La numérisation a engendré une explosion de nouveaux défis éthiques : la perte d’emplois due à l’automatisation, les problèmes de protection des données, la reconnaissance faciale, les vidéos truquées (deepfakes) et, plus inquiétant encore, le mésusage des technologies d’IA et de robotique.

L’exemple le plus récent est l’apparition, à l’automne 2022, de ChatGPT, un chatbot basé sur l’IA qui a suscité des inquiétudes dans divers secteurs en raison de sa capacité à effectuer des tâches telles que le codage et la correction d’erreurs dans les programmes informatiques.

ChatGPT soulève également diverses questions éthiques, d’autant plus qu’il peut rédiger des textes marketing, des rapports détaillés, voire des livres entiers – les abus sont inévitables et les enseignants s’en inquiètent déjà.

Il est difficile d’imaginer les conséquences si l’IA tombait entre de mauvaises mains. Prenons l’exemple des « robots tueurs » : la communauté internationale ne parvient pas à s’entendre sur l’opportunité d’instaurer des règles strictes pour encadrer leur utilisation. Les discussions menées aux Nations Unies à Genève sur la réglementation des armes autonomes létales n’ont jusqu’à présent abouti qu’à des résultats limités.

De telles armes n’existent pas encore, mais les militants affirment qu’elles pourraient être déployées sur le champ de bataille d’ici quelques années seulement, compte tenu des progrès rapides et des investissements dans l’IA et d’autres technologies.

La Suisse a réalisé d’énormes progrès dans le domaine de l’IA – un logiciel qui apprend à penser et à prendre des décisions comme un humain, et qui apprend en traitant d’énormes quantités de données.

De nombreuses start-ups suisses développent des systèmes dits intelligents, sous forme de robots, d’applications ou d’assistants numériques, destinés à nous simplifier la vie. Mais ces entreprises sont confrontées au dilemme éthique constant de savoir où tracer la limite lorsqu’il s’agit de commercialiser leurs technologies. Ce dilemme est particulièrement aigu pour celles qui mènent des recherches sur ces technologies et les vendent. Les universités suisses, par exemple, participent à des projets financés par l’armée américaine, allant des caméras de surveillance aérienne aux drones de reconnaissance autonomes.

La Suisse prend position

La Suisse aspire à être à l’avant-garde du mouvement visant à définir des normes éthiques pour l’utilisation de l’IA. Mais que doit faire la Suisse pour devenir un pionnier en matière d’IA ? Une initiative intéressante est la création du « Label suisse de confiance numérique », destiné à renforcer la confiance des utilisateurs dans les nouvelles technologies. L’idée est de fournir aux utilisateurs davantage d’informations sur les services numériques, favorisant ainsi la transparence et garantissant le respect des valeurs éthiques. « Nous voulons contribuer à faire en sorte qu’un comportement éthique et responsable devienne également un avantage concurrentiel pour les entreprises », explique Niniane Paeffgen, directrice de Swiss Digital Initiative, l’organisation à l’origine du « Label suisse de confiance numérique ».

La nécessité d’une réglementation et de définitions claires des limites éthiques est incontestable. Le Conseil fédéral suisse (organe exécutif) a mis en place un groupe de travail interministériel sur l’intelligence artificielle, qui a adopté des lignes directrices en la matière fin novembre 2020.

« Il est essentiel que la Suisse exploite pleinement les opportunités offertes par l’IA », indique la recommandation du groupe de travail au Conseil fédéral. « Nous devons instaurer les conditions-cadres les plus favorables permettant à la Suisse de jouer un rôle de premier plan dans la recherche, le développement et les applications de l’IA. Parallèlement, il est impératif de maîtriser les risques et de mettre en œuvre des mesures efficaces. »

Différentes perceptions de l’éthique

On observe une multiplication croissante des voix qui réclament une norme mondiale contraignante. Un groupe d’experts de la Commission européenne sur l’intelligence artificielle a présenté un ensemble de lignes directrices éthiques.Lien externe Fin 2018. En juin 2023, le Parlement européen a approuvé un premier projet de loi sur l’intelligence artificielle (loi sur l’intelligence artificielle).Lien externe.

En décembre 2023, le Parlement européen, la Commission européenne et les États membres se sont finalement accordés sur un ensemble de règles contraignantes encadrant l’utilisation de l’intelligence artificielle. Il s’agit d’une première mondiale.

Ce règlement vise à interdire les systèmes d’IA qui présentent un risque « inacceptable » pour les citoyens et la démocratie. Il s’agit notamment des systèmes qui utilisent des données personnelles sensibles à des fins de manipulation psychologique, de classification sociale et de profilage racial, sexuel et religieux.

L’UE a qualifié cette décision de « moment historique ».Lien externeMais où cela laisse-t-il la Suisse, qui, en tant que non-membre, n’a pas pu avoir son mot à dire dans la réglementation de l’IA ?

De nombreuses autres directives et opinions d’experts existent sur la question. Cependant, une analyse systématiqueLien externeUne étude menée par le Laboratoire d’éthique et de politique de la santé de l’Institut fédéral de technologie ETH Zurich a révélé qu’aucun principe éthique n’était commun à l’ensemble des 84 documents examinés sur l’IA éthique.

Cependant, cinq principes ont été mentionnés dans plus de la moitié des 84 documents examinés : la transparence, la justice et l’équité, la prévention des préjudices, la responsabilité, la protection des données et le respect de la vie privée.

Des débats passionnés sur l’IA sont également signalés chez les géants de la tech comme Google. En 2021, l’entreprise a licencié deux experts en éthique suite à un différend, une décision qui soulève des questions quant à la réelle priorité accordée par les grandes entreprises technologiques à un code de conduite éthique en matière d’IA.

Leave a Reply

Your email address will not be published. Required fields are marked *