Contact

Utilisation responsable et durable de l’IA

« Il est nécessaire de promouvoir l’utilisation responsable et durable de l’intelligence artificielle, avec la transparence, l’explicabilité et l’auditabilité nécessaires », souligne Alexandre Zavaglia Coelho, spécialiste en Gouvernance et Éthique de l’Intelligence Artificielle.

Thème important de l’édition 2024 du Web Summit Rio, les discussions sur l’intelligence artificielle et sa régulation ont été associées à des discussions sur l’éthique – après tout, nous sommes humains et nous vivons également dans un monde analogique, où nous avons des responsabilités que nous devons assumer.

Le développement d’une intelligence artificielle respectueuse des valeurs éthiques et sociales nécessite une collaboration entre les secteurs gouvernementaux, les entreprises technologiques et la société civile. Seul un effort collectif permettra de créer des structures de gouvernance solides qui garantissent l’utilisation de l’IA au bénéfice de tous, sans mettre en péril la vie privée ou l’autonomie des individus.

« Nous devons créer cette culture de collaboration pour établir des lignes directrices et des bonnes pratiques et, surtout, pour définir les normes techniques de ces principes, apportant ainsi de l’efficacité à la réglementation qui est en discussion dans le monde entier. »

Avec les progrès rapides de l’IA, des inquiétudes surgissent quant à l’impact de cette technologie sur les relations de travail et le maintien des droits de l’homme. L’automatisation et la prise de décision algorithmique peuvent profondément affecter des secteurs tels que le marché du travail, l’éducation et même le système judiciaire. Pour garantir que l’IA soit utilisée de manière juste et responsable, les experts préconisent la création de réglementations fixant des limites claires à l’utilisation des algorithmes dans des situations sensibles, telles que le recrutement des employés, l’octroi de crédit et les décisions judiciaires. La création de « zones à risque » pour l’utilisation de l’IA, suggérée par certains pays, vise à protéger la population d’éventuels abus et à favoriser un équilibre entre innovation et sécurité.

Un autre aspect fondamental des discussions sur l’IA et l’éthique est la question de l’autonomie individuelle et de la vie privée. Les technologies d’IA telles que la reconnaissance faciale et la surveillance du comportement soulèvent des questions sur la surveillance de masse et le contrôle social, qui pourraient compromettre la liberté individuelle. En réponse à ces préoccupations, certaines entreprises et certains gouvernements ont investi dans l’IA « open source », permettant à des experts indépendants d’inspecter le fonctionnement des algorithmes et d’identifier les biais potentiels ou les failles de sécurité. Cette évolution vers une IA plus transparente entraîne également une demande pour des outils permettant un audit rigoureux et continu des algorithmes, garantissant qu’ils sont alignés sur les principes de justice et d’équité recherchés par la société.

C’est pourquoi les experts soulignent que même ce qui est technologique doit être rendu compte à toutes les étapes, de la collecte de données à la mise en œuvre des algorithmes, car c’est le biais algorithmique qui détient le pouvoir de garantir l’équité et la diversité dans le développement de ces systèmes.

L’inclusion du thème de l’éthique dans les cours d’informatique et les campagnes de sensibilisation du public sont des moyens de garantir que toutes les parties prenantes comprennent les défis et les opportunités présentés par l’IA dans la société, ouvrant ainsi la voie à une réglementation qui favorise l’utilisation responsable de cette technologie.

La technologie est le point de départ de nombreux domaines d’activité de Ryto Public Affairs. Notre équipe expérimentée de collaborateurs et de conseillers est régulièrement informée des plus grands événements mondiaux, contribuant ainsi à la construction de solutions et d’idées innovantes pour nos clients.

Eduardo Shor