Les pays du Groupe des Sept (G7) sont sur le point de s’accorder sur un code de conduite pour les développeurs en intelligence artificielle (IA). Ce code comporte 11 qui vise à promouvoir l’utilisation mondiale d’une IA sûre, sécurisée et digne de confiance. Il aborde les risques potentiels associés à l’IA et les solutions pour remédier aux problématiques. Il apporte des orientations volontaires pour les organisations travaillant sur des systèmes avancés d’IA.
Objectifs du code de conduite
Le code propose aux entreprises de divulguer publiquement les informations relatives aux capacités, limites, utilisations et mésusages de leurs systèmes d’IA. Cette année, la réunion du G7 a eu lieu à Hiroshima, au Japon, en avril. Elle a abordé des thèmes tels que les technologies émergentes, l’infrastructure numérique et la gouvernance responsable de l’IA.
L’Union européenne a mis en place des lignes directrices avec son Acte européen sur l’IA. Le premier projet a été adopté en juin. De plus, OpenAI a annoncé son intention de créer une équipe dédiée à l’évaluation des différents risques liés à l’IA.
Principaux points du code de conduite
Le code de conduite comporte 11 points clés, que voici :
- La sécurité : les développeurs doivent veiller à ce que leurs systèmes d’IA soient sûrs et protégés contre les attaques, les erreurs et autres problèmes de sécurité.
- La transparence : les entreprises devraient être transparentes quant aux technologies utilisées. Il en est de même pour les données et leurs processus en interne.
- L’éthique : l’utilisation de l’IA doit respecter des normes éthiques strictes. Il n’est pas question d’enfreindre les droits humains.
- L’impartialité : les concepteurs d’IA doivent s’assurer que leurs systèmes sont justes et impartiaux, en évitant les biais et les discriminations possibles.
- Le contrôle humain : les utilisateurs doivent conserver une certaine maîtrise sur les décisions prises par les systèmes d’IA. Ils doivent pouvoir intervenir si nécessaire.
- La responsabilité : les développeurs et les entreprises doivent assumer la responsabilité des conséquences liées à l’utilisation de leurs systèmes d’IA.
Rôles des acteurs concernés
Dans le cadre du code de conduite, les acteurs impliqués ont un rôle spécifique à jouer :
- Les gouvernements : ils doivent mettre en place des réglementations adaptées pour encadrer l’utilisation de l’IA. Le but est de permettre un développement responsable.
- Les entreprises : elles sont invitées à mettre en œuvre les recommandations du code de conduite. Elles s’engagent publiquement sur le respect des principes éthiques.
- Les développeurs : ils doivent concevoir des systèmes d’IA alignés sur les directives du code de conduite, en veillant notamment à leur sécurité, leur transparence et leur équité.
L’importance de ce code pour l’avenir de l’IA
Ce code représente une étape cruciale dans la gouvernance mondiale de l’IA. Il est vital de s’entendre sur des normes communes pour encadrer le développement et l’implémentation de cette technologie. Le fait que le G7 se penche sur cette question montre que les pays développés prennent au sérieux les défis posés par l’IA. Ils sont prêts à coopérer pour assurer son développement durable et responsable.
Les limites du code de conduite
Malgré ses atouts, il convient de souligner que ce code de conduite présente certaines limites :
- Son caractère volontaire : en l’état actuel, les entreprises ne sont pas tenues de suivre les recommandations du code
- L’absence de contrôle : sans un organisme de supervision indépendant chargé de vérifier la mise en œuvre du code, les entreprises peuvent avoir tendance à privilégier leurs intérêts économiques plutôt que les principes éthiques.
Conclusion
Le code de conduite du G7 représente un signal en faveur d’une IA éthique et responsable. Il est essentiel de continuer à renforcer la coopération entre les pays et les acteurs concernés. En effet, l’objectif est la mise en œuvre effective de ces principes dans l’industrie de l’intelligence artificielle.