More
    - Advertisement - spot_img
    Accueildroits humainsComment développer une « IA éthique » et éviter les dangers potentiels

    Comment développer une « IA éthique » et éviter les dangers potentiels

    UNESCO a d’abord développé son Recommandations sur l’éthique de l’intelligence artificielle en 2021, alors qu’une grande partie du monde était préoccupée par une autre menace internationale, la COVID 19 pandémie. Les recommandations, qui ont été adoptées par les 194 États membres de l’UNESCO, contiennent des orientations concrètes sur la manière dont les fonds publics et privés peuvent être canalisés vers des programmes qui profitent à la société.

    Depuis lors, beaucoup de travail a été accompli pour mettre ces orientations en pratique, avec des législateurs, des experts et des représentants de la société civile se réunissant lors des forums de l’UNESCO pour partager des informations et rendre compte des progrès.

    Peu de temps après le forum 2024, qui s’est tenu en Slovénie début février, Conor Lennon de UN News s’est entretenu avec certains des participants : Aisen Etcheverry, ministre de la Science et de la Technologie du gouvernement chilien ; Irakli Khodeli, chef de l’unité d’éthique de l’IA à l’UNESCO ; et Mary Snapp, vice-présidente des initiatives stratégiques en matière d’IA chez Microsoft.

    Aisen Etcheverry : Nous avons été l’un des premiers pays non seulement à adopter les recommandations, mais également à les mettre en œuvre, avec un modèle garantissant que l’IA est utilisée de manière éthique et responsable. Ainsi, lorsque ChatGPT est arrivé sur le marché et que nous avons vu toutes les questions qu’il soulevait, nous avions déjà des centres de recherche experts en place et des capacités au sein du gouvernement. Nos entreprises travaillaient déjà avec l’IA et nous avions pratiquement toutes les pièces du puzzle pour aborder une discussion compliquée du côté de la réglementation.

    Au cours de la dernière année, les choses ont évolué et nous avons constaté une utilisation accrue de l’IA par le gouvernement et les agences. Nous avons donc lancé quelque chose de similaire à un décret, essentiellement des instructions sur la façon d’utiliser l’IA de manière responsable.

    Un bon exemple est celui de l’agence chargée de fournir des prestations sociales. Ils ont généré un modèle qui leur permet de prédire quelles personnes sont les moins susceptibles de demander les prestations auxquelles elles ont droit. Ensuite, ils envoient des gens rendre visite à ceux qui ont été identifiés, pour les informer de leurs droits. Je pense que c’est un bel exemple de la façon dont la technologie peut améliorer le secteur public, sans supprimer l’interaction humaine qui est si importante dans la manière dont les gouvernements et les citoyens interagissent.

    L’intelligence artificielle peut contribuer à lutter contre le changement climatique et à soutenir les progrès vers tous les ODD.

    Actualités de l’ONU : Que fait votre gouvernement pour protéger les citoyens de ceux qui souhaitent utiliser l’IA de manière nuisible ?

    Aisen Etcheverry : Les recommandations de l’UNESCO nous ont vraiment aidés à développer une réflexion critique sur l’IA et la réglementation. Nous avons mené des consultations publiques avec des experts et nous espérons pouvoir présenter un projet de loi au Congrès en mars.

    Nous avons également réfléchi à la manière dont nous pouvons former les gens, pas nécessairement à la programmation, mais pour responsabiliser ceux qui utilisent et conçoivent l’IA, afin qu’ils soient plus responsables des résultats, dans une perspective plus sociale.

    Sur un sujet connexe, il faut rappeler qu’il existe une fracture numérique : de nombreuses personnes n’ont pas accès aux outils numériques. Nous avons besoin d’une coopération régionale et internationale pour garantir qu’ils bénéficient de cette technologie.

    Irakli Khodeli : La lutte contre la fracture numérique constitue une grande partie des recommandations de l’UNESCO. L’une des idées fondamentales sur lesquelles repose l’agence est que la science et les fruits du progrès scientifique doivent être équitablement répartis entre tous les peuples. Cela sonne vrai pour l’intelligence artificielle, car elle est très prometteuse pour aider les humains à atteindre nos objectifs socio-économiques et de développement.

    C’est pourquoi il est important que, lorsque nous parlons de l’utilisation et du développement éthiques de l’IA, nous ne nous concentrions pas uniquement sur la partie du monde technologiquement avancée, où les entreprises utilisent réellement ces outils, mais que nous nous tournions également vers le monde entier. pays du Sud qui se trouvent à différents stades de développement, pour les impliquer dans cette conversation sur la gouvernance mondiale de l’IA.

    Photo ONU/Alba García Ruiz

    Le secrétaire général des Nations Unies, António Guterres (à droite), participe au Sommet sur la sécurité de l’IA à Londres, au Royaume-Uni.

    Marie Snapp : La technologie est un outil qui peut améliorer l’expérience humaine, ou elle peut être utilisée comme une arme. C’est vrai depuis l’imprimerie et c’est vrai maintenant. Il est donc très important pour nous, en tant qu’industrie, de veiller à ce qu’il y ait des failles de sécurité, que nous sachions ce que les ordinateurs peuvent faire, ce que la technologie peut faire, et ce qu’elle ne devrait pas faire.

    Franchement, dans le cas des médias sociaux, nous n’avons peut-être pas abordé les problèmes plus tôt ; c’est l’occasion de vraiment travailler ensemble dès le début, pour tenter d’atténuer ce qui pourrait être des effets négatifs supplémentaires, tout en reconnaissant l’énorme promesse de la technologie.

    Actualités de l’ONU : Lors de la réunion de l’UNESCO en Slovénie, Microsoft a signé un accord visant à développer l’IA selon des principes éthiques. Qu’est-ce que cela signifie en pratique ?

    Marie Snapp : En 2019, nous avons créé un bureau de l’IA responsable, qui siège au sein [Microsoft President] L’organisation de Brad Smith. Ce bureau dispose d’une équipe d’experts ; non seulement des experts en technologie, mais aussi des universitaires en sciences humaines, des sociologues et des anthropologues. Nous faisons des choses comme le « red teaming » [using ethical hackers to emulate real attacks on technology]encourageant l’IA à faire des choses nuisibles, afin que nous puissions atténuer cela.

    Nous ne partageons pas nécessairement exactement le fonctionnement de la technologie, mais nous voulons nous assurer de partager les mêmes principes avec nos concurrents. Travailler aux côtés de l’UNESCO est absolument essentiel pour faire ce travail dans le respect de l’humanité.

    Cette discussion est tirée du dernier épisode du podcast d’information phare de l’ONU, The Lid Is On, qui couvre les différentes manières dont l’ONU est impliquée dans les efforts mondiaux visant à rendre l’IA et d’autres formes de technologie en ligne plus sûres.

    Vous pouvez écouter (et maintenant regarder !) The Lid Is On, sur toutes les principales plateformes de podcast.

    Source link

    Author

    LAISSER UN COMMENTAIRE

    S'il vous plaît entrez votre commentaire!
    S'il vous plaît entrez votre nom ici

    - Advertisement -spot_img

    A lire