Technologie - Bonne IA, mauvaise IA : décoder l’intelligence artificielle responsable

 L’intelligence artificielle (IA) est très en vogue en ce moment. ChatGPT, DALL-E et d'autres plates-formes basées sur l'IA nous offrent des méthodes de travail complètement nouvelles. L'IA générative écrit tout, des lettres de motivation aux stratégies de campagne, et crée des images impressionnantes à partir de zéro. Images amusantes mises à part, de vraies questions sont posées par les régulateurs internationaux, les dirigeants mondiaux, les chercheurs et l’industrie technologique sur les risques posés par l’IA.

L’IA soulève de grandes questions éthiques, en partie parce que les humains sont des créatures biaisées. Ce biais peut être amplifié lorsque nous formons l’IA. Des données mal sourcées ou mal gérées et manquant de représentation diversifiée peuvent conduire à une discrimination active par l’IA. Nous avons constaté des biais dans les systèmes de reconnaissance faciale de la police, qui peuvent identifier à tort les personnes de couleur, ou dans les évaluations de prêts immobiliers qui rejettent de manière disproportionnée certains groupes minoritaires. Ce sont des exemples de dommages réels causés par l’IA, pour lesquels les freins et contrepoids appropriés de l’IA n’ont pas été évalués avant le lancement. La désinformation générée par l’IA, comme les hallucinations et les deepfakes, est également une priorité pour les gouvernements, les dirigeants mondiaux et les utilisateurs de technologies. Personne ne veut que son visage ou sa voix soient usurpés en ligne. La grande question est la suivante : comment pouvons-nous exploiter l’IA à bon escient, tout en évitant les dommages ?

Liming Zhu et Qinghua Lu sont des leaders dans l'étude de l'IA responsable au CSIRO et co-auteurs du livre « Responsible AI : Meilleures pratiques pour créer des systèmes d'IA fiables. » Ils définissent l’IA responsable comme la pratique consistant à développer et à utiliser des systèmes d’IA d’une manière qui apporte des avantages aux individus, aux groupes et à la société dans son ensemble, tout en minimisant le risque de conséquences négatives. En consultation avec les communautés, le gouvernement et l’industrie, nos chercheurs ont élaboré huit principes volontaires d’éthique de l’IA. Ils sont destinés à aider les développeurs et les organisations à créer et à déployer une IA sûre, sécurisée et fiable.

Ce principe explique que tout au long de leur cycle de vie, les systèmes d’IA devraient bénéficier aux individus, à la société et à l’environnement. De l’utilisation de l’IA pour améliorer le diagnostic des radiographies pulmonaires aux outils de détection des déchets par l’IA pour protéger nos cours d’eau, il existe de nombreux exemples d’IA pour le bien. Pour prévenir les dommages, les développeurs d’IA doivent réfléchir aux impacts potentiels de leur technologie – positifs et négatifs – afin de pouvoir les hiérarchiser et les gérer.

Les systèmes d’IA doivent respecter les droits de l’homme, la diversité et l’autonomie des individus. Cela crée des systèmes d’IA transparents et explicables intégrés aux valeurs humaines. Nos chercheurs ont découvert que cela valait la peine pour les entreprises : les avis négatifs étaient liés à des valeurs humaines ignorées comme le plaisir de la vie ou l'obéissance pour les utilisateurs d'Alexa d'Amazon. Mais ce n’est pas toujours facile, car différents groupes d’utilisateurs ont des besoins différents. Prenez Seeing AI de Microsoft, qui utilise la vision par ordinateur pour aider les personnes malvoyantes. Selon un rapport de l'entreprise, la fonctionnalité la plus recherchée par ce groupe d'utilisateurs était la capacité de reconnaître les personnes dans les espaces publics. Pour des raisons de confidentialité, cette fonctionnalité a été refusée.

Les systèmes d’IA doivent être inclusifs et accessibles. Leur utilisation ne doit pas impliquer ou entraîner une discrimination injuste à l'encontre d'individus, de communautés ou de groupes. La technologie de reconnaissance faciale d'Amazon a été critiquée pour son potentiel d'utilisation à des fins de surveillance de masse, de profilage racial et pour son identification moins précise des personnes de couleur et des femmes que les hommes blancs. Les impacts sociétaux de l’IA doivent être pris en compte. Il convient de solliciter l’avis et les conseils des communautés touchées par l’IA avant qu’une technologie potentiellement controversée ne devienne réalité.

Les systèmes d’IA doivent respecter et faire respecter le droit à la vie privée. Vos données personnelles ne doivent être demandées et collectées que lorsque cela est nécessaire et doivent être correctement stockées et protégées contre les attaques. Malheureusement, cela n'a pas toujours été respecté par les développeurs. Clearview AI a enfreint les lois australiennes sur la confidentialité en récupérant des informations biométriques sur le Web sans consentement et en les utilisant dans son outil de reconnaissance faciale.

Les systèmes d’IA doivent fonctionner de manière fiable conformément à leur objectif prévu. Un bon moyen pour les entreprises de prévenir les dommages consiste à mener des études pilotes auprès des utilisateurs prévus dans des espaces sûrs avant que la technologie ne soit diffusée auprès du public. Cela permet d’éviter des situations comme le fameux chatbot Tay. Tay a fini par générer des discours de haine racistes et sexistes en raison d’une vulnérabilité imprévue et donc non testée du système.

L’utilisation de l’IA doit être transparente et clairement divulguée. Les gens doivent être capables de comprendre les impacts et les limites de l’outil qu’ils utilisent. Par exemple, les entreprises pourraient préciser que leurs chatbots peuvent « halluciner » en générant des réponses incorrectes ou absurdes. Les utilisateurs pourraient également être encouragés à vérifier les informations qu’ils reçoivent.

Contestabilité

Les systèmes d’IA peuvent avoir un impact significatif sur une personne, une communauté, un groupe ou un environnement. Dans de tels cas, il devrait y avoir un processus rapide pour permettre aux personnes de contester l’utilisation ou les résultats du système d’IA. Cela peut inclure un formulaire de rapport ou un bouton permettant de s’opposer, de remettre en question ou de signaler une IA irresponsable.

Responsabilité

Les personnes responsables de toutes les parties de l’IA, du développement au déploiement, doivent être identifiables et responsables, les humains assurant la surveillance des systèmes d’IA. Recherchez les outils développés par ceux qui promeuvent et récompensent les comportements éthiques et responsables en matière d’IA dans les entreprises, en particulier au niveau de la direction.

Comment détecter les mauvais comportements d’une IA et que pouvez-vous faire pour y remédier ?

Bien que l’IA puisse être un excellent outil général, utiliser des algorithmes d’IA pour déterminer des situations à enjeux élevés pour des individus spécifiques n’est pas une bonne idée. Dans un exemple américain, une peine de prison plus longue a été infligée à un individu sur la base d’une décision algorithmique.

« Les systèmes d'IA à boîte noire comme ceux-ci empêchent les utilisateurs et les parties concernées de comprendre et de s'opposer à la façon dont les décisions qui les affectent ont été prises », a déclaré Qinghua. "Compte tenu de la complexité et de l'autonomie de l'IA, il n'est pas toujours possible de vérifier pleinement le respect de tous les principes de l'IA responsable avant son déploiement", a prévenu Liming "Cela rend critique la surveillance de l'IA par les utilisateurs. Nous exhortons tous les utilisateurs à dénoncer et à signaler toute violation au fournisseur de services ou aux autorités et à tenir les fournisseurs de services et de produits d'IA responsables pour nous aider à construire le meilleur avenir possible en matière d'IA."