Nous faisons
confiance aux algorithmes d'intelligence artificielle avec beaucoup
de tâches vraiment importantes. Le biais algorithmique1
peut conduire à une surveillance excessive dans les zones à
prédominance noire. les filtres automatisés sur les activistes des
médias sociaux signalent les activistes tout en permettant aux
groupes haineux de continuer à afficher des messages non contrôlés.
Comme il y a eu pas
mal de problèmes causés par les biais algorithmiques, les experts
ont proposé toutes sortes de solutions pour rendre l'intelligence
artificielle plus juste et plus transparente afin qu'elle fonctionne
pour tout le monde.
Ces solutions vont
de la soumission des développeurs d'IA à des audits par des tiers,
dans lesquels un expert évaluerait leur code et leurs données
sources pour s'assurer que le système résultant ne perpétue pas
les biais et préjugés de la société, au développement de tests
pour s'assurer qu'un algorithme d'IA ne traite pas les gens
différemment en fonction de critères tels que la race, le sexe ou
la classe socio-économique.
Maintenant, les scientifiques d'IBM ont une nouvelle proposition de garantie qui, selon eux, rendra l'intelligence artificielle plus sûre, transparente, équitable et efficace. Ils proposent que, juste avant que les développeurs ne commencent à vendre un algorithme, ils publient une déclaration de conformité du fournisseur (SDoC). En tant que rapport ou manuel de l'utilisateur, le SDoC montrerait l'efficacité de l'algorithme lors de tests normalisés de performance, d'équité et de facteurs de risque, et de mesures de sécurité. Et ils devraient le mettre à la disposition de toute personne intéressée.
Dans un article de recherche récent, les scientifiques d'IBM soutiennent que ce genre de transparence pourrait aider à établir la confiance du public et rassurer les clients potentiels qu'un algorithme particulier fera ce qu'il est supposé faire sans tromper qui que ce soit en se basant sur des données de formation biaisées. Si un algorithme particulier semble susceptible de tromper quelqu'un, le client (et même les citoyens intéressés) serait idéalement capable de le dire à partir des résultats du test et choisir de ne pas l'utiliser.
Maintenant, les scientifiques d'IBM ont une nouvelle proposition de garantie qui, selon eux, rendra l'intelligence artificielle plus sûre, transparente, équitable et efficace. Ils proposent que, juste avant que les développeurs ne commencent à vendre un algorithme, ils publient une déclaration de conformité du fournisseur (SDoC). En tant que rapport ou manuel de l'utilisateur, le SDoC montrerait l'efficacité de l'algorithme lors de tests normalisés de performance, d'équité et de facteurs de risque, et de mesures de sécurité. Et ils devraient le mettre à la disposition de toute personne intéressée.
Dans un article de recherche récent, les scientifiques d'IBM soutiennent que ce genre de transparence pourrait aider à établir la confiance du public et rassurer les clients potentiels qu'un algorithme particulier fera ce qu'il est supposé faire sans tromper qui que ce soit en se basant sur des données de formation biaisées. Si un algorithme particulier semble susceptible de tromper quelqu'un, le client (et même les citoyens intéressés) serait idéalement capable de le dire à partir des résultats du test et choisir de ne pas l'utiliser.
Dans leur document,
les scientifiques d'IBM s'inspirent des exemples donnés par les SDoC
dans d'autres industries, qui sont rarement exigés par la loi mais
sont encouragés afin d'empêcher les clients potentiels d'aller vers
des concurrents plus transparents. Par exemple, les consommateurs
peuvent faire confiance aux freins d'une voiture, aux capacités de
pilotage automatique d'un avion, à la résilience d'un pont parce
que ces choses sont testées de manière exhaustive sur la base de
mesures standard bien connues. Et pourtant, il n'y a pas de test
équivalent pour s'assurer que les outils d'intelligence artificielle
fonctionneront comme on le prétend.
Les chercheurs
proposent qu'un SDoC AI réponde à des questions comme : "L'ensemble
de données et le modèle ont-ils été vérifiés pour les biais ?
et le service a-t-il été vérifié pour sa robustesse contre les
attaques adverses ? En général, les questions évalueraient un
algorithme en fonction de sa performance plutôt que de vérifier ses
composants ou son code comme le ferait un auditeur.
Demander aux
développeurs de publier des SDoC ne résoudra pas tous les problèmes
que présente notre dépendance croissante à l'IA. Nous savons
comment les freins arrêtent une voiture en excès de vitesse, mais
certains des algorithmes les plus complexes (comme ceux qui emploient
des techniques d'apprentissage profond) peuvent être impénétrables.
De plus, si un rapport de transparence basé sur des tests
standardisés a un impact, tout le monde devra jouer le jeu.
Bien sûr, les développeurs seraient motivés pour commencer à publier des SDoCs si leurs concurrents le font. Mais le système ne fonctionnera que si les clients, les gouvernements et les entreprises qui utilisent l'IA montrent qu'ils se soucient réellement de ce que disent ces rapports. Un service de police comme le LAPD, qui a utilisé par le passé des algorithmes de police ouvertement racistes, se soucie-t-il suffisamment des détails d'un SDoC pour trouver un meilleur système ? La vérité, c'est qu'on ne sait pas encore.
Bien sûr, les développeurs seraient motivés pour commencer à publier des SDoCs si leurs concurrents le font. Mais le système ne fonctionnera que si les clients, les gouvernements et les entreprises qui utilisent l'IA montrent qu'ils se soucient réellement de ce que disent ces rapports. Un service de police comme le LAPD, qui a utilisé par le passé des algorithmes de police ouvertement racistes, se soucie-t-il suffisamment des détails d'un SDoC pour trouver un meilleur système ? La vérité, c'est qu'on ne sait pas encore.
Il est peu probable
que ces rapports forcent quiconque à utiliser des algorithmes plus
éthiques, ou même à les développer. Mais si vous combinez ces
rapports avec d'autres outils comme les audits par des tiers, le
public peut exiger des algorithmes qui traitent tout le monde
équitablement.
Pour rendre l’IA
plus équitable et sécuritaire, Microsoft annonce un outil pour
détecter l'IA biaisée parce que nous continuons à faire de l'IA
biaisée.
Traduit avec
www.DeepL.com/Translator
Pour
en savoir plus sur les biais algorithmiques :
Aucun commentaire:
Enregistrer un commentaire