lundi 27 août 2018

Pour construire la confiance dans l'intelligence artificielle, IBM veut que les développeurs prouvent que leurs algorithmes sont justes

Traduction d'un article paru en anglais sur https://futurism.com/trust-artificial-intelligence-ibm/


Nous faisons confiance aux algorithmes d'intelligence artificielle avec beaucoup de tâches vraiment importantes. Le biais algorithmique1 peut conduire à une surveillance excessive dans les zones à prédominance noire. les filtres automatisés sur les activistes des médias sociaux signalent les activistes tout en permettant aux groupes haineux de continuer à afficher des messages non contrôlés.
Comme il y a eu pas mal de problèmes causés par les biais algorithmiques, les experts ont proposé toutes sortes de solutions pour rendre l'intelligence artificielle plus juste et plus transparente afin qu'elle fonctionne pour tout le monde.
Ces solutions vont de la soumission des développeurs d'IA à des audits par des tiers, dans lesquels un expert évaluerait leur code et leurs données sources pour s'assurer que le système résultant ne perpétue pas les biais et préjugés de la société, au développement de tests pour s'assurer qu'un algorithme d'IA ne traite pas les gens différemment en fonction de critères tels que la race, le sexe ou la classe socio-économique.
Maintenant, les scientifiques d'IBM ont une nouvelle proposition de garantie qui, selon eux, rendra l'intelligence artificielle plus sûre, transparente, équitable et efficace. Ils proposent que, juste avant que les développeurs ne commencent à vendre un algorithme, ils publient une déclaration de conformité du fournisseur (SDoC). En tant que rapport ou manuel de l'utilisateur, le SDoC montrerait l'efficacité de l'algorithme lors de tests normalisés de performance, d'équité et de facteurs de risque, et de mesures de sécurité. Et ils devraient le mettre à la disposition de toute personne intéressée.
Dans un article de recherche récent, les scientifiques d'IBM soutiennent que ce genre de transparence pourrait aider à établir la confiance du public et rassurer les clients potentiels qu'un algorithme particulier fera ce qu'il est supposé faire sans tromper qui que ce soit en se basant sur des données de formation biaisées. Si un algorithme particulier semble susceptible de tromper quelqu'un, le client (et même les citoyens intéressés) serait idéalement capable de le dire à partir des résultats du test et choisir de ne pas l'utiliser.
Dans leur document, les scientifiques d'IBM s'inspirent des exemples donnés par les SDoC dans d'autres industries, qui sont rarement exigés par la loi mais sont encouragés afin d'empêcher les clients potentiels d'aller vers des concurrents plus transparents. Par exemple, les consommateurs peuvent faire confiance aux freins d'une voiture, aux capacités de pilotage automatique d'un avion, à la résilience d'un pont parce que ces choses sont testées de manière exhaustive sur la base de mesures standard bien connues. Et pourtant, il n'y a pas de test équivalent pour s'assurer que les outils d'intelligence artificielle fonctionneront comme on le prétend.
Les chercheurs proposent qu'un SDoC AI réponde à des questions comme : "L'ensemble de données et le modèle ont-ils été vérifiés pour les biais ? et le service a-t-il été vérifié pour sa robustesse contre les attaques adverses ? En général, les questions évalueraient un algorithme en fonction de sa performance plutôt que de vérifier ses composants ou son code comme le ferait un auditeur.
Demander aux développeurs de publier des SDoC ne résoudra pas tous les problèmes que présente notre dépendance croissante à l'IA. Nous savons comment les freins arrêtent une voiture en excès de vitesse, mais certains des algorithmes les plus complexes (comme ceux qui emploient des techniques d'apprentissage profond) peuvent être impénétrables. De plus, si un rapport de transparence basé sur des tests standardisés a un impact, tout le monde devra jouer le jeu.
Bien sûr, les développeurs seraient motivés pour commencer à publier des SDoCs si leurs concurrents le font. Mais le système ne fonctionnera que si les clients, les gouvernements et les entreprises qui utilisent l'IA montrent qu'ils se soucient réellement de ce que disent ces rapports. Un service de police comme le LAPD, qui a utilisé par le passé des algorithmes de police ouvertement racistes, se soucie-t-il suffisamment des détails d'un SDoC pour trouver un meilleur système ? La vérité, c'est qu'on ne sait pas encore.
Il est peu probable que ces rapports forcent quiconque à utiliser des algorithmes plus éthiques, ou même à les développer. Mais si vous combinez ces rapports avec d'autres outils comme les audits par des tiers, le public peut exiger des algorithmes qui traitent tout le monde équitablement.

Pour rendre l’IA plus équitable et sécuritaire, Microsoft annonce un outil pour détecter l'IA biaisée parce que nous continuons à faire de l'IA biaisée.



Pour en savoir plus sur les biais algorithmiques :


Aucun commentaire:

Enregistrer un commentaire