Raccourcis:

Aller directement au contenu (Alt 1) Aller directement à la navigation principale (Alt 2)

Intelligence artificielle
Les algorithmes, des recettes de cuisine

Le code source fonctionne un peu comme une recette de cuisine : les algorithmes façonnent notre quotidien.
Le code source fonctionne un peu comme une recette de cuisine : les algorithmes façonnent notre quotidien. | Photo (détail): © Adobe

Pour préparer un bon petit plat, il faut choisir les ingrédients avec soin. Dans cet entretien, l’expert en algorithmes Sebastian Schelter explique l’influence de l’intelligence artificielle sur notre vie et comment cette technologie est capable de prendre des décisions à notre place.

De Johannes Zeller

L’intelligence artificielle (IA) et des ordinateurs qui auto-apprennent : des éléments qui sont aujourd’hui bien ancrés dans notre quotidien même si cela ressemble toujours encore un peu à de la science-fiction. Les algorithmes ne définissent pas uniquement ce que nous allons regarder ou écouter en streaming, dans certains pays, ils décident qui recevra un crédit ou calculent la probabilité de récidive d’un délinquant. Mais qu’est-ce qu’un algorithme en réalité ? Quelle influence l’IA exerce-t-elle sur notre vie ?

Recette de base : l’algorithme

« Tout d’abord, l’algorithme est une succession d’étapes. On peut se le représenter comme une recette de cuisine : au départ, on retrouve les ingrédients, les saisies du programme informatique. La recette décrit pas à pas ce qu’il doit se passer afin de préparer un bon repas », explique l’expert en algorithmes Sebastian Schelter, chercheur en gestion des données et en apprentissage automatique à l’université d’Amsterdam.

Vu sous cet angle, les algorithmes ne sont pas une grande nouveauté, ils suivent le même principe que n’importe quel autre programme informatique. Mais aujourd’hui, quand nous parlons de l’influence grandissante des algorithmes, nous nous intéressons particulièrement à l’apprentissage automatique. « Dans le cadre d’un programme classique, lorsqu’il faut résoudre un problème, c’est l’homme qui dicte les étapes à la machine. Toutefois, certains problèmes sont trop complexes pour que nous puissions décrire précisément à l’ordinateur comment les résoudre », précise l’expert. C’est pourquoi une autre méthode s’impose : celle de l’apprentissage automatique. 
 Sebastian Schelter a obtenu son doctorat à l’université technique de Berlin avant de devenir chercheur à l’université de New York et pour Amazon. Aujourd’hui professeur assistant à l’université d’Amsterdam, il étudie les problèmes liés à l’interface de gestion des données et de l’apprentissage automatique. Sebastian Schelter a obtenu son doctorat à l’université technique de Berlin avant de devenir chercheur à l’université de New York et pour Amazon. Aujourd’hui professeur assistant à l’université d’Amsterdam, il étudie les problèmes liés à l’interface de gestion des données et de l’apprentissage automatique. | Photo: © Sebastian Schelter

Cuisiner pour les pros : l’algorithme apprenant

Schelter décrit le problème qui se pose : « Prenons un exemple très simple : les filtres anti-spam qui différencient les courriers publicitaires des messages personnels. Pour la personne qui conçoit ce programme informatique, ce n’est vraiment pas simple. Différents critères et règles peuvent être fixés pour reconnaître théoriquement les publicités, que ce soit l’heure d’envoi, ou encore la présence de certains mots dans le message. Pourtant, à un moment ou un autre, la capacité humaine atteint ses limites. »

C’est pourquoi, dans le cadre de l’apprentissage automatique, l’ordinateur n’est plus programmé de manière explicite, mais il est confronté à des exemples. Et c’est seul qu’il trouvera la meilleure manière de résoudre le problème. Au lieu de lui donner toute la recette, le programmeur ne lui montre que le résultat final qu’il attend du programme.

« Dans notre exemple, il peut s’agir de la saisie de 1000 e-mails que l’utilisateur souhaite recevoir, et de quelques exemples négatifs de courriers publicitaires qu’il ne veut pas recevoir », continue Schelter. « L’algorithme se base ensuite sur ces exemples pour estimer la probabilité qu’un nouvel e-mail soit ou non un courrier indésirable. La grande différence, c’est que dans le cadre de la programmation classique, une personne fixe précisément les étapes, alors que dans le cas de l’apprentissage automatique, l’algorithme apprenant se base sur des exemples et des statistiques de probabilité pour fixer lui-même ses propres critères de sélection. »
 

Berné par l’IA

Non seulement les algorithmes d’apprentissage automatique répondent bien plus rapidement aux problèmes qu’un être humain, mais ils les résolvent aussi bien mieux. En 2019, lorsque le programme Pluribus a remporté une partie de poker face à des joueurs professionnels, l’IA a démontré qu’elle pouvait même apprendre à bluffer mieux qu’une vraie personne. À mesure que ses capacités se multiplient, son influence ne fait que croître. Que ce soit dans le monde de la santé, des finances ou encore de la justice.

En Allemagne aussi, la majorité de la population se retrouve chaque jour face aux décisions d’algorithmes intelligents. « D’un point de vue scientifique, il s’agit d’un procédé mathématique abstrait qui peut s’appliquer à de nombreux domaines. Par exemple, pour déterminer la probabilité qu’une personne précise rembourse son crédit », poursuit Schelter.

Dans des pays tels que les États-Unis et l’Australie, les algorithmes sont soupçonnés de faire preuve de discrimination à l’égard de certaines ethnies. « Cela s’explique en partie par le fait que les données prises comme exemple par l’algorithme sont déjà discriminatoires. Si on le laisse avancer à l’aveuglette, il est normal que l’algorithme reproduise cette discrimination. » C’est là que se trouve la racine du problème selon l’expert.
 

Un algorithme qui a du tact ?

Le plus important c’est que les limites des algorithmes et de l’IA ne doivent pas être fixées sur base de considérations techniques, mais bien éthiques. Ou l’algorithme serait-il capable d’apprendre à faire preuve « d’un peu de tact » ?

« Cette question représente un réel problème aujourd’hui. Personnellement, je pense que dans certains domaines, les conséquences d’une mauvaise décision de l’algorithme ne sont pas dramatiques. Si mon service de streaming me propose la mauvaise chanson par exemple. Et puis il y a d’autres domaines où on peut utiliser l’algorithme pour avoir ses recommandations, mais où la décision finale doit revenir à un être humain. Et il y encore d’autres domaines pour lesquels il vaut tout simplement mieux que la décision revienne uniquement à une personne », précise Schelter.

« Aux États-Unis, des algorithmes sont utilisés pour déterminer la probabilité qu’un détenu récidive. Les tribunaux et les commissions ont accès à ces données avant de se prononcer sur une éventuelle libération anticipée. » Une question s’impose : est-ce bien équitable ?

Les mathématiques sont bien impuissantes face aux questions de justice et d’équité étant donné qu’il s’agit davantage de questions philosophiques, politiques et juridiques. Chacun a sa propre définition de ce qui est juste ou pas, et il est mathématiquement impossible de se conformer à toutes ces définitions en même temps. »

Des études se sont penchées sur l’aspect équitable des décisions prises par les algorithmes, et leurs conclusions aussi montrent que les algorithmes ont encore beaucoup à apprendre en matière de tact. Dans de nombreux domaines, il importe de se mettre d’abord d’accord aux niveaux éthique, politique et juridique sur la manière dont la « bonne » décision doit être prise. Ce n’est qu’à ce moment-là que l’on peut faire confiance à l’algorithme pour accomplir cette tâche. « Néanmoins, il reste toujours une question éthique et politique : devons-nous vraiment le faire juste parce qu’on le peut ? », conclut Schelter.