L’intelligence artificielle est au coeur de notre quotidien. Pourtant, elle n’est pas une technologie comme les autres ni un simple progrès technique. Elle contient une philosophie, une vision de la vie spécifique. Voici un ouvrage édifiant sur les risques de ce nouveau progrès scientifique.
L’intelligence artificielle est-elle amenée à égaler, voire à concurrencer, l’intelligence humaine?
La Silicon Valley aime à transmettre le mythe d’une intelligence artificielle toute puissante, alimentée par les succès récents de la discipline. Or si l’IA a une histoire et ce depuis le congrès de Darmouth qui lui donne naissance, c’est bien celle d’échecs successifs. Au fur et à mesure que la discipline s’est développé ses ambitions se sont réduites. En revanche il est vrai que dans des domaines très spécialisés, comme les jeux de sociétés ou la reconnaissance d’image, les algorithmes d’IA obtiennent en effet des performances supérieures. Mais cela n’a rien de spectaculaire: cela fait bien longtemps que par exemple les ordinateurs calculent mieux et plus vite que les humains.Nous sommes extrêmement loin d’une intelligence généraliste capable d’émuler l’intelligence humaine.
Ce qui peut être déstabilisant c’est le caractère versatile du deep learning, technologie fondée sur l’absorption d’une grande quantité de données qui peut s’adapter à des domaines très variés. En réalité les progrès récents de l’intelligence artificielle ne proviennent pas tant d’une réelle innovation mathématique - les méthodes sont dérivées de méthodes conçues dans les années 60 et améliorées dans les années 80 et 90 - que dans le coût décroissant du calcul et l’augmentation plus qu’exponentielle des données disponibles. Avec le deep learning, une sous-branche du machine learning, la machine devient capable de reconnaître des motifs - ou régularités dans des ensembles de données. Ces algorithmes deviennent de plus en plus précis au fur et à mesure qu’augmente la quantité de données sur lesquelles ils peuvent apprendre. En revanche, nous sommes extrêmement loin d’une intelligence généraliste capable d’émuler l’intelligence humaine. Par exemple l’IA ne peut apprendre que dans le domaine extrêmement réduit dans lequel on l’entraîne: il faut un entraînement spécifique à un algorithme pour distinguer un chat d’un chien, et un autre pour traduire un texte anglais en français mais pour l’instant on ne sait pas construire une IA capable d’alterner entre les deux fonctions. L’IA n’est pas non plus capable de construire des représentations: si l’on entraîne un algorithme à distinguer des images de chat d’un chien, il ne peut cependant comprendre que le chat est un animal, de la famille des mammifères, qu’il miaule. En revanche, l’émergence d’IA très spécialisées et meilleures dans leurs domaines étroits que l’être humain pose néanmoins de nombreux problèmes, sur l’organisation et la qualification de la force de travail, ou sur la façon dont l’homme cohabite avec l’IA, problèmes que nous tentons de décrire dans cet ouvrage.
Existe-t-il une «bonne» ou une «mauvaise» intelligence artificielle?
Une idée couramment partagée par les ingénieurs est que la technique est «neutre», ni bonne, ni mauvaise en soi, elle ne dépendrait que de l’usage que l’on en fait.L’intelligence artificielle amenuise notre autonomie, notre capacité à construire une expertise, et nous place en situation constante d’infériorité.
De nombreux philosophes, d’Heidegger à Ellul ont démontré technique s’inscrit dans un système qui modifie en profondeur notre rapport au monde. Par-là et indépendamment de la finalité de son usage, la technique peut être évaluée à l’aune des modifications qu’elle induit dans notre mode d’action sur le monde. De ce point de vue, nous soutenons que l’IA comporte de nombreuses conséquences négatives en ce qu’elle amenuise notre autonomie, notre capacité à construire une expertise, et nous place en situation constante d’infériorité. Ainsi même si les thuriféraires de l’IA aiment à rappeler qu’elle permet de détecter des cancers, et loin de nous la volonté de minimiser le rôle positif qu’elle peut jouer dans certains cas précis, nous souhaitons remettre en question le fait d’utiliser l’IA dans des domaines de plus en plus vastes. Cela dit il est évident que certaines sous technologies de l’IA sont intrinsèquement nocives et qu’au lieu de se questionner sur la façon de les contrôler, il vaudrait mieux directement les interdire. Ainsi en est-il de la reconnaissance faciale qui pose des problèmes criants à toute société démocratique!

Commentaires
Enregistrer un commentaire