Première rédaction de cet article le 3 avril 2026
Du 23 au 25 mars 2026, à l'université du Luxembourg s'est tenue la deuxième édition de UndoneCS (Undone in Computer Science), la conférence scientifique sur les recherches qui n'ont pas été faites.
L'idée de base est que la recherche scientifique ne se fait pas au hasard : il y a des sujets sur lesquels on travaille car ils sont passionnants, ou bien financés, ou demandés par les autorités supérieures, et il y a les sujets négligés, ou pas financés, ou qui passent « sous le radar ». L'appel à présentations demandait donc des exposés sur des sujets qui sont a priori utiles mais qui n'ont pas fait l'objet de recherches approfondies.
L'angle était bien sur la science, pas les applications. En informatique, il est facile de citer d'innombrables sujets qui ont fait l'objet d'une recherche scientifique sérieuse, mais où cette recherche n'a pas été suivie de déploiements effectifs. Et c'était un peu, à mon avis, un point faible de cette conférence, plusieurs exposés, pourtant très intéressants, portaient sur des sujets qui avaient été étudiés par la recherche, parfois au point d'être overdone. On ne peut pas dire, par exemple, que les questions sur l'empreinte environnementale du numérique, ou sur le pair-à-pair n'ont pas fait l'objet de recherche, même si, sur le terrain, ça n'a pas eu tellement de conséquences. Vous pouvez consulter tout le programme de la conférence.
Hop, assez de critiques, quelques mots sur les exposés qui m'ont le plus intéressé. D'abord, Viktoriia Makovska a travaillé sur un excellent sujet, la mémoire, et la résistance des systèmes informatiques à l'oubli. Tout le monde sait qu'il est difficile de supprimer réellement une donnée qu'on a enregistré. Même si on applique un droit à l'oubli, la donnée va rester dans les sauvegardes, dans les journaux, etc. Sans compter les malhonnêtetés comme celle d'Ashley Madison, qui ne supprimait pas réellement les comptes (alors qu'il fallait payer pour cela !) mais les marquait juste comme supprimés, ce qui n'a été dévoilé qu'après qu'un piratage ait fait fuiter le fichier. Mais l'oratrice est allé plus loin en observant qu'avec tous les systèmes d'apprentissage automatique, supprimer une donnée utilisée pour l'entrainement d'une machine ne lui fait pas oublier la donnée. Ainsi, si on a entrainé le système avec des messages envoyés sur un réseau social, et que certains messages étaient agressifs, cette aggressivité va se retrouver dans les textes générés (memory ghosts). Il ne s'agit donc pas seulement d'effacer mais aussi de désapprendre (machine unlearning). Si on veut vraiment permettre de supprimer, par exemple des informations fausses, il va falloir chercher des solutions (autre que de recommencer tout l'entrainement).
Si vous avez déjà utilisé des LLM (il existe encore des gens qui ne l'ont pas fait ?), vous savez qu'une de leurs grosses faiblesses est l'explicabilité. Le générateur affirme des choses mais a le plus grand mal à expliquer pourquoi il a dit cela, ce qui le rend inutilisable pour de nombreux usages, tous ceux où il faut pouvoir remettre en cause l'affirmation. Clément Arlotti a demandé à ce que la recherche se penche sur cette question, qui est très difficile puisque l'explicabilité demande de la séparabilité alors que le LLM, pendant son entrainement, a tout digéré et mélangé. Les marketeux qui vendent de l'IA se contentent d'affirmer que le progrès des LLM résoudra ce problème mais c'est un acte de foi, pas un résultat scientifique.
Comme exemple de la recherche guidée par les intérêts financiers de certains acteurs, Ryan Lahfa a cité le cas des systèmes de fichiers. Les travaux sur ce sujet sont typiquement financés par les grandes entreprises du Web, alors que leurs besoins ne sont pas forcément ceux des petits acteurs ou de l'auto-hébergement.
Baptiste Jonglez et Lucien Astié, qui travaillent pour le chaton Deuxfleurs (la page la plus frugale du Web) ont plutôt parlé des recherches sur la gouvernance des communs, qui pourraient tirer profit des communs réellement existants, comme ceux des hébergeurs Internet associatifs.
Nikolas Melissaris a fait remarquer qu'il n'y avait jamais de recherches faites sur l'efficacité des lois, par exemple celles de restrictions aux libertés sur l'Internet. On ne se soucie pas de savoir si la loi atteint ses buts ou pas. Négligence ? (Lisez son article.)
Et, sinon, le discours principal était fait par Payal Arora qui, entre autres, a estimé que pas mal de critiques de l'IA venaient de privilégiés qui, eux, n'avaient en effet pas forcément besoin de l'IA (par exemple parce qu'ils rédigeaient bien en anglais), mais négligeaient les besoins des autres. Par exemple, dans beaucoup de pays d'Afrique, les gens sont bien plus enthousiastes vis-à-vis de l'IA que dans les pays riches. Je n'ai pas lu son livre « From Pessimism to Promise », il faudrait que je regarde s'il n'y a pas également des critiques de ce techno-enthousiasme dans les pays du Sud.
Version PDF de cette page (mais vous pouvez aussi imprimer depuis votre navigateur, il y a une feuille de style prévue pour cela)
Source XML de cette page (cette page est distribuée sous les termes de la licence GFDL)