<?xml version="1.0" encoding="utf-8"?>
<entry title="La conférence UndoneCS de 2026">
  <date>2026-04-03</date>
<content>
  <p>Du 23 au 25 mars 2026, à l'<wikipedia name="Université du Luxembourg">université du
  Luxembourg</wikipedia> s'est tenue la deuxième édition de <link
  url="https://www.undonecs.org/">UndoneCS</link> (<foreign>Undone in
  Computer Science</foreign>), la conférence scientifique sur les
  recherches qui n'ont <emphasis>pas</emphasis> été faites.</p>
  <p>L'<link
  url="https://mitpress.mit.edu/9780262529495/undone-science/">idée de
  base</link> est que la recherche scientifique ne se fait pas au
  hasard : il y a des sujets sur lesquels on travaille car ils sont
  passionnants, ou bien financés, ou demandés par les autorités
  supérieures, et il y a les sujets négligés, ou pas financés, ou qui
  passent « sous le radar ». L'<link
  url="https://www.undonecs.org/2026/cfp.html">appel à
  présentations</link> demandait donc des exposés sur des sujets qui
  sont a priori utiles mais qui n'ont pas fait l'objet de recherches
  approfondies.</p>
  <p>L'angle était bien sur la science, pas les applications. En
  <wikipedia>informatique</wikipedia>, il est facile de citer
  d'innombrables sujets qui ont fait l'objet d'une recherche
  scientifique sérieuse, mais où cette recherche n'a pas été suivie de
  déploiements effectifs. Et c'était un peu, à mon avis, un point
  faible de cette conférence, plusieurs exposés, pourtant très
  intéressants, portaient sur des sujets qui avaient été étudiés par
  la recherche, parfois au point d'être
  <foreign>overdone</foreign>. On ne peut pas dire, par exemple, que
  les questions sur l'empreinte environnementale du numérique, ou sur
  le <wikipedia>pair-à-pair</wikipedia> n'ont pas fait l'objet de
  recherche, même si, sur le terrain, ça n'a pas eu tellement de
  conséquences. Vous pouvez consulter <link
  url="https://www.undonecs.org/2026/programme.html">tout le programme
  de la conférence</link>.</p>
  <p>Hop, assez de critiques, quelques mots sur les exposés qui m'ont
  le plus intéressé. D'abord, <link
  url="https://apps.ucu.edu.ua/en/teachers/viktoriia-makovska/">Viktoriia
  Makovska</link> a travaillé sur un excellent sujet, la mémoire, et
  la résistance des systèmes informatiques à l'oubli. Tout le monde
  sait qu'il est difficile de supprimer réellement une donnée qu'on a
  enregistré. Même si on applique un <wikipedia name="Droit à l'oubli">droit à
  l'oubli</wikipedia>, la donnée va rester dans les
  <wikipedia name="Sauvegarde (informatique)">sauvegardes</wikipedia>, dans les
  <wikipedia name="Historique (informatique)">journaux</wikipedia>, etc. Sans compter les malhonnêtetés
  comme celle d'<wikipedia>Ashley Madison</wikipedia>, qui ne
  supprimait pas réellement les comptes (alors qu'il fallait payer
  pour cela !) mais les marquait juste comme supprimés, ce qui n'a été
  dévoilé qu'après qu'un piratage ait fait fuiter le fichier. Mais
  l'oratrice est allé plus loin en observant qu'avec tous les systèmes
  d'<wikipedia name="Apprentissage automatique">apprentissage
  automatique</wikipedia>, supprimer une donnée utilisée pour
  l'entrainement d'une machine ne lui fait pas oublier la
  donnée. Ainsi, si on a entrainé le système avec des messages envoyés
  sur un réseau social, et que certains messages étaient agressifs,
  cette aggressivité va se retrouver dans les textes générés
  (<foreign>memory ghosts</foreign>). Il ne s'agit donc pas seulement
  d'effacer mais aussi de désapprendre (<foreign>machine
  unlearning</foreign>). Si on veut vraiment permettre de supprimer,
  par exemple des informations fausses, il va falloir chercher des
  solutions (autre que de recommencer tout l'entrainement).</p>
  <p>Si vous avez déjà utilisé des <wikipedia name="Grand modèle de
  langage">LLM</wikipedia> (il existe encore des gens qui ne l'ont pas
  fait ?), vous savez qu'une de leurs grosses faiblesses est
  l'explicabilité. Le générateur affirme des choses mais a le plus
  grand mal à expliquer pourquoi il a dit cela, ce qui le rend
  inutilisable pour de nombreux usages, tous ceux où il faut pouvoir
  remettre en cause l'affirmation. Clément Arlotti a demandé à ce que
  la recherche se penche sur cette question, qui est très difficile
  puisque l'explicabilité demande de la séparabilité alors que le LLM,
  pendant son entrainement, a tout digéré et mélangé. Les marketeux
  qui vendent de l'IA se contentent d'affirmer que le progrès des LLM
  résoudra ce problème mais c'est un acte de foi, pas un résultat
  scientifique.</p>
  <p>Comme exemple de la recherche guidée par les intérêts financiers
  de certains acteurs, Ryan Lahfa a cité le cas des
  <wikipedia name="Système de fichiers">systèmes de fichiers</wikipedia>. Les travaux sur ce
  sujet sont typiquement financés par les grandes entreprises du Web,
  alors que leurs besoins ne sont pas forcément ceux des petits
  acteurs ou de l'auto-hébergement.</p>
  <p>Baptiste Jonglez et Lucien Astié, qui travaillent pour le
  <wikipedia name="Collectif des hébergeurs alternatifs, transparents,
  ouverts, neutres et solidaires">chaton</wikipedia> Deuxfleurs (la
  <link url="https://deuxfleurs.fr/">page la plus frugale du
  Web</link>) ont plutôt parlé des recherches sur la gouvernance des
  <wikipedia>communs</wikipedia>, qui pourraient tirer profit des
  communs réellement existants, comme ceux des hébergeurs Internet
  associatifs.</p>
  <p>Nikolas Melissaris a fait remarquer qu'il n'y avait jamais de
  recherches faites sur l'efficacité des lois, par exemple celles de
  restrictions aux libertés sur l'Internet. On ne se soucie pas de
  savoir si la loi atteint ses buts ou pas. Négligence ?  (Lisez <link
  url="https://eprint.iacr.org/2025/1951.pdf">son article</link>.)</p>
  <p>Et, sinon, le <wikipedia name="Discours principal">discours
  principal</wikipedia> était fait par <wikipedia xml:lang="en"
  name="Payal Arora">Payal Arora</wikipedia><!--
  https://payalarora.com/ --> qui, entre autres, a estimé que pas mal
  de critiques de l'<wikipedia name="Intelligence
  artificielle">IA</wikipedia> venaient de privilégiés qui, eux,
  n'avaient en effet pas forcément besoin de l'IA (par exemple parce
  qu'ils rédigeaient bien en anglais), mais négligeaient les besoins
  des autres. Par exemple, dans beaucoup de pays d'Afrique, les gens
  sont bien plus enthousiastes vis-à-vis de l'IA que dans les pays
  riches. Je n'ai pas lu son livre « <foreign><link
  url="https://mitpress.mit.edu/9780262049306/from-pessimism-to-promise/">From
  Pessimism to Promise</link></foreign> », il faudrait que je regarde
  s'il n'y a pas également des critiques de ce techno-enthousiasme
  dans les pays du Sud.</p>
  <p>On a parlé de bien d'autres choses
  (même de <wikipedia name="Plan 9 from Bell Labs">Plan 9</wikipedia> et de
  <wikipedia name="Forth (langage)">Forth</wikipedia><!-- https://permacomputing.net/ -->),
  je ne peux pas tout raconter.  Voilà, prochaine édition dans deux
  ans, commencez à réfléchir aux sujets « non faits » !</p>
<!--
Premier jour :
https://mastodon.gougere.fr/@bortzmeyer/116277140328209667
Deuxième jour : https://mastodon.gougere.fr/@bortzmeyer/116282778247671724 
Troisième jour :
https://mastodon.gougere.fr/@bortzmeyer/116288680783137047
-->
</content>
</entry>
