Je vais être un peu brut, mais la posture anti-IA de beaucoup de monde ici m'horripile. Pas que j'ai une affection particulière pour l'IA, même si comme des milliards d'autres humains je trouve ça pratique.
Mais vous savez. Je sais. Nous savons. Si ça cartonne c'est parce que c'est efficace et que ça répond à une demande.
L'argumentaire anti-IA dépolitise sa mise en oeuvre. Par exemple, discuter de comment la mettre entre les mains des citoyens pour la libérer de l'emprise du capital.
@raph permets moi de ne pas être d'accord (mais alors pas du tout) avec toi.
Il n'y a pas d'utilisation éthique des LLM (ce qu'on désigne abusivement IA en ce moment). C'est impossible de s'en servir hors de l'emprise du capital parce que justement, elle a besoin de toute la puissance du capitalisme pour fonctionner.
@orange_lux Pas vraiment. C'est parce qu'on s'interdit de l'imaginer autrement. Justement car on s'interdit d'en parler parce que "l'IA c'est mal".
On pourrait par exemple payer des gens pour fournir les modèles. Payer les auteurs pour les alimenter ou ne pas les piller du tout. On pourrait aussi socialiser l'outil. Ne pas en faire 200 en concurrence pour limiter la consommation. Mettre en place des bonnes pratiques comme les balises "no-robot" pour les moteurs de recherche.
@raph et je suis intimement convaincue que justement ça ne peut marcher que parce qu'ils se tamponnent de tout ça, et que par corollaire ça ne pourrait pas marcher s'ils avaient à respecter la loi.
Actuellement il est impossible d'avoir des modèles fonctionnels qui respectent les créateurices, parce qu'il est nécessaire de pomper illégalement tout le web pour avoir un corpus suffisamment large.
C'est pour ça qu'ils font passer des lois qui les autorisent encore et toujours plus à tout pomper, ou qu'ils sont obligés de traumatiser à vie leurs équipes de modération en les payant peu, sans soutien psychologique, pour filtrer les pires atrocités qu'on puisse trouver sur le web.
La technologie actuelle des LLM fait que pour une LLM généraliste, il est impossible d'avoir un résultat fonctionnel hors du capitalisme.
@orange_lux Mais justement !
On doit s’autoriser de sortir de la vision de « la technologie actuelle » mais pour se faire il faut qu’on puisse en discuter et pas juste se braquer au moindre « IA » ou « LLM » lu ou entendu.
@raph j'ai l'impression qu'en faisant ça, on rentrerait dans un piège : on dirait "on a besoin de l'IA, mais on veut fair une IA 'propre'".
Et mon propos c'est que justement, on n'a pas besoin de l'IA. C'est une impasse non seulement technologique mais humaine.
@raph Je peux te dire "je voudrais bien d'une IA fonctionnelle, mais je veux d'abord qu'on ait tout préparé en amont pour que ça n'ait d'impact négatif pour personne", mais ça implique tellement de choses (abolition du capitalisme, revenus universels non liés au travail, sécurité sociale couvrant tout sans conditions, etc) qu'in fine, l'IA qui arriverait par dessus je m'en fiche un peu.
Mais il n'y a à mon sens aucun moyen de faire les choses dans un ordre différent : il faut d'abord changer la société, et ensuite réfléchir à faire des IA éthiques.
@orange_lux Au même titre qu'on n'a pas besoin des ordinateurs quelles que soient leurs formes.
Ordinateurs qui, bien avant l'IA, ont véritablement commencé à détricoter les liens sociaux et encore plus depuis l’avènement du web qui a isolé les individus au point que l'amitié est en train de disparaître.
Sur le besoin matériel : On n'en a pas besoin. Comme 99% des objets qui nous entourent. Mais il est vrai que des envies ont beaucoup plus d'impacts négatifs que d'autres.
@raph j'ai envie de te dire que l'impact (écologique, humain, etc) des LLM est immensément plus élevé que celui qu'ont eu les ordinateurs.
https://khrys.eu.org/conferences/ia-libre-f%C3%A9minisme/
https://videos-libr.es/videos/watch/5f39263e-6b88-457b-83e8-41d7993d6bc1
@elzen Très bonne conférence au demeurant.
J'utilise le terme IA car c'est celui qui s'est imposé et que tout le monde comprend, mais du coup je contribue à sa diffusion et c'est le serpent qui se mord la queue ah ah.
Pour la fiabilité, on avait le même débat à propos de Wikipedia il y a seulement une dizaine d'années. Au final, il faut toujours en revenir au même rappel : Les sources doivent toujours être croisées.
Sur la question de la fiabilité, désolé, mais le débat qu'il y a eu à propos de Wikipédia n'était pas « le même », loin de là. Wikipédia est un outil géré collectivement, avec des règles de fonctionnement qu'on peut améliorer, et des contributeurices à qui ont peut apprendre à avoir les bons réflexes. Un outil type LLM/SRAS est un générateur aléatoire qui, par conception, ne peut pas prêter attention à la véracité de ce qu'il dit. Les deux ne fonctionnent pas du tout de la même manière, et le seul point commun entre les deux, c'est qu'il est question de fiabilité dedans. Encourager les gens à croiser les sources est une bonne pratique, évidemment, mais la question est loin de se limiter à ça.
- replies
- 1
- announces
- 0
- likes
- 2
@elzen Je ne sais pas si tu étais étudiant pendant l'émergence de Wikipedia, mais pour avoir été en fin de scolarité je peux t'assurer que c'était du même acabit. On aurait écouté les profs et les journalistes, Wikipedia n'existerait plus depuis cette époque.
Mais justement. Ce que je dis dans mon post initial c'est qu'on s'interdit de faire des LLM des outils gérés collectivement juste parce que le débat s'arrête à : "C'est nul c'est comme ça".
Et ça pose vraiment problème.
Alors, pour le coup, non seulement j'étais étudiant à l'époque, mais j'ai eu en cours la prof' dont les déclarations outrancières étaient cités sur la page Wikipédia rapportant le débat en question. Déclarations qu'elle a donc répété en live en ma présence. Donc oui, je vois parfaitement le niveau qui pouvait être atteint à l'époque.
Il n'empêche que le fait de porter sur la fiabilité (et, allez, disons aussi, de voir un certain nombre de gens participer sans rien paner au sujet) reste bien le seul et unique point commun qu'il y a entre ces deux débats. Pour le reste, on parle de deux choses au fonctionnement radicalement différent, donc c'est à peu près aussi pertinent que de comparer le débat sur les vaccins et celui sur l'homéopathie parce que dans les deux cas il y a des gens pas d'accord à propos de l'effet sur la santé.
Les erreurs sur Wikipédia sont des accidents, qui arrivent parce que les gens essayent globalement de fournir du contenu fiable mais que des erreurs arrivent en cours de route, on pourrait aussi comparer ça, notamment, au fait qu'un programme compte inévitablement des bugs, malgré tout le soin qu'on met dedans.
Les « erreurs » produites par un LLM relèvent exactement du même mécanisme que celui qui lui fait produire le reste du texte. Dans tous les cas on peut dire qu'il « hallucine », c'est seulement qu'on peut s'arranger pour que, en moyenne la plupart du temps, ces « hallucinations » soient assez proches de la réalité. Mettre les deux sur le même plan, c'est passer complètement à côté de la façon dont ces deux choses sont conçues.
@elzen @orange_lux @Khrys @raph passionnante cette conf, merci du partage