Les LLMs peuvent-ils améliorer la prise de décision collective ?
Ce que la recherche nous apprend
Résumé
Lorsqu'un groupe doit prendre une décision (dans une équipe, un atelier ou une organisation), on s'attend souvent à ce que le collectif fasse mieux que chacun de ses membres. L'arrivée des modèles de langage (LLMs) dans ces contextes soulève pourtant une question simple : l'IA améliore-t-elle réellement nos décisions... ou peut-elle parfois les dégrader ? À partir d'une expérience d'intelligence collective simple et reproductible, cette conférence montre comment l'usage naïf de l'IA peut conduire à des décisions très convaincantes en apparence, mais moins fiables en pratique. En s'appuyant sur les travaux récents de recherche sur l'intelligence collective et la délibération assistée par IA, nous analyserons dans quels cas l'IA affaiblit ou renforce une décision collective, et pourquoi ces effets dépendent avant tout de la manière dont elle est intégrée. La conférence propose enfin une grille de lecture pour penser l'IA comme un outil de facilitation plutôt que comme une autorité, et aider les équipes à concevoir des dispositifs collectifs plus robustes et plus transparents.
Format
Présentation suivie d'une Q&R · Conférence technique (45 min)
Public cible
Équipes data, décideurs, passionnés de technologie. Aucun pré-requis technique spécifique.
Prérequis
Aucun pré-requis technique spécifique