DH@LLM: Grands modèles de langage et humanités numériques
Colloque organisé par Alexandre Gefen (CNRS-Sorbonne Nouvelle), Glenn Roe (Sorbonne-Université), Ayla Rigouts Terryn (Université de Montréal) et Michael Sinatra (Université de Montréal).
Sorbonne Université, Sorbonne Center for Artificial Intelligence (SCAI),
Paris, 3-4 juillet 2025.
En collaboration avec l’Observatoire des textes, des idées et des corpus (ObTIC), le Centre de recherche interuniversitaire sur les humanités numériques (CRIHN) et Huma-Num.
Conférenciers pléniers :
Clarisse Bardiot (Université Rennes 2) et Geoffrey Rockwell (University of Alberta)
Les grands modèles de langage, qu’ils s’agissent des modèles grands public fortement alignés comme ChatGPT ou de modèles accessibles en Open Source, ont montré en quelques années leurs immenses capacités à traduire, analyser, récrire et synthétiser des documents ou encore produire du code informatique. Ils se sont imposés comme des outils d’augmentation linguistique et cognitive révolutionnaire. Si les Humanités Numériques ont très tôt utilisé des outils à base d’apprentissage machine (clustering des textes, topic modeling, embeddings et analyses vectorielles, etc.), quels peuvent être les usages des LLM ? Quelles tâches anciennes peuvent-ils accomplir, quels types d’analyses nouvelles peuvent-ils permettre ? Par-delà leur utilité par exemple pour l’identification des entités nommées, ou le sentiment analysis, tout laisse à penser qu’ils peuvent permettre des analyses textuelles inédites ou fortement accélérées (identification des personnages, classement des textes selon leurs modalités énonciatives, analyse de thématiques, etc. On pense aussi au gain de temps permis pour produire des scripts ou des visualisations par les possibilités de codages des IA. Plus loin, on peut imaginer que les outils de Retrieval Augmented Generation ou de fine-tuning peuvent augurer d’une manière de faire parler directement les textes sous la modalité de questions/réponses, ouvrant tout un champ d’analyse novateurs – sans parler de la possibilité de générer des images issues d’analyses textuelles. Mais quels sont aussi les biais de telles pratiques, si l’on pense aux problèmes d’explicabilité et de falsifiabilité posés par les LLM, prompte à produire des hallucinations.
Ce sont ces horizons que ce colloque veut ouvrir, en accueillant à la fois des réflexions générales et des expériences novatrices.
Les propositions sont à envoyer à glennroe@gmail.com">glennroe@gmail.com, gefen@fabula.org">gefen@fabula.org, ayla.rigouts.terryn@umontreal.ca">ayla.rigouts.terryn@umontreal.ca et michael.eberle.sinatra@umontreal.ca">michael.eberle.sinatra@umontreal.ca avant le 1er avril 2025.
DH@LLM: Large Language Models and Digital Humanities
Colloquium organized by Alexandre Gefen (CNRS-Sorbonne Nouvelle), Glenn Roe (Sorbonne-Université), Ayla Rigouts Terryn (Université de Montréal) and Michael Sinatra (Université de Montréal).
Sorbonne Université, Sorbonne Center for Artificial Intelligence (SCAI),
Paris, July 3-4, 2025
In association with l’Observatoire des textes, des idées et des corpus (ObTIC), Centre de recherche interuniversitaire sur les humanités numériques (CRIHN) et Huma-Num.
Plenary speakers :
Clarisse Bardiot (Université Rennes 2) and Geoffrey Rockwell (University of Alberta)
Large Language Models (LLMs)—whether widely-used, highly-aligned systems like ChatGPT or open-source alternatives—have, in just a few years, demonstrated remarkable capacities for translating, analyzing, rewriting, synthesizing documents, and even generating computer code. They have established themselves as revolutionary tools for augmenting our linguistic and cognitive capabilities. Digital Humanities (DH), which have long employed machine learning-based tools (such as text clustering, topic modeling, embeddings, and vectorial analyses), are now faced with a new question: how might LLMs be used within the field? What traditional tasks can they undertake, and what new forms of analysis might they enable? Beyond their utility for tasks such as named entity recognition or sentiment analysis, these models seem poised to facilitate unprecedented or significantly accelerated textual analyses—character identification, classification of texts based on narrative modalities, thematic analysis, and more. They also offer substantial efficiencies for tasks like scripting or creating visualizations through AI-driven code capacities. Looking further ahead, tools such as Retrieval-Augmented Generation or fine-tuning suggest the possibility of engaging directly with texts through question-and-answer modalities, opening up a whole new domain of innovative analysis—not to mention the potential to generate images informed by textual analysis. At the same time, these practices raise concerns, particularly around the biases inherent in LLMs and the challenges they pose to interpretablitiy, explainability and falsifiability, given their tendency to produce ‘hallucinations’.
This conference aims to explore these horizons by welcoming both general reflections and innovative experiments.
Proposals should be sent to glennroe@gmail.com">glennroe@gmail.com , gefen@fabula.org">gefen@fabula.org , ayla.rigouts.terryn@umontreal.ca">ayla.rigouts.terryn@umontreal.ca et michael.eberle.sinatra@umontreal.ca">michael.eberle.sinatra@umontreal.ca and michaelesinatra@gmail.com by April1, 2025.
Actualité
Appels à contributions
Publié le par Alexandre Gefen (Source : Alexandre Gefen )