Appel à contributions – Numéro spécial d’AI-Linguistica: "La notion d’authenticité dans les productions hybrides humain/IA", dir. Sophia Burnett (Université de Lorraine) & Sílvia Lima Gonçalves Araújo (Universidade do Minho).

2025-04-24

La notion d'authenticité est liée à celles d'identité et de vérité. Elle se trouve aujourd’hui reconfigurée dans le contexte des productions hybrides entre l’humain et l’intelligence artificielle. Alors que le grand public tend à appréhender l’intelligence artificielle comme un tout supérieur à la somme de ses parties, il est important de rappeler que cette gestalt, qui désigne simplement la capacité générative de modèles computationnels (LLM), ne produit pas un langage ancré dans des vécus incarnés (Burnett, 2024), mais s'appuie sur des milliards de tokens issus de sources disparates (Zhao et al., 2023), souvent collectés sans autorisation (Baack et al., 2025). En d'autres termes, ces productions sont des amalgames de signes, de symboles, ou d'images, résultant de calculs statistiques et non d'expériences vécues ou de réflexions incarnées ‘premières’. L’authenticité des productions hybrides est une problématique qui réunit cognitivistes et générativistes. Lakoff (1986/2008) apposait production computationnelle et production humaine, rejetant le modèle de l’ordinateur-cerveau, et selon Chomsky et al., (2023), “we know from the science of linguistics and the philosophy of knowledge that they differ profoundly from how humans reason and use language.”[« nous savons, grâce à la linguistique et à la philosophie de la connaissance, qu'ils diffèrent profondément de la façon dont les humains raisonnent et utilisent le langage. »].

Afin d'appliquer toute analyse de l'authenticité à l'examen des productions hybrides, nous devons d'abord interroger le sens même de l'authenticité d'un point de vue critique. Pour ce faire, nous nous appuyons sur un paysage épistémique pré-LLM. Pour une introduction plus exhaustive à la notion d’authenticité, nous vous conseillons la lecture de Lindholm (2013). Trilling (1974) cerne l’évolution de l’authenticité comme une dérivation de la sincérité. Handler (1986) propose que l’authenticité n’est pas une propriété innée, mais une construction discursive mobilisée, par exemple, par les nationalistes pour apaiser leurs angoisses quant à l’idée de continuité et de légitimation. Linnekin (1991), démontre à partir d’une étude de cas maorie que les traditions dites “authentiques” sont en réalité dynamiques, interprétées, et politiquement investies : l’authenticité y devient narration plutôt que reproduction d'une réalité empirique. Lindholm (2013), en abordant l’authenticité à l’ère numérique — mais avant l’émergence des LLM — dans le contexte des premières banques en ligne et autres formes d’authentification numérique officielle, écrit : « L'anxiété concernant la validité de l'expérience et le maintien de l'identité personnelle est au coeur de cette définition informatisée. » S’appuyant sur des cadres linguistiques et sémiotiques, van Leeuwen (2001) propose plusieurs réponses à la question : « Qu’est-ce que l’authenticité ? ». Il observe que les médias reproduisent et renforcent l’idée selon laquelle l’authenticité serait dissimulée derrière des masques, puis dévoilée pour produire un effet de réalisme dans un paysage médiatique saturé. Cela souligne le paradoxe de l'authenticité dans la modernité tardive : elle doit être perçue comme spontanée, alors qu’elle est souvent soigneusement organisée.

Cette édition spéciale d’AI Linguistica examine la façon dont la notion d’authenticité est maintenue, transformée ou redéfinie dans la pratique de productions hybrides humain/IA. Le terme “hybride” désigne ici l’interaction dynamique entre agents humains et systèmes d’intelligence artificielle, dans laquelle la production, l’interprétation ou la médiation du langage résulte d’une co-agence distribuée entre cognition humaine et calcul algorithmique. Nous invitons des contributions qui questionnent et analysent la notion à travers des approches linguistiques (Beguš et al., 2023, De Cesare, 2023 ; Dynel, 2023 ; Meier, 2024 ; Weissweiler, 2024), de traductologie (Li et al., 2025 ; Xu et al., 2025), littéraires (Beguš, 2024 ; Chakrabarty et al., 2024 ; Koivisto & Grassini, 2023), discursives (Merton, 1968 ; Liu et al., 2025 ; Lehner, 2025 ;Yoo et al., 2024), en TAL/linguistique computationnelle (Zhao et al., 2023), didactiques (Alrahabi et al., 2022 ; Ifelebuegu, 2023 ; Werdiningsih et al., 2024) et cognitives (Carrasco-Farre, 2024 ; Grindrod, 2024 ; Wang et al., 2025).

La publication interdisciplinaire abordera des questionnements tels que : Comment l’authenticité se manifeste-t-elle dans les objets linguistiques produits au sein des dispositifs hybrides ? De quelle manière les étudiant·es négocient-ils et elles la réappropriation de l’emprunt auctorial dans leurs écrits académiques ? Une fiction conçue par un être humain — irréalité créative — possède-t-elle une valeur différente de celle d’une proposition générée par un modèle computationnel, et pouvons-nous qualifier cette différence ? Où situer la notion d’authenticité dans le processus de traduction, entendu comme transfert mais aussi comme réénonciation ? Quelle forme prend l’authenticité dans les discours publics, politiques ou institutionnels, lorsqu’ils intègrent des productions hybrides ? Ou encore, dans quelle mesure l’annotation hybride de corpus peut-elle être envisagée comme un site d’examen épistémologique ? Nous vous invitons à inscrire vos réflexions dans l'un des axes suivants, qui visent à approfondir ces enjeux sous divers angles disciplinaires.


I. Idéologies, intentionnalités, reprises, et circulations

Cet axe interroge les dimensions idéologiques, politiques, sociales et culturelles de la notion d’authenticité dans les productions et discours hybrides, en tenant compte des dynamiques de pouvoir ainsi que des attentes ou effets sociétaux liés à ces productions. Il invite également à des perspectives critiques sur la diversité linguistique, la performativité et la positionnalité des locuteurs.

II. Cognition, interaction sociale et co-construction du sens

Cet axe examine comment l’authenticité peut être envisagée dans une approche cognitive humaine de la collaboration hybride et pragmatique, à travers des événements tels que l’interaction sociale, l’intentionnalité ou la co-construction du sens, dans des contextes aussi bien privés que publics.

III. Traitement Automatique des Langues et algorithmes

Cet axe traite des processus de qualification, d'identification et de simulation de l'authenticité dans les textes générés par l'IA. Elle se concentre, par exemple, sur les processus algorithmiques, le travail d'annotation manuelle, l'identification d'objets authentiques présents dans les résultats semi-supervisés, non supervisés et d'apprentissage automatique, la définition et le statut des artefacts humains non standard, ainsi que les limites des modèles d'alignement dans les outils de traduction automatique.

Modalités de soumission

Veuillez envoyer vos propositions d'articles en anglais ou en français. Maximum 500 mots, et jusqu’à 5 mots clés, et en incluant votre nom, adresse mail, et votre affiliation. À envoyer en format PDF à sophia.burnett@univ-lorraine.fr et saraujo@elach.uminho.pt avant le 31 Mai à 11h59 CET.
Si cela est pertinent pour votre approche, veuillez inclure la source des données, les outils et les résultats (provisoires) attendus. Votre proposition peut concerner deux types d'articles : des articles courts (entre 3,000 et 6,000 mots) et des articles longs (entre 8,000 et 15,000 mots). Veuillez indiquer dans votre proposition initiale si vous avez l'intention de soumettre un article court ou un article long.
Les langues d'étude peuvent inclure n'importe quelle langue, avec un accent particulier sur les langues romanes et germaniques. Les contributions peuvent être empiriques, théoriques ou de méthode mixte, à condition qu'elles s'engagent de manière substantielle dans l'authenticité de la langue et du discours dans le contexte de la médiation de l'IA.

Chaque proposition soumise sera évaluée par deux examinateur·rice·s externes. Le processus d'examen des articles qui en résulte se déroule sous la forme d'un examen par les pairs à double anonymat. Sur la base des rapports des examinateur·rice·s, les directrices du numéro spécial décident d'accepter avec des révisions mineures ou majeures, de réviser et de soumettre à nouveau pour examen, ou de rejeter la proposition de publication soumise. Informations complètes sur le site web de la revue: https://ai-ling.publia.org/ai_ling/about

Échéancier

  • Lancement de l'appel à contributions : 24 avril 2025
  • Date limite de soumission des propositions d'articles (500 mots) : 31 mai 2025
  • Notification d'acceptation des propositions : 10 juin 2025 (N'implique pas l'acceptation des articles complets).
  • Date limite de soumission des articles complets : 30 août 2025
  • Période d'évaluation par les pairs : 1er septembre - 20 octobre 2025
  • Retour des rapports des évaluateurs aux auteurs (acceptés/rejetés/à revoir) : 25 octobre 2025
  • Date limite de soumission des versions finales révisées : 20 novembre 2025
  • Publication : mi-décembre 2025

AI-Linguistica. Linguistic Studies on AI-Generated Texts and Discourses est une revue en libre accès Diamond. Tout le contenu est publié sous licence Creative Commons (CC-BY-NC-SA 4.0), sans frais pour les auteurs.

References
Alrahabi, Motasem, Roe, Glenn, Bordry, Marguerite, et al. 2022. Des étudiants en lettres face aux humanités numériques: une expérience pédagogique. Humanités numériques, no 5. https://dx.doi.org/10.4000/revuehn.2775
Baack, Stefan, Biderman, Stella, Odrozek, Kasia, et al. 2025. “Towards Best Practices for Open Datasets for LLM Training”. arXiv preprint arXiv:2501.08365. https://doi.org/10.48550/arXiv.2501.08365
Baugh, Bruce. 1988. Authenticity revisited. The Journal of Aesthetics and Art Criticism, 46(4), 477-487. https://doi.org/10.2307/431285
Beguš, Gašper, Maksymilian Dąbkowski, and Ryan Rhodes. 2023. "Large linguistic models: Analyzing theoretical linguistic abilities of LLMs." arXiv preprint arXiv:2305.00948 https://doi.org/10.48550/arXiv.2305.00948
Beguš, Nina. 2024. “Experimental narratives: A comparison of human crowdsourced storytelling and ai storytelling.” Humanities and Social Sciences Communications 11.1: 1-22.https://doi.org/10.1057/s41599-024-03868-8
Burnett, Sophia. 2024. The embodied non-standard 1SG as a potential marker for reflective function impairment in Anorexia Nervosa sufferers. https://doi.org/10.31219/osf.io/gz72t
Carrasco-Farre, Carlos. 2024. Large language models are as persuasive as humans, but how? About the cognitive effort and moral-emotional language of LLM arguments. arXiv preprint arXiv:2404.09329 .https://doi.org/10.48550/arXiv.2404.09329
Chakrabarty, Tuhin, Laban, Philippe, Agarwal, Divyansh, et al. 2024. Art or artifice? large language models and the false promise of creativity. In : Proceedings of the 2024 CHI Conference on Human Factors in Computing System. p.1-34. https://doi.org/10.48550/arXiv.2309.14556
Chomsky, Noam, Ian Roberts, and Jeffrey Watumull. 2023. Noam Chomsky: The false promise of chatGPT. The New York Times 8.
Damasio, Antonio. 1999. The feeling of what happens: Body and emotion in the making of consciousness. Harcourt College Publishers.
De Cesare, Anna-Maria. 2023. Assessing the quality of ChatGPT’s generated output in light of human-written texts: A corpus study based on textual parameters. CHIMERA: Revista de Corpus de Lenguas Romances y Estudios Lingüísticos 10: 179-210. https://revistas.uam.es/chimera/article/view/17979
Dennett, Daniel. 1991. Consciousness Explained. Little, Brown and Co. Boston
Dynel, Marta. 2023. Lessons in linguistics with ChatGPT: Metapragmatics, metacommunication, metadiscourse and metalanguage in human-AI interactions. Language & Communication 93: 107-124. https://doi.org/10.1016/j.langcom.2023.09.002
Giddens, Anthony. 1991. Modernity and Self-Identity. Stanford University Press, CA.
Grindrod, Jumbly. 2024. Large language models and linguistic intentionality. Synthese 204, 71 (2024). https://doi.org/10.1007/s11229-024-04723-8
Handler, Richard. 1986. Authenticity. Anthropology Today, 2(1), 2–4. https://doi.org/10.2307/3032899
Ifelebuegu, Augustine. 2023. Rethinking online assessment strategies: Authenticity versus AI chatbot intervention. Journal of Applied Learning and Teaching, 6(2), 385–392. https://doi.org/10.37074/jalt.2023.6.2.2
Koivisto, Mika, & Simone Grassini. 2023. Best humans still outperform artificial intelligence in a creative divergent thinking task. Scientific Reports, 13, Article 13601. https://doi.org/10.1038/s41598-023-40858-3
Latour, Bruno. 2010. Reassembling the social: An introduction to actor-network-theory. Oxford University Press.
Lakoff, George. 2008. Women, fire, and dangerous things: What categories reveal about the mind. University of Chicago press. Chicago.
Lehner, Sabine. 2025. The design and discursive construction of a ‘speaking’ vacuum cleaning robot for assistive purposes: Findings on communication ideologies from a current research and development project. AI-Linguistica. Linguistic Studies on AI-Generated Texts and Discourses, 2(1). https://doi.org/10.62408/ai-ling.v2i1.16
Lindholm, Charles. 2013. The rise of expressive authenticity. Anthropological Quarterly, 86(2), 361–395. https://www.jstor.org/stable/41857330
Linnekin, Jocelyn. 1991. Cultural invention and the dilemma of authenticity. American Anthropologist, 93(2), 446–449. https://doi.org/10.1525/aa.1991.93.2.02a00120
Li, Yafu, Zhang, Ronghao, Wang, Zhilin, et al. 2025. Lost in Literalism: How Supervised Training Shapes Translationese in LLMs. arXiv preprint arXiv:2503.04369, https://arxiv.org/abs/2503.04369
Liu, Yiheng, He, Hao, Han, Tianle, et al. 2024. Understanding llms: A comprehensive overview from training to inference. Neurocomputing, p. 129190. https://doi.org/10.1016/j.neucom.2024.129190
Liu, Yifei, Yuang Panwang, and Chao Gu. 2025.“’Turning right?’ An experimental study on the political value shift in large language models.” Humanities and Social Sciences Communications 12.1: 1-10. https://doi.org/10.1057/s41599-025-04465-z
Meier, Franz. 2024. Dealing with common ground in Human Translation and Neural Machine Translation: A case study on Italian equivalents of German modal particles. AI-Linguistica. Linguistic Studies on AI-Generated Texts and Discourses, 1(1).
Merton, Robert K. 1968. The Matthew effect in science: The reward and communication systems of science are considered. Science 159.3810: 56-63. https://doi.org/10.1126/science.159.3810.56
Pontille, David. 2020. La signature scientifique: Une sociologie pragmatique de l’attribution. CNRS Éditions via OpenEdition. https://doi.org/10.4000/books.editionscnrs.31558
Taylor, Charles. 1992. The ethics of authenticity. Harvard University Press. Cambridge.
Trilling, Lionel. 1974. Sincerity and Authenticity. Harvard University Press. Cambridge.
Van Leeuwen, Theo. 2001. What is authenticity? Discourse Studies, 3(4), 392–397. https://doi.org/10.1177/1461445601003004003
Wang, Yifei, Eshghi, Ashkan, Ding, Yi, et al. 2025. Echoes of authenticity: Reclaiming human sentiment in the large language model era. PNAS nexus, vol. 4, no 2, p.34. https://doi.org/10.1093/pnasnexus/pgaf034
Weissweiler, Leonie, Abdullatif Köksal, and Hinrich Schütze. 2024. “Hybrid Human-LLM corpus construction and LLM evaluation for rare linguistic phenomena.” arXiv preprint arXiv:2403.06965. https://arxiv.org/abs/2403.06965
Werdiningsih, Indah, Marzuki, & Diyenti Rusdin. 2024. Balancing AI and authenticity: EFL students’ experiences with ChatGPT in academic writing. Cogent Arts & Humanities 11.1: 2392388.11(1). https://doi.org/10.1080/23311983.2024.2392388
Xu, Yuemei, Hu, Ling, Zhao, Jiayi, et al. 2025. A survey on multilingual large language models: Corpora, alignment, and bias. Frontiers of Computer Science, vol. 19, no 11, p. 1911362. https://doi.org/10.1007/s11704-024-40579-4
Yoo, Dahey, Kang, Hyunmin, & Oh, Changhoon. 2025. Deciphering deception: How different rhetoric of AI language impacts users’ sense of truth in LLMs. International Journal of Human–Computer Interaction, vol. 41, no 4, p. 2163-2183. https://doi.org/10.1080/10447318.2024.2316370
Zhao, Wayne Xin, Zhou, Kun, Li, Junyi, et al. 2023. A survey of large language models. arXiv preprint arXiv:2303.18223, vol. 1, no 2. https://doi.org/10.48550/arXiv.2303.18223