CMLF 2020 - 7ème Congrès mondiale de linguistique française, Jul 2020, Montpellier / Online, France
annee_publi
2020
resume
L'intertexte est la condition de l'interprétation de tout texte. Cependant, sa matérialisation, son explicitation, son implémentation ont toujours paru difficile pour la linguistique textuelle. Cette contribution propose une matérialisation de l'intertexte au sein de corpus réflexifs numériques, et convoque de manière originale l'intelligence artificielle (deep learning, modèle convolutionnel) et la logométrie pour explorer de manière systématique l'intertexte ainsi matérialisé. Pour cette étude, nous postulons que le corpus élyséen depuis 1958 constitue l'intertexte des discours d'Emmanuel Macron, dans lequel le président puise de manière consciente ou inavouée pour construire ses discours. A titre d'exemple, nous mettons ainsi au jour automatiquement les empreintes grammaticales de Giscard dans le discours de Macron, et les emprunts lexicaux que le nouveau président concède à de Gaulle.
JADT 2020 - 15èmes Journées Internationales d'Analyse statistique des Données Textuelles, Jun 2020, Toulouse, France
annee_publi
2020
resume
Cette contribution propose un parcours méthodologique susceptible d’objectiver l’intertexte ; l’intertexte politique des discours du président français Emmanuel Macron en l’occurrence.Le deep learning (modèle convolutionnel) est d’abord utilisé pour « apprendre » (taux d’accuracy satisfaisant de 92,3%) le discours présidentiel français depuis 1958 : les discours de de Gaulle, Pompidou, Giscard, Mitterrand, Chirac, Sarkozy et Hollande sont alors considérés comme l’intertexte potentiel des discours de Macron.Ensuite, les textes de Macron – inconnus jusqu’ici du système – sont versés dans le modèle et nous forçons la machine à attribuer les passages de Macron à l’un de ses prédécesseurs en fonction de leur composition linguistique. Enfin, l’algorithme extrait et décrit les passages et les unités linguistiques (wTDS, spécificités lexicales, cooccurrences, étiquettes morpho-syntaxiques) de Macron interprétées par la machine comme ressemblant à celles de de Gaulle ou Sarkozy, à celles de Mitterrand ou de Hollande.Le discours de Macron est traversé, de manière explicite parfois, de manière implicite le plus souvent, par les discours de ses prédécesseurs – phénomène que l’on appellera « intertextualité » – et l’Intelligence artificielle et la statistique textuelle peuvent repérer les phénomènes d’emprunt, d’imitation voire de plagiat.
Laurent Vanni, Marco Corneli, Dominique Longrée, Damon Mayaffre, Frédéric Precioso
article
JADT 2020 - 15èmes Journées Internationales d'Analyse statistique des Données Textuelles, Jun 2020, Toulouse, France
annee_publi
2020
resume
Depuis peu, les outils d'aide à l'interprétation des résultats du deep learning font leur apparition (LIME, LSTMVIS, TDS). Dans cette communication nous proposons d'aller plus loin en allant chercher l'information cachée au plus profond des couches intermédiaires du deep learning grâce à un nouvel outil. Hyperdeep permet d'une part de prédire l’appartenance d’un texte et d’en apprécier les emprunts à différents styles ou auteurs et d’autre part, par déconvolution, d'analyser les saillances du texte afin d’en faire remonter les marqueurs linguistiques appris par le réseau. Cette information d’un genre nouveau est rassemblée et mise en valeur dans un nouvel outil mêlant visualisations graphiques et texte dynamique. Son utilisation est accompagnée d’une intégration complète dans la plateforme Hyperbase Web qui propose l’environnement adéquate et un point de départ naturel pour toute étude mêlant deep learning et statistiques du texte.
La logométrie et l’Intelligence artificielle (deep learning) appliquées aux textes politiques permettent de repérer dans le discours d’Emmanuel Macron les emprunts linguistiques qu’il contracte auprès de ses prédécesseurs à l’Elysée (de Gaulle, Pompidou, Giscard, Mitterrand, Chirac, Sarkozy et Hollande). Les emprunts les plus importants, lexicaux autour de la valeur travail et énonciatifs autour de l’exhibition du « je » et du « je veux », concernent statistiquement Nicolas Sarkozy.
Laurent Vanni, Marco Corneli, Dominique Longrée, Damon Mayaffre, Frédéric Precioso
article
Domenica Fioredistella Iezzi; Damon Mayaffre; Michelangelo Misuraca. Text Analytics. Advances and Challenges, Springer, pp.41-54, 2020, 978-3-030-52679-5
annee_publi
2020
resume
This contribution compares statistical analysis and deep learning approaches to textual data. The extraction of "key passages" using statitics and deep learning is implemented using the Hyperbase sofware.
Langue française, Armand Colin, 2019, Les outils informatiques au service des linguistes, pp.101-115
annee_publi
2019
resume
Notre recherche vise à décrire la parole publique du président français Macron par rapport à celle de ses prédécesseurs de la Ve République (1958-2019). L'article montre comment la textométrie est mobilisable pour effectuer différents types d'investigations linguistiques : irrégularités de répartition des mots, évolution diachronique du vocabulaire, relevés systématiques et organisés d'attestations en contexte, synthèse statistique des contextes syntagmatiques locaux par cooccurrence, visualisations de la structure lexicale globale du corpus par analyse factorielle des correspondances et analyse arborée. Notre objectif est double : il s'agit d'une part d'analyser le discours macronien et d'autre part de montrer comment la textométrie permet de répondre à des questionnements linguistiques classiques en corpus, en mobilisant les logiciels Hyperbase Web et TXM.
Damon Mayaffre, Bénédicte Pincemin, Serge Heiden, Philippe Weyl
article
Denis Peschanski; Brigitte Sion. La vérité du témoin, 2, Hermann Éditeurs; Institut National de l’Audiovisuel, pp.93-124, 2018, Mémoire et mémorialisation, 9782705697365
annee_publi
2018
resume
Dans le cadre de l’Équipex Matrice, nous rassemblons ici un corpus de témoignages de survivant de la Shoah, diachronique du point de vue de la date d’écriture : témoignages immédiats écrits à la sortie de la guerre, témoignages médians écrits dans les années 1980, et témoignages récents écrits dans les années 2000. L’objectif est alors de mobiliser les outils de l’ADT pour sérier le vocabulaire primaire sans doute hérité directement des camps et un vocabulaire reconstruit qui intègre, au fil des années, la compréhension historique d’un événement inintelligible aux victimes contemporaines. D’une certaine manière, il s’agit non pas de faire de la génétique de texte, mais de la génétique mémorielle au sein des textes du corpus. Particulièrement, la cartographie par analyse factorielle nous permet de déconstruire les témoignages en couches mémorielles superposées c’est-à-dire en sédimentations lexicales distinctes qui structurent à plusieurs niveaux le texte.
Laurent Vanni, Mélanie Ducoffe, Damon Mayaffre, Frédéric Precioso, Dominique Longrée, Veeresh Elango, Nazly Santos Buitrago, Juan Gonzales Huesca, Luis Galdo, Carlos Aguilar
article
56th Annual Meeting of the Association for Computational Linguistics, Jul 2018, Melbourne, France
annee_publi
2018
resume
In this paper, we propose a new strategy , called Text Deconvolution Saliency (TDS), to visualize linguistic information detected by a CNN for text classification. We extend Deconvolution Networks to text in order to present a new perspective on text analysis to the linguistic community. We empirically demonstrated the efficiency of our Text Decon-volution Saliency on corpora from three different languages: English, French, and Latin. For every tested dataset, our Text Deconvolution Saliency automatically encodes complex linguistic patterns based on co-occurrences and possibly on grammatical and syntax analysis.
L'extraction de passages-clefs statistiques est d'abord proposée selon plusieurs calculs implémentés dans le logiciel Hyperbase. Uné evaluation de ces calculs en fonction des filtres appliqués (prise en compte des spécificités positives seulement, prise en compte de substantifs seulement, etc) est donnée. L'extraction de passages-clefs obtenus par deep learning-c'est-` a-dire des passages qui ont le meilleur taux de reconnaissance au moment d'une prédiction-est ensuite proposée. L'hypothèse est que le deep learning est bien sûr sensible aux unités linguistes sur lesquelles le calcul des phrases-clefs statistiques se fondent, mais sensiblé egalementàegalement`egalementà d'autres phénomènes que fréquentiels et d'autres observables linguistiques complexes que l'ADT a plus de maì a prendre en compte-comme le seraient des motifs sous-jacents (Mellet et Longrée, 2009). Si cette hypothèse se confirmait, elle permettrait d'une part de mieux appréhender la boˆıteboˆıte noire des algorithmes de deep learning et d'autre part d'offriràoffrir`offrirà la communauté ADT de nouveaux points de vue.