Analyse de données textuelles

Un article de Wikipédia, l'encyclopédie libre.
Ceci est une version archivée de cette page, en date du 14 mai 2021 à 22:53 et modifiée en dernier par Pharma (discuter | contributions). Elle peut contenir des erreurs, des inexactitudes ou des contenus vandalisés non présents dans la version actuelle.

L'analyse de données textuelles (ou ADT) est une approche des sciences humaines qui envisage les textes comme des données organisées qui, constituées en corpus, peuvent être analysées indépendamment de leur énonciataire, voire de leur énonciation. Le rôle des outils informatiques a donné une impulsion indéniable à cette approche.

L'analyse de données textuelles, inspirée par la linguistique structurelle et l'analyse de discours, est autant qualitative que quantitative. Elle cherche à qualifier les éléments des textes à l'aide de catégories et à les quantifier en analysant leur répartition statistique. L'approche a été très inspirée par les travaux de Jean-Paul Benzécri et a été utilisée dès les années 1960 sur des corpus de textes littéraires (Pierre Guiraud, Charles Muller, Étienne Brunet et aujourd'hui Jean-Marie Viprey, Véronique Magri-Mourgues, Michel Bernard) ou de textes politiques (au Laboratoire de lexicométrie de Saint-Cloud, avec Maurice Tournier, Jacques Guilhaumou, André Salem ou aujourd'hui Dominique Labbé, Pascal Marchand, Damon Mayaffre).

Terminologie

Appliquée strictement au lexique, l'ADT est parfois appelée lexicométrie ; appliquée au texte, elle est parfois appelée textométrie ; appliquée de manière générale au discours, elle est parfois appelée logométrie.

Les JADTs

Depuis 1992, la communauté des chercheurs en analyse de données textuelles se réunit en congrès tous les deux ans lors de Journées internationales d'analyse statistique de données textuelles (JADT) : 1992 Barcelone ; 1994 Montpellier ; 1996 Rome ; 1998 Nice ; 2000 Lausanne ; 2002 Saint-Malo ; 2004 Louvain-la-Neuve ; 2006 Besançon ; 2008 Lyon ; 2010 Rome ; 2012 Liège ; 2014 Paris ; 2016 Nice). Les actes sont publiées et accessibles en ligne sur le site Lexicométrica [1].

Logiciels d'analyse de données textuelles

Nom Date de lancement Coût Client Web App. Windows App. MacOS App. Linux Services Développement
Alceste 1979 payant Max Reinert, société Image
Aquad 1987 gratuit Tübingen Universität (Günter L. Huber)
Atlas.ti 1993 payant Technische Universität Berlin (Thomas Muhr)
Analyse SHS 2012 gratuit AFC, ACP, Classification ascendante hiérarchique Pôle Informatique de Recherche et d'enseignement en Histoire de l'Université de Paris-I (« Panthéon-Sorbonne »)
DTM gratuit L. Lebart, ENST
Hyperbase 1989 gratuit Université de Nice et CNRS
IRaMuTeQ 2009 gratuit Université de Toulouse
Langage R
Le Trameur
Lexico 1994 gratuit fréquences des mots, contexte des termes, mesure du caractère non aléatoire de l'apparition de mots ou de suites de mots dans un corpus distribué en fonction de variables connues André Salem (ENS Fontenay-Saint-Cloud, université de Paris-III Sorbonne Nouvelle)
NooJ 2004 gratuit Max Silberztein, Université de Franche-Comté
NVivo 1981 payant Tom & Lyn Richards
Prospéro 2011 gratuit association Doxa
QDA Miner
R.TeMiS 2016 gratuit Milan Bouchet-Valat (Ined), Gilles Bastin (Sciences Po Grenoble, Pacte), Bénédicte Garnier (Ined), Antoine Chollet (ENSAI)
SATO 2004 gratuit et payant Université du Québec à Montréal (François Daoust)
Sémato 2007 gratuit et payant Université du Québec à Montréal (Pierre Plante, Lucie Dumas, André Plante)
Statistica Text Miner (StatSoft) 1993 payant société TIBCO Software Inc. (1997)
Taltac
TXM 2010 gratuit École normale supérieure de Lyon, université de Franche-Comté
T-Lab
Tropes 1994 gratuit Pierre Molette, Agnès Landré, Rodolphe Ghiglione
Sphinx Quali
Voyant Tools 2021 gratuit Université McGill, Montréal (Stéfan Sinclair, Geoffrey Rockwell)
WordStat 1998 gratuit

Notes et références

Articles connexes

Liens externes