Fiche de révision en Humanités Numériques
📌 L'essentiel
- Les humanités numériques se sont développées au début des années 2000, succédant aux humanités « digitales » ou « numériques ».
- Roberto Busa est pionnier avec le projet Corpus Thomisticum (1949), premier corpus numérique de textes classiques.
- La lexicométrie, à partir des années 1960, permet l’analyse quantitative de discours via le dénombrement et la concordance.
- L’émergence d’archives multimédias dans les années 1980 révèle la « textualité rayonnante », favorisant la multimodalité.
- Les outils comme Google Trends, Ngram Viewer, Gallicagram illustrent la convergence vers les humanités numériques.
- La critique du paradigme « big data » insiste sur la dimension critique, éthique et épistémologique.
- La réflexion soulève des enjeux liés à la représentation, à l’archivage total, et à la dimension humaniste du numérique.
- L’institutionnalisation passe par des centres de recherche, programmes de formation, et débats épistémologiques.
- La « dataification » modifie profondément méthodes traditionnelles avec des enjeux méthodologiques et éthiques.
- La discorde entre perspective critique et technologique concerne l’interprétation humaine face aux quantifications.
📖 Concepts clés
Humanités numériques : Ensemble des méthodes, outils et perspectives intégrant le numérique dans l’étude des sciences humaines.
Humanités « digitales » / « numériques » : Termes historiquement interchangeables, avec une évolution sémantique vers une reconnaissance plus sophistiquée.
Humanities Computing : Période du XXe siècle centrée sur l’utilisation de l’ordinateur pour l’analyse de textes, marquant l’origine de la discipline.
Corpus Thomisticum : Base de données informatisée approfondie sur les œuvres de Thomas d'Aquin, créée en 1949, pionnière dans le domaine.
Lexicométrie : Méthode statistique d’analyse des fréquences et cooccurrences lexicales dans un corpus, permettant d’identifier des tendances.
Text Encoding Initiative (TEI) : Norme pour l’encodage et la structuration de textes numériques, facilitant leur analyse et leur partage.
Textualité rayonnante : Métaphore qualifiant la mise en réseau et la multimodalité des archives numériques qui rayonnent et se diffusent.
Big Data : Approche exploitant d’énormes volumes de données pour de nouvelles formes d’analyse, souvent critiquée pour son réduction de l’interprétation humaine.
📐 Formules et lois
- La lexicométrie s’appuie sur des principes statistiques de dénombrement et d’analyse de cooccurrence.
- La démarche épistémologique valorise la « datafication » tout en insistant sur un regard critique.
- La transdisciplinarité constitue un principe fondamental, intégrant divers savoirs et outils pour une approche globale.
🔍 Méthodes
- Définir le corpus (textes, images, multimédias) pertinent à l’étude.
- Encodage du corpus via des schémas comme TEI pour structurer les données.
- Utiliser des outils statistiques (lexicométrie, stylométrie) pour analyser le corpus.
- Exploiter des bases de données numériques (Corpus Thomisticum, BNC, Brown Corpus).
- Interpréter les résultats en tenant compte du contexte culturel, historique et critique.
- Questionner la nature, la validité et les limites du savoir produit par la démarche numérique.
💡 Exemples
- Corpus Thomisticum (1949) : premier corpus numérique consacré aux œuvres de Thomas d'Aquin, initiant le domaine.
- Analyse de discours politiques (1960s) : Maurice Tournier utilise la lexicométrie pour étudier les stratégies discursives.
- Archives multimédias (années 1980-1990) : Perseus Project, William Blake Archive illustrent la textualité rayonnante en réunissant textes, images et vidéos.
⚠️ Pièges
- Confondre quantité de données massives et profondeur interprétative.
- Réduire les textes à leur simple fréquence statistique sans lecture critique.
- Croire en une objectivité totale grâce au numérique, oubliant l’aspect interprétatif.
- Méconnaître les enjeux éthiques liés à la collecte et à l’usage des données.
- Perdre de vue la dimension humaine et critique dans l’utilisation des outils numériques.
📊 Synthèse comparative
| Aspect | Humanités traditionnelles | Humanités numériques |
|---|
| Méthode | Analyse qualitative | Analyse quantitative et algorithmique |
| Outils | Textes, commentaires | Logiciels, bases de données, algorithmes |
| Enjeux | Interprétation, critique | Données, quantification, épistémologie |
| Objectif | Compréhension profonde | Représentation large, tendance globale |
✅ Checklist examen
- Maîtriser la chronologie et les grands projets (Corpus Thomisticum, Perseus).
- Comprendre la lexicométrie : principes, limites, applications.
- Connaître le rôle de TEI et des autres outils d’encodage.
- Pouvoir analyser un exemple concret d’archive multimédia ou de corpus.
- Identifier les enjeux critiques liés à la datafication et au big data.
- Connaître la différence entre analyse qualitative et quantitative.
- Être capable de discuter des enjeux éthiques et épistémologiques.
Synthèse rapide
- Les humanités numériques intègrent méthodes et outils numériques aux sciences humaines, avec un début historique dans le « humanities computing ».
- Roberto Busa pionnier du corpus informatique avec le Corpus Thomisticum (1949).
- La lexicométrie, apparue dans les années 1960, permet une analyse quantitative de discours.
- L’émergence d’archives multimédias, comme Perseus, favorise la textualité rayonnante.
- Outils comme Google Trends, Ngram Viewer illustrent la tendance à la datafication.
- La critique du paradigme « big data » soulève des enjeux épistémologiques et éthiques importants.
- La réflexion critique questionne la place de l’interprétation humaine face aux quantifications automatiques.