Introduction aux humanités numériques modernes

21 novembre 2025

Crée tes propres fiches en 30 secondes

Colle ton cours, Revizly le transforme en résumé, fiches, flashcards et QCM.

Commencer gratuitement

Synthèse rapide

  • Les humanités numériques se divisent historiquement en humanités « digitales » ou « numériques », avec un passage du « humanities computing » à la notion de « humanités numériques » depuis le début des années 2000.
  • Roberto Busa est considéré comme un pionnier du humanities computing avec le projet Corpus Thomisticum (1949).
  • La lexicométrie, à partir des années 1960, a permis le dénombrement des occurrences et des concordances dans l’analyse de discours.
  • L’émergence d’archives multimédias dans les années 1980 a contribué à la « textualité rayonnante ».
  • La convergence vers les humanités numériques s’accompagne d’outils comme Google Trends, Ngram Viewer, et Gallicagram.
  • La remise en question du paradigme des « big data » insiste sur la dimension critique et épistémologique des humanités.
  • La réflexion critique soulève des enjeux liés à la représentation graphique, à l’archivage total, et à la dimension humaniste du numérique.
  • L’institutionnalisation des humanités numériques s’accompagne de centres de recherche, de formations, et d’un débat sur leur statut disciplinaire.
  • La « dataification » du monde implique une transformation des méthodes traditionnelles en sciences humaines, avec des enjeux éthiques et méthodologiques.
  • La discorde entre perspective critique et technologique concerne notamment la place de l’interprétation humaine face aux quantifications du numérique.

Concepts et définitions

  • Humanités numériques : ensemble des méthodes, outils et perspectives du numérique appliqués aux sciences humaines.
  • Humanités « digitales » / « numériques » : terminologies historiques souvent interchangeables, mais avec une évolution sémantique.
  • Humanities Computing : période du XXe siècle caractérisée par l’utilisation de l’ordinateur dans l’étude des textes.
  • Corpus Thomisticum : base de données informatisée des œuvres de Thomas d'Aquin, projet pionnier lancé en 1949.
  • Lexicométrie : méthode statistique visant à analyser la fréquence et la cooccurrence de termes dans des corpus.
  • Text Encoding Initiative (TEI) : schéma d’encodage pour la structuration et la description de textes numériques.
  • Textualité rayonnante : métaphore pour la mise en réseau et la multimodalité des archives numériques.
  • Big Data : notion selon laquelle la quantité de données massives permet une nouvelle approche du savoir, parfois critiquée pour sa réduction de l’interprétation humaine.

Formules, lois, principes

  • Aucun formules mathématiques précise mentionnée dans le texte ; cependant, la lexicométrie repose sur des principes statistiques de dénombrement.
  • La mutation des humanités s’accompagne d’un principe de transdisciplinarité, intégrant savoirs et outils variés.
  • La démarche épistémologique met en avant la « datafication » du savoir tout en soulignant la nécessité d’une lecture critique.

Méthodes et procédures

  1. Identifier le corpus d’étude (textes, images, archives multimédias).
  2. Encodage et structuration via des schémas comme TEI.
  3. Utilisation d’outils statistiques ou analytiques (lexicométrie, stylométrie).
  4. Exploitation de bases de données numériques (Corpus Thomisticum, Brown Corpus, BNC).
  5. Analyse des résultats en tenant compte du contexte historique, culturel et critique.
  6. Questionner la nature du savoir produit et ses limites critiques.

Exemples illustratifs

  • Projet Corpus Thomisticum de Roberto Busa (1949) : premier corpus numérique de textes classiques.
  • Analyse de discours politiques via la lexicométrie, par Maurice Tournier, dans les années 1960.
  • Archives multimédias comme Perseus Project ou William Blake Archive, initiés dans les années 1980-1990, illustrant la textualité rayonnante.

Pièges et points d'attention

  • Confusion entre quantité de données et qualité de l’interprétation.
  • Risque de réduction excessive des textes à leur fréquence statistique.
  • Réification du numérique comme seul ou principal mode de production de savoir.
  • Méconnaissance des enjeux épistémologiques et critiques liés à la « datafication ».
  • Débat sur la nature disciplinaire et sur l’épistémologie des humanités numériques.

Glossaire

  • Corpus : ensemble structuré de textes ou d’objets numériques analysés.
  • Lexicométrie : étude statistique des occurrences lexicales.
  • Text Encoding Initiative (TEI) : norme d’encodage pour structurer et annoter des textes numériques.
  • Textualité rayonnante : métaphore décrivant la capacité des archives numériques à se déployer en réseau et à produire de nouveaux sens.
  • Big Data : ensemble massif de données numériques exploitables via des méthodes analytiques avancées.
  • Dataification : processus de transformation du monde en données numériques exploitables scientifiquement.