PAGE ACCUEIL

La Résistance à l’interprétation

06 Octobre 2017

La Résistance à l’interprétation

Durant de nombreuses années, à Paris comme à New York, à l’Université de Columbia comme à la Sorbonne, j’ai donné un cours d’introduction à la recherche littéraire. Aux États-Unis, c’était dans le cadre d’un proséminaire destiné aux nouveaux arrivants en deuxième cycle (graduate students) ; à Paris, dans le contexte de conférences de méthodologie pour le DEA (Diplôme d’études approfondies), anciennement la première année de doctorat. Ces deux cours étaient enseignés en équipe, et cela me plaisait de donner ce type d’introduction à la recherche, d’examiner les méthodes et d’en débattre. Probablement parce que je crois que je n’ai moi-même aucune méthode. J’ai tout appris sur le tas, et je préfère toujours une approche de terrain à une approche théorique. Je ne lis jamais les guides, les manuels, les instructions, avant de visiter une ville ou d’ouvrir une boîte, et je n’y ai recours que quand j’ai cassé l’appareil (que ce soit une machine à laver, un ordinateur ou une voiture). La seule section utile dans un mode d’emploi, la seule qui vaut la peine d’être lue, c’est celle intitulée « Dépannage ». En tant que chercheur en littérature, j’ai donc appris mes techniques par moi-même, et j’ai un très faible niveau de tolérance aux méthodologies abstraites.

Peut-être cela vient-il de ma formation d’origine de scientifique, d’ingénieur. D’un côté, j’aimais la beauté des mathématiques pures, et de l’autre, j’appréciais de mettre les mains dans le cambouis en mécanique. Dans l’école où j’ai appris les mathématiques et la physique, nous devions également savoir démonter un moteur de voiture, et le remonter ensuite. C’est la meilleure introduction qui soit à la lecture rapprochée. Sur ma première voiture, une Renault de base, j’étais encore capable de me débrouiller avec la mécanique. De nos jours, bien sûr, les voitures sont bourrées d’électronique.

Claude Lévi-Strauss, c’est bien connu, opposait l’ingénieur au bricoleur. Malgré toute mon admiration pour lui, cette distinction me semble clairement exagérée ; elle est tout aussi erronée que la fameuse fracture que décrit C. P. Snow entre « Les Deux cultures », et c’est une distinction qu’aucun ingénieur digne de ce nom, c’est-à-dire quelqu’un d’ingénieux, ne se risquerait à faire.

J’ai donc apprécié de donner un cours de méthodologie parce que je ne suis pas un adepte de la méthodologie, et il y avait donc une certaine ironie dans ce cours d’introduction. De fait, l’ensemble de mon Literary Scholarship 101 pourrait se résumer en une seule maxime de Pascal, mon point clé minimaliste de la méthodologie : « Console-toi. Tu ne me chercherais pas si tu ne m’avais [déjà] trouvé »1. Pascal se souvient ici de Saint Bernard de Clairvaux dans L’Amour de Dieu : « Voilà un paradoxe : personne ne peut chercher le Seigneur, sauf celui qui l’a déjà trouvé »2. C’est le paradoxe de la grâce.

Certes, c’est un peu rude de donner un tel viatique à de futurs chercheurs – une clause paradoxale, comme Bernard l’a très bien dit – mais Pascal y ajoute une touche de réconfort. Je ne saurais trouver meilleur résumé de ce qu’on appelle le cercle herméneutique, c’est-à-dire la précédence mutuelle du tout et des parties, ou de la question et de la réponse (selon la reformulation de Hans-Georg Gadamer), la question que l’on pose au texte et la réponse que donne le texte (un résumé qui, en passant, confirme les origines intrinsèquement religieuses et bibliques de l’herméneutique) : « Tu ne me chercherais pas si tu ne m’avais pas déjà trouvé » et « Rien n’est caché en quelque endroit de la Bible qui ne soit exposé ailleurs au grand jour », comme l’écrivit Saint Thomas, après Augustin3. La seule recommandation que je pouvais faire en toute bonne foi à mes étudiants concernait l’interprétation : « Tu ne le chercherais pas si tu ne l’avais déjà trouvé. » C’est une bénédiction formidable, au sens premier du terme, qui requiert travail et labeur, mais qui promet également récompenses et gratifications. Cela présuppose que quelque chose doit avoir été trouvé avant que quelque chose puisse être recherché.

Je continuais, à Paris comme à New York, en détaillant l’analogie entre la recherche littéraire et la chasse, entre le chercheur et le chasseur. Je soutiens bien entendu la théorie qui place les origines de la littérature dans le récit de chasse, le compte rendu de l’expédition des chasseurs fait à ceux qui sont restés s’occuper des cultures. La littérature et la chasse sont intrinsèquement liées, et le chercheur est un chasseur ; son terrain de chasse est, ou était, les rayons des bibliothèques, et désormais les profondeurs d’Internet. En fait, d’après mon expérience, on sait le plus souvent qu’un chercheur est un chercheur en le rencontrant pour la seconde fois, lorsqu’il ou elle revient de la bibliothèque et expose ses trouvailles ; elles sont sur la table, on s’en saisit, on les pèse, et on les juge : cette personne est, ou n’est pas, un bon chasseur ou une bonne chasseuse, qui poursuit, pourchasse, flaire.

Je rappelais également à mes chercheurs en herbe la description du philosophe Hippolyte Taine par ses amis des Dîners Magny, Sainte-Beuve, Flaubert, les Goncourt, Renan et Turgenev, une citation diversement attribuée (tous brillaient dans la conversation) : « Excellent chien de chasse. Dommage qu’il n’ait pas de nez ». Autrement dit, Taine avait la méthodologie, n’était que méthodologie, construisait des systèmes complexes, de superbes théories, mais il lui manquait l’intuition, la perspicacité, la clairvoyance, cet indispensable sixième sens du chercheur, et l’instinct du « bricoleur » qui – n’en déplaise à Lévi-Strauss – caractérise le bon ingénieur, physicien, critique, philologue ou expert. Attention, le chasseur, le bon chasseur, est tout à fait conscient qu’il ou elle ne va peut-être pas, ne va peut-être jamais trouver l’objet de sa recherche, pourrait même se retrouver face à un tout autre type de gibier, et doit donc être préparé(e) au changement. La différence avec Bernard et Pascal n’est pas négligeable. Pour eux, le Seigneur était le seul et unique objectif qui valait la peine d’être recherché, alors que notre grâce s’est sécularisée. Nous devons être prêts à changer de cap, et toujours guetter l’arrivée d’une proie inattendue, que ce soit un ange ou un démon, sans distinction, tant qu’elle est pertinente. Et c’est peut-être même là le véritable talent, l’instinct, le flair du chasseur-chercheur : la faculté d’apercevoir une proie inattendue. On est à l’affût d’une chose, mais une autre surgit, et on doit s’adapter aussitôt : changer son fusil d’épaule, changer de tactique et de ton (ce sont des exemples du cercle herméneutique, de la dialectique de la question et de la réponse, du rapport entre lecture et chasse). Et c’est également le cas en sciences pures, par opposition aux sciences appliquées : les scientifiques tiennent compte de la chance, ou de la grâce, selon le terme de Pascal.

Naturellement, comme l’écrivait Montaigne : « Qui n’aime la chasse qu’en la prise, il ne luy appartient pas de se mesler à nostre escole »4. Notre école préfère la chasse à la capture ; ou disons que le plaisir vient de la chasse elle-même, et non de la capture. Et Locke, dans son « Épître au lecteur » ouvrant l’Essai sur l’entendement humain, lui emboîte le pas : « Sa recherche de la vérité est une sorte de chasse, où la poursuite constitue la plus grande partie du plaisir [… Quand] on remet sur le métier ses propres pensées pour trouver et suivre la vérité, on ne peut manquer de jouir de la satisfaction du chasseur : chaque instant de la recherche aura sa joie, qui le récompensera de sa peine. Et on aura raison de penser qu’on n’a pas perdu son temps, même si on ne peut guère se vanter de grands butins »5.

Il faut toujours être prêt à suivre une autre piste, à tenter sa chance. La notion clé qui est ici en jeu est celle de « sérendipité », un accident heureux, une surprise agréable, une erreur bénéfique, comme l’analyse Robert K. Merton6, lui-même chasseur couronné de succès et inventeur d’un certain nombre de métaphores théoriques heureuses, comme « unintended consequences » (conséquences inattendues, non voulues) et « self-fulfilling prophecy » (prophétie autoréalisatrice). Le chercheur-chasseur est une sorte de poète. En tentant sa chance, en regardant tout autour, il ou elle sera récompensé(e), nous assure Pascal.

Je terminais en général mon laïus avec la notion de grâce, au cœur de la déclaration de Pascal : le Seigneur accordera sa grâce, sa grâce gratuite, à ceux qui l’auront cherché, qui auront pris des risques, tenté leur chance, travaillé dur et fait tout leur possible. Je suis d’accord avec Pascal : il existe un dieu caché de la recherche littéraire, une providence pour les chercheurs, et une grâce efficace qui récompense ceux qui cherchent avec sincérité, sérieux et assiduité. Un chercheur efficace est un chercheur qui croit à la grâce de la recherche, ou sérendipité. Après que j’aie énoncé ce credo, certains de mes docteurs en herbe restaient perplexes, mais ceux qui comprenaient étaient le sel de la terre.

À un moment donné, à l’époque où j’enseignais cette introduction à la recherche littéraire, j’ai découvert la notion de « paradigme de l’indice » développée par Carlo Ginzburg dans son article providentiel, « Signes, traces, pistes. Racines d’un paradigme de l’indice »7. Pascal et la grâce n’entrent pas en jeu dans sa démonstration, mais la chasse et la sérendipité y jouent un rôle crucial ; celui de modèles de recherche dans l’étude de l’histoire littéraire, le même rôle que jouent l’historien de l’art Giovanni Morelli et Sherlock Holmes chez Freud. La lecture de son essai est donc entrée au programme pour mes docteurs en herbe des deux côtés de l’Atlantique. S’ils n’acceptaient pas de travailler comme des chiens, de cultiver leur flair, commencer un mémoire n’avait aucun intérêt. Le printemps dernier, j’ai invité Ginzburg à intervenir pendant mon séminaire sur Proust au Collège de France. Il a reconnu que sa notion de « paradigme de l’indice » venait de sa lecture de Proust, que sa mère avait traduit en italien (son très émouvant Lessico Famigliare raconte que Proust était lu avec passion par les Juifs de Turin au début des années 1920). La boucle est bouclée. Proust m’a conduit de l’ingénierie à la philologie, et je me suis concocté une méthode de recherche proustienne, celle de la « sérendipité du bricoleur », une variante de la distinction pascalienne entre « l’esprit de finesse » et « l’esprit de géométrie ». L’incipit de Du Côté de chez Swann est centré sur la chance et la sérendipité : le héros est perdu, chasseur déboussolé qui erre dans les cercles des nombreuses pièces où il s’est longtemps couché de bonne heure ; il est perdu jusqu’à l’accident heureux d’un souvenir involontaire dans le célèbre épisode de la madeleine, et à partir de là il attachera de l’importance à l’instinct et à l’intuition, par opposition à l’intelligence, et à la finesse, par opposition à la géométrie :

« Je trouve très raisonnable la croyance celtique que les âmes de ceux que nous avons perdus sont captives dans quelque être inférieur, dans une bête, un végétal, une chose inanimée, perdues en effet pour nous jusqu’au jour, qui pour beaucoup ne vient jamais, où nous nous trouvons passer près de l’arbre, entrer en possession de l’objet qui est leur prison. Alors elles tressaillent, nous appellent, et sitôt que nous les avons reconnues, l’enchantement est brisé. Délivrées par nous, elles ont vaincu la mort et reviennent vivre avec nous. »8

Si on ne déambule pas dans les rayons de bibliothèque comme si on allait trouver par hasard une âme tombée dans l’oubli entre les pages d’un livre qu’on ne cherchait pas, on ne deviendra jamais un véritable chercheur. Voilà le paradigme herméneutique de la recherche, paradigme pascalien, proustien, mertonien, ginzburgien, que j’essayai de graver dans l’esprit de mes étudiants, afin qu’ils prennent conscience du fait que la découverte pertinente n’est jamais celle qu’on attendait, et qu’il leur faut toujours être à l’affût, prêts à voir d’autres possibilités.

* * *

C’est sans doute une bonne chose que j’aie quitté la Sorbonne il y a quelques années, et que je n’enseigne plus ce proséminaire à Columbia. Je ne pourrais plus affirmer que la foi et la grâce, fussent-elles sécularisées, sont les outils herméneutiques indispensables au chercheur en herbe, qui devrait prendre pour mentors Pascal et Proust. Mon argument était légitime lorsque nous occupions un monde de la recherche où la chance régnait et où ce qui est aléatoire devait être transformé en accident heureux pour amorcer le cercle interprétatif du tout et des parties, de la question et de la réponse. Les étudiants d’aujourd’hui, qui ont grandi dans le monde du numérique, me dévisageraient désormais avec stupéfaction si je leur affirmais qu’ils n’iraient nulle part sans nez, sans ce sens de l’orientation bien particulier qui vous guide dans les bibliothèques (avec la même assurance que les oiseaux migrateurs), dans le labyrinthe des livres, et qui vous permet d’y capturer le seul et unique mot qui compte, comme une aiguille dans une botte de foin.

Il est tout à fait possible que nous ayons quitté le paradigme de l’indice ou le paradigme herméneutique, celui de Freud et de Proust, et soyons entrés dans un nouveau paradigme, où la chance a été apprivoisée et n’est plus un concept pertinent dans l’environnement qu’ont créé le big data et la fouille de données.

Le défi principal auquel fait face le paradigme herméneutique dans les humanités pourrait venir des neurosciences. Nous sommes entourés de toutes parts, au Collège de France comme ailleurs, par des neuroscientifiques, pour qui tous les sujets auxquels s’intéressent les humanités, sans exception – la lecture, l’écriture, le savoir, l’émotion, la compréhension, l’interprétation, le souvenir, l’oubli – devraient désormais être traités du point de vue de l’imagerie cérébrale, laissant à penser qu’on ne peut rien avancer de sérieux sur la langue, la littérature et les arts, que ce soit dans une perspective cognitive ou affective, avant d’avoir cartographié nos cerveaux et isolé les zones du récit et de la fiction dans le cortex temporal supérieur. C’est une sérieuse remise en question de la quête d’interprétation, qui a commencé avec la réfutation de l’invention freudienne phare concernant les rêves et leur interprétation, et avec la découverte de la phase de sommeil paradoxal (ou phase REM pour rapid eye movements, mouvements oculaires rapides), durant laquelle ont lieu la plupart de nos rêves, ce qui en fait une simple poubelle de ce qui subsiste de notre journée, sans aucune valeur. On ne peut nier ou minimiser cette menace : chaque discipline des humanités court le risque d’être remplacée par son double dans les neurosciences, comme par exemple l’histoire de l’art, domaine privilégié de l’interprétation moderne et désormais délaissé par certains en faveur de la « neuroesthétique » qui compte parmi ses partisans mon confrère à Columbia, David Freedberg, en association avec mon confrère au Collège, le biologiste Jean-Pierre Changeux, concernant la vision et les arts visuels. Nous ne devrions pas sous-estimer cette tendance, ni le danger qu’elle représente. Cela dit, il me semble que, du moins dans ma propre pratique, la menace la plus pressante contre l’interprétation vient du big data, de l’analyse littéraire quantitative, de la critique itérative ou algorithmique, de la fouille de texte, bref, de ce qu’on appelle les humanités numériques. En bref, ces nouvelles méthodes facilitent-elles, enrichissent-elles l’interprétation, ou ouvrent-elles un nouveau paradigme en critique littéraire, un paradigme qui ne laisse aucune place à l’interprétation en ce qu’elle est liée à la chance et à la grâce ?

L’interprétation, qu’elle soit littéraire ou non, se base sur la répétition, la similitude et l’analogie9. Depuis Augustin et Thomas, l’outil fondamental de l’interprétation est la méthode des passages parallèles, ou Parallelstellen-methode : afin d’éclairer un mot, une expression, un passage de la Bible obscur ou difficile à interpréter, un segment qui nécessite développement ou exégèse, on recherche un passage comparable ailleurs dans l’ouvrage. La version sécularisée de cette méthode exégétique nous dicte de chercher un mot, une expression, un passage comparable dans le même ouvrage, ou à défaut, dans un autre ouvrage du même auteur, ou dans un autre ouvrage de la même période. Cela présuppose que la langue, et donc la littérature, est répétitive et cohérente (tout comme le cerveau humain), ce qui fait que les motifs répétitifs permettent l’interprétation. Le cercle herméneutique a besoin d’analogie, c’est-à-dire de l’association de la répétition et de la cohérence. Le légendaire hapax legomenon (un mot qui n’apparaît qu’une seule fois dans un contexte, que ce soit dans l’ensemble des traces écrites d’une langue tout entière, dans l’œuvre d’un auteur, ou dans un seul et même texte) n’a de sens qu’en partant du principe que la répétition et la cohérence existent.

Le mathématicien Émile Borel a conçu en 1913 la fable des « singes dactylographes » et le paradoxe du singe savant, cher à Proust et utilisée par Jorge Luis Borges dans La Bibliothèque de Babel. Un singe qui tape au hasard sur les touches d’une machine à écrire pendant un temps infini finira « presque sûrement » par écrire un texte donné, comme par exemple l’œuvre complète de Shakespeare. D’une certaine façon, nous sommes de fait entrés dans un monde de « singes dactylographes », de probabilité sans grâce.

Dans le monde de l’imprimerie, des textes physiques, le monde du cercle herméneutique – c’est ce que je disais aux chercheurs en herbe – on commence par émettre une hypothèse d’interprétation, puis on mène une analyse formelle, on part à la chasse d’une analogie, à la quête d’un motif formel qui confirmera ou infirmera, vérifiera ou remettra en question l’hypothèse de départ. On observera un motif formel dans le cadre d’une interprétation ou d’une proposition herméneutique, c’est-à-dire d’une corrélation entre sens et forme.

La démarche est différente dans le monde des textes numérisés, où aucune hypothèse d’interprétation n’est ou ne doit être émise avant l’observation de motifs au moyen de leur fréquence statistique. La fouille de texte permet d’extraire des motifs au sein de données d’entrée brutes, c’est-à-dire des données à la structure minimale, et l’évaluation en traitera les résultats. L’interprétation joue toujours un rôle, mais pas comme point de départ (dans l’hypothèse qui amorce le cercle des questions-réponses), ce qui modifie son statut et me pousse à m’interroger : le travail effectué après la détection de motifs répétitifs dans les textes peut-il toujours être qualifié d’interprétation ?

Prenons l’exemple du traitement automatique des textes, que l’on appelle aussi analyse quantitative, critique itérative ou encore algorithmique. Ce traitement implique la classification statistique de styles et de genres littéraires comme produit dérivé de la recherche computationnelle sur l’attribution d’auteur. La stylistique statistique a été largement appliquée au vieux problème du théâtre élisabéthain, l’énigme des collaborations entre dramaturges et l’attribution des pièces à Shakespeare ou à un autre auteur, comme John Fletcher. Il s’avère que les ordinateurs gèrent les questions d’attribution bien mieux que les cerveaux humains, car ils traitent les mégadonnées et sont capables de distinguer les genres automatiquement. J’ai à l’esprit, entre autres, les contributions de John Burrows et Hugh Craig, du Centre for Literary and Linguistic Computing (Centre pour la littérature et la linguistique computationnelles) de l’Université de Newcastle, en Australie, ou encore celles, s’appuyant sur le programme DocuScope de l’Université Carnegie-Mellon, de Jonathan Hope et de Michael Witmore, ce dernier dirigeant à présent la bibliothèque Folger Shakespeare.

L’idée est d’utiliser comme variables pour l’attribution d’auteur les fréquences, calculées automatiquement, de caractéristiques linguistiques. Je cite Hugh Craig : « La stylistique computationnelle vise à trouver dans la langue des motifs qui sont liés aux processus d’écriture et de lecture, et donc au “style” au sens large, mais qui ne peuvent pas être démontrés sans méthodes computationnelles »10.

Idéalement, aucune hypothèse d’interprétation ne devrait être faite avant qu’un corpus numérisé ne soit soumis au programme ; les mots les plus fréquents sont comptés et leurs fréquences respectives sont utilisées comme variables : « Dans l’idée de commencer avec aussi peu de suppositions que possible, nous prenons vingt-cinq pièces de Shakespeare […] et déterminons les douze mots les plus courants dans l’ensemble de ces pièces. Nous pouvons ainsi créer un tableau recensant chacun de ces douze mots dans chacune des vingt-cinq pièces » (274). Hope et Witmore ont par la suite recensé les cent mots les plus courants dans 776 morceaux de mille mots, extraits de l’intégralité des trente-six pièces du Premier Folio.

Puis on réalise une analyse en composantes principales (ACP) sur le tableau qui en résulte : « L’analyse en composantes principales (ACP) est une technique statistique largement utilisée en stylistique computationnelle afin d’analyser la variation dans ce type de tableaux. Elle crée de nouvelles variables composites, qui sont des combinaisons des variables d’origine, chacune ayant reçu une pondération propre. L’objectif est de simplifier les données en trouvant quelques nouvelles variables qui représentent l’essentiel des relations révélées par le tableau » (274). L’ACP est une méthode de traitement de données qui permet de simplifier les informations (de p variables à q composantes, via la pondération ou la combinaison linéaire de variables) ; elle représente ainsi au mieux la variabilité des données, c’est-à-dire avec le minimum d’informations perdues dans l’identification des motifs.

L’innovation clé est par conséquent l’élimination dans ce processus de l’interférence humaine, que l’on considère comme biaisée, les variables émergeant ainsi des textes d’elles-mêmes, d’abord simples (les caractéristiques linguistiques distinctives) puis composites, à travers une classification sans supervision (le recensement des mots les plus fréquents et l’ACP). Les fréquences relatives des mots les plus courants sont exploitées afin de comparer les textes et de mettre à l’épreuve les attributions d’auteur.

Il se trouve que dans tout texte, les mots les plus fréquents sont des mots très courants, des mots grammaticaux, à la signification lexicale limitée : les repères de la stylistique computationnelle sont ainsi les mots-outils, le ciment des phrases. Cela peut sembler contre-intuitif aux chercheurs traditionnels, mais le style identifiable d’un auteur, la signature d’un texte, repose non pas sur ses mots lexicaux, aussi pleins et rares soient-ils, sur ses hapax legomena, mais bien sur ses épingles dénuées de sens, ses articles, pronoms, prépositions, conjonctions, auxiliaires verbaux. Les mots-outils, par opposition aux mots pleins, seraient ainsi les paramètres optimaux pour attribuer un texte, identifier un auteur, un style individuel. Dans leur banalité, ces mots-outils forment un réseau insignifiant d’agrafes auxquelles nous ne prêtons pas attention lorsque nous lisons un texte à la recherche de sens et d’originalité, mais ce sont eux que la machine compte. Le style individuel tient au liant linguistique qui ne mérite aucune interprétation (le ciment qui tient les briques, ou selon l’exemple de Hope et Witmore, la pâte qui entoure les fruits secs dans un pudding). Une lecture linéaire passe à travers sans s’arrêter, dans sa quête du singulier, de l’original, de l’unique, du mémorable.

Non seulement la stylistique computationnelle ou la critique itérative est-elle capable de distinguer Shakespeare et Fletcher, mais, telle que Craig l’a appliquée au Premier Folio de Shakespeare, elle corrobore la classification générique entre les pièces effectuée lors de leur compilation d’origine, séparant tragédies, comédies, pièces historiques, et romances tardives, ainsi que la division chronologique entre pièces précoces, intermédiaires et tardives. Le résultat est un graphique où, sur l’axe des abscisses, les mots qui obtiennent le score le plus élevé sont I, is, you et it, concentrés dans un groupement car leur fréquence est similaire dans certaines pièces ; et de l’autre côté figurent les mots of, and et the, car leur fréquence est similaire dans d’autres pièces. Sur la droite, on trouve les pièces où l’interaction et le dialogue dominent, les comédies ; et sur la gauche, celles où la description domine, les pièces historiques. Une conséquence essentielle et inattendue est donc la possibilité d’identifier automatiquement les genres littéraires. Ces processus « rendent le genre visible au niveau de la phrase »11.

Examinons les conséquences que cela peut avoir sur l’avenir de l’interprétation. La fouille de texte procède différemment de l’interprétation traditionnelle, et même de façon opposée : elle détecte dans les données des motifs répétitifs qui sont indétectables par l’œil ou le cerveau humain, et qui ne peuvent être révélés que par un processus computationnel ; et ce processus se produit automatiquement, sans qu’on l’alimente en hypothèses, sans supervision. Nous ne savons pas ce que nous cherchons, mais nous cherchons.

Mais que faire du résultat ? La reconnaissance de motifs est-elle toujours de l’interprétation ? Les composantes principales ont une définition mathématique (ce sont des combinaisons linéaires de fréquences) ; elles devront être « interprétées » le moins possible : à gauche les comédies, à droite les pièces historiques, ce qui confirme ce que les lecteurs humains de Shakespeare savent depuis le début, mais sans avoir besoin de les lire, d’avoir du flair.

La fouille de texte pourrait sonner le glas de la lecture rapprochée. Franco Moretti, qui a appliqué DocuScope au roman victorien, parle de « lecture à distance » pour décrire sa classification en sous-genres sans supervision. Plus besoin de lecture humaine, il suffit de calculer les mots les plus fréquents : ce processus va « là où les lecteurs humains ne peuvent tout simplement pas aller », a « le pouvoir inhumain des répétitions arbitraires propres au calcul informatique »12. On pourrait ajouter qu’il ne se soucie pas de la lecture (et relecture) linéaire, car il est non directionnel. On nous encourage à classifier, c’est-à-dire à évaluer, sans lire, sans contexte, en additionnant simplement des nombres et en extrayant les motifs, ce qu’on ferait mieux si on évite de lire.

Que pourrais-je dire aux étudiants si on me demandait à nouveau de donner un cours d’introduction à la recherche littéraire ? Je crois que je leur dirais deux choses.

Tout d’abord, je leur dirais que la fouille de texte élargit de façon extraordinaire les possibilités d’analogie, pour ceux d’entre nous qui apprécient déjà d’utiliser les dictionnaires, les index, les tables et les concordances. Oui, le nez est indispensable, mais les lecteurs qui ont du nez sont en général friands d’ouvrages de référence. Pour ceux d’entre nous qui ont grandi dans le monde du livre imprimé, la fouille de texte étend considérablement notre perspicacité d’interprétation. L’incertitude vient plutôt de la génération suivante, qui a grandi dans le monde du numérique, dans une culture de lecture à distance. J’ai lu des mémoires assistés par ordinateur où les données sont plus abondantes que nous n’aurions pu le rêver il n’y a pas si longtemps, mais où l’interprétation n’a pas plus de consistance – et souvent moins de profondeur – que ce que nous produisions avec notre flair.

Et ensuite, je leur dirais qu’heureusement, il y a des anomalies. Les méthodes statistiques génèrent des valeurs aberrantes. La règle générale est de les ignorer, de ne pas céder à l’envie de les interpréter. Est-ce possible dans le cas des anomalies littéraires ? La littérature n’est-elle pas justement constituée d’anomalies ? Dans le Premier Folio, Othello est l’anomalie, une tragédie perdue dans un groupement de comédies. Il nous faut donc encore lire cette pièce, la lire de façon rapprochée, comme un chien de chasse, avec du nez, pour arriver à comprendre pourquoi.

Collège de France et Université Columbia

                         

Trad. Marianne Siréta

Antoine Compagnon, « The Resistance to Interpretation », New Literary History, vol. 45, n° 2, printemps 2014, p. 271-280, publié par Johns Hopkins University Press
 (DOI : 10.1353/nlh.2014.0014/) : http://muse.jhu.edu/joumals/nlh/summary/v045/45.2.compagnon.html

 


1 Blaise Pascal, « Console-toi. Tu ne me chercherais pas si tu ne m’avais trouvé », dans Pensées, éd. Louis Lafuma (Paris : Collection l’Intégrale, Éditions du Seuil, 1963), 919.

2 Bernard de Clairvaux, L’Amour de Dieu, éd. Françoise Callerot (Paris : Éditions du Cerf, Collection Sources chrétiennes, 2010), ch. 7.

3 « Nihil est quod occulte in aliquo loco sacrae Scripturae tradatur, quod alibi non manifeste exponatur. » Summa theologica, I, qu. 1, art. 9.

4 « Qui n’aime la chasse qu’en la prinse, il ne luy appartient pas de se mesler à nostre escole », dans Essais, éd. P. Villey et V. L. Saulnier (Paris : PUF, 1965), III, ch. 5.

5 John Locke, Essai sur l’entendement humain, trad. Jean-Michel Vienne (Paris : Librairie philosophique J. Vrin, 2001), 37-38.

6 Robert K. Merton et Elinor Barber, The Travels and Adventures of Serendipity: A Study in Sociological Semantics and the Sociology of Science (« Les Voyages et aventures de la sérendipité : étude en sémantique sociologique et en sociologie des sciences », inédit en français), avec une introduction de James L. Shulman (Princeton, New Jersey : Princeton University Press, 2006).

7 Carlo Ginzburg, Clues, Myths, and the Historical Method (Indices, mythes et méthode historique, inédit en français ; Baltimore : Johns Hopkins University Press, 1989), 87-113.

8 Marcel Proust, À la recherche du temps perdu, vol. 1, Du côté de chez Swann (Paris : Gallimard, 1946), I, ch.1.

9 Cf. l’ouvrage récent de Douglas Hofstadter et Emmanuel Sander, Surfaces and Essences: Analogy as the Fuel and Fire of Thinking (« Surfaces et essences : l’analogie, ce qui allume et attise la réflexion », inédit en français ; New York : Basic Books, 2013).

10 Hugh Craig, « Stylistic Analysis and Authorship Studies » (« Analyse stylistique et études de la paternité des œuvres », inédit en français), dans A Companion to Digital Humanities, dir. Susan Schreibman, Ray Siemens, John Unsworth (Oxford : Blackwell, 2004), 273.

11 Jonathan Hope et Michael Witmore, « The Very Large Textual Object: A Prosthetic Reading of Shakespeare, » (« Le très grand objet textuel : une lecture prothétique de Shakespeare », inédit en français), Early Modern Literary Studies 9, no. 3 (2004) : 360.

12 Franco Moretti, Distant Reading (« Lecture à distance », inédit en français ; Londres : Verso, 2013) ; Hope et Witmore, « The Very Large Textual Object », 359.