Chapitre 02 - interpretatio

Chapter II - interpretatio

Then began the epoch of interpretation, an epoch in which we are doubtless still living and from which one should rightly be allowed to expect (more so than from positivism and Geistesgeschichte) a new revival of hermeneutics, of the ars interpretandi. But what the epoch of interpretation took over from hermeneutics was little more than the name: the art of interpretation, and the concept of the hermeneutic circle. (Peter Szondi 1978)

Nous avons précédemment défini la lecture comme une modélisation textuelle, un cadre au sein duquel l’interprétation peut être approchée comme la création d’un méta-modèle : un travail d’inférence à partir de modèles littéraires ou extratextuels (sociohistorique, linguistique, biographique, etc.). Dans ce chapitre, nous montrons d’abord que l’abduction et, dans une moindre mesure, l’induction permettent d’imiter plusieurs tâches herméneutiques et interprétative des littéraires. Ces formes d’inférences ont des équivalents algorithmiques parfois directs, l’induction par exemple est mathématisable selon certaines conditions, parfois indirects (nous discuterons des liens entre l’abduction et l’inférence bayésienne dans le dernier tiers du présent chapitre). Nous ne désirons pas réduire l’interprétation littéraire à la modélisation et des opérations logiques, notre argument est plutôt que des parallèles importants existent entre des formes limitées d’interprétations littéraires et des méthodes algorithmiques. En outre, pour légitimer notre démarche, nous créons un parallèle similaire entre la biosémiotique, la sémiotique littéraire et la cybersémiotique, le but étant le réduire la distance entre la création de signes et de sens par un être vivant et une machine à une différence de degrés sur un même continuum d’évolution biotechnologique (Hayles 2019). Pratiquement, nous utilisons donc l’idée d’un méta-modèle comme le résultat d’inférences à partir des informations structurées générées par la modélisation de textes littéraires, ce méta-modèle peut prendre la forme de généralisations, d’une classification, de définitions, etc. (Fayyad, Piatetsky-Shapiro, et Smyth 1996). Les différences et particularités des modélisations humaines ou algorithmiques favorisent certaines structures et formes de modèle, dans un cas comme dans l’autre. Par exemple, la lecture émotionnelle humaine est encore difficile à répliquer mécaniquement pour des textes complexes (Nalisnick et Baird 2013a) alors que la production d’un réseau de concordance est beaucoup plus rapide avec un algorithme (Busa 1980). Ces différences humain-machine auront par ailleurs un impact sur le type d’inférences que les deux formes de cognitions (humaine ou computationnelle) peuvent produire. Notamment, les humains sont généralement incapables de trouver des tendances dans une base de données à plus de quatre dimensions alors que les méthodes algorithmiques excellent à ce genre de tâche (Fayyad, Piatetsky-Shapiro, et Smyth 1996). Les découvertes de la cognition ne sont pas toujours facilement formalisables, et nous ne parvenons pas toujours à rendre les découvertes de la computation intelligibles, mais notre utilisation du mot “sens” étant dissociée de la compréhension, nous approchons ces inférences et méta-modèles comme du possible sens herméneutique.

Cadre théorique

Dans son article Pathologies of Epistemology in Literary Studies, Rory Ryan décrit avec prudence le sapage du paradigme d’une autorité interprétative, qu’elle soit autoriale ou transcendantale. Selon Ryan, “It is difficult, having challenged objectivism, not to go ‘the whole way’ and allow pure subjectivism, pure chaos” (Ryan 1985). Nous avons précédemment déclaré que nous n’étions pas en quête d’un algorithme permettant une interprétation absolue ou idéale du texte littéraire : nous ne cherchons pas à substituer la machine à l’auteur ou à Dieu, et rejetons la thèse d’une méthode capable de découvrir la vérité d’un texte littéraire. Parallèlement, nous ne pouvons pas nous résoudre à allow pure subjectivism, pure chaos ; l’interprétation doit être limitée selon des critères d’intelligibilité et de pertinence. Nous ne pouvons nous assurer complètement du respect de ces critères en amont, considérant d’un côté que nos démarches sont expérimentales et (j’emprunte l’expression à (Rockwell et Sinclair 2016)) joueuses et de l’autre que ces critères sont difficiles à formaliser. Nos visées numériques sont limitées d’un côté par notre sujet d’étude, la littérature, et nos outils d’analyse : ces derniers peuvent produire des catégories de manière non supervisée, découvrir des règles internes pour un jeu de données, nous aider à formaliser des définitions, ou effectuer des prédictions pour des données incomplètes (Fayyad, Piatetsky-Shapiro, et Smyth 1996). Dans notre dernier chapitre, nous donnerons des exemples précis de projets de Digital Criticism, mais annonçons d’emblée que ceux-ci reposeront sur les avantages précis de la lecture (ou modélisation) et de l’interprétation numérique.

Des cinq étapes de la modélisation textuelle d’Andrew Piper présentées dans le précédent chapitre, quatre contribuent directement à rendre intelligible et pertinente une expérience herméneutique numérique1. Les étapes de conceptualisation et de théorisation permettent de limiter et de diriger la modélisation littéraire en fonction d’un but, l’interprétation et la modélisation numérique sont téléologiques par nature. Si cela peut être suffisant pour assurer la pertinence des démarches, un processus cyclique de calibration et de reconsidération des étapes précédentes par la validation est nécessaire pour assurer l’intelligibilité de la modélisation. Ces allers-retours entre le chercheur et l’algorithme augmente la marque de l’humain sur la modélisation, une relation qui peut multiplier les instances où les biais conscients et inconscients du chercheur dirigent l’algorithme vers les réponses ou paradigmes de l’humain. Une autre étape de la modélisation a un impact considérable sur la pertinence et, dans une mesure à peine moindre, sur l’intelligibilité d’une interprétation littéraire numérique : la sélection (Piper 2017, 2018; Barthes 1966 ). Les textes passés aux méthodes de modélisation et dont les modèles sont étudiés informent plus que le domaine de découverte : ceux-ci forment l’horizon sémiotique de l’algorithme, son umwelt (Hayles 2019 ; Uexküll 1982). Le umwelt peut être supplémenté par des modèles sur le monde, tels que des informations biographiques des auteurs, sociohistoriques, linguistiques, culturelles, etc. La portée et la forme de cet horizon module les inférences et types d’inférences possibles ; l’interprétation littéraire numérique est confinée par les limites du réseau de signe qui est présenté à l’algorithme. Notre définition de sens et la sémiotique nous servent d’un côté de justification : puisque nous approchons le texte comme un signe complexe, nous sommes en mesure d’évacuer le sens littéral et plusieurs autres considérations linguistiques ; mais aussi à accentuer la continuité entre l’humain et la machine. En effet, pour démontrer certaines équivalences entre la computation et la cognition, il est plus simple de se baser sur un cadre théorique pouvant traiter les deux similairement. Pour mettre en relation les trois médias que sont la vie2, la cognition et la computation, nous devons les placer sur le même continuum d’évolution biotechnologique ; cela signifie isoler le signe comme un phénomène émergent de la matière. L’inscription de la sémiotique littéraire dans le cadre de la bio et de la cybersémiotique nous permet finalement d’appréhender le sens de textes littéraires à partir de méthodes formelles et algorithmiques.

Bio et cybersémiotique

Le signe, plus petite unité sémiotique, ne possède pas de propriété sémantique ; il est, au sens informatique, un pointeur qu’un interprétant aura le loisir de décrypter comme pointant vers différentes propriétés sémantiques (Burton-Roberts 2013). Nos intérêts de recherche nous amènent à nous concentrer sur le signe de type symbolique et à un interprétant qui raisonne par inférence, que ce dernier soit humain ou machine. Nous nous intéressons également au signifiant ; toutefois, la définition de Ferdinand de Saussure est limitante : il fait du signifiant un objet, une action, un processus ; dans le cadre linguistique, nous parlerions de d’une propriété sémantique du sens, le sens littéral (John Rogers Searle et Latraverse 1979). Notre approche au signifiant est plus complexe, d’abord à cause de l’importance que nous donnons à l’interprétant ; nous avons théorisé le texte comme générateur d’un espace sémiotique qui est resserré au contact d’un lecteur puisque celui-ci est détenteur d’un réseau de signes qui entre en dialogue avec celui du texte (Culler 1976). Ainsi, les sens d’un texte ne sont pas limités aux exemples saussuriens, le texte peut pointer vers des expériences et concepts qui ne sont pas encore linguistiquement établis et stables, et même des idées qui n’entrent pas dans les paradigmes expérientiels et conceptuels. Appréhender le sens comme étant le résultat du contact entre deux réseaux de signes nous amène aux cadres théoriques de Terrence Deacon et de N. Katherine Hayles, le premier décrivant la production de sens comme une dynamique (Deacon 2011), et la seconde comme une intermédiation (Hayles 2019). Dans Incomplete Nature, Deacon classifie différents types de système en fonction de leurs rapports aux contraintes et à l’anticipation. Selon lui, un système producteur de sens renforce les contraintes qui rendent possibles son existence et développe des mécanismes de réaction à son environnement qui arrivent à faire un lien entre un phénomène absent et un phénomène présent (Deacon 2011). Ces liens sont, en termes biosémiotiques, des signes, et le sens est un réseau complexe de ceux-ci. L’approche de Hayles est plus libre puisqu’elle ne se limite pas à la biologie ; elle utilise plutôt le principe de médias : entre différents niveaux d’organisation de la matière, les interactions mènent à la création de signes par anticipation. Similairement à Deacon, elle place le sens dans le système complexe de signes qui permettent la représentation et la découverte de connaissance dans d’autres niveaux d’organisation (d’autres médias) (Hayles 2019). Dans un cas comme dans l’autre, la relation entre le signe et le sens se trouve dans deux aspects de l’interprétant : ses caractéristiques (nous les avons décrites dans le premier chapitre pour un lecteur humain ou algorithmique) et le réseau de signes dont il est porteur. Ce type de relations entre (et d’inférences à partir de) deux réseaux ou systèmes est théorisé dans la biosémiotique, la sémiotique littéraire, et la cybersémiotique : le même processus est présent dans ces trois médias (Hayles 2019). Nous utilisons ici les définitions de Hayles : soit qu’un média est un niveau d’organisation de la matière et le sens est une relation comportementale (ou décisionnelle) entre un interprétant et un réseau de signes (Hayles 2019) ; et de Deacon : soit qu’un signe est une relation entre ce qui est présent et absent, produite par un système téléodynamique de contraintes orthogrades (Deacon 2011). En d’autres mots, pour qu’un signe existe, il doit être généré et entretenu par un système récursif qui reproduit ses propres contraintes et y génère des corrélations (Deacon 2011).

L’explication de Deacon est destinée à expliquer la formation de signes chez des êtres vivants, mais Hayles (dont le cadre théorique substitue les systèmes pour les médias) utilise ces définitions (et le cadre de l’intermédiation) pour démontrer qu’un programme informatique est également à même de produire des triades sémiotiques et des réseaux entre ces dernières. Hayles écrit :

As a relational operator, a sign creates possibilities for meaning making because it brings a behavior (the interpretant) into relation with the object, the absential phenomenon for which the sign stands. (Hayles 2019)

Dans le cadre de la biosémiotique, Wendy Wheeler suggère que le sens est une fonction ; ce type de relation au monde est donc lié au potentiel de transformation de l’environnement par l’organisme :

The meaning of something is to be discovered in what it does in the world, in how it allows things to be and also to change. Thus we say that a biological meaning is a function. (Wheeler 2016)

Cette approche au sens n’est toutefois pas conclusive dans le cadre de la cybersémiotique, d’abord à cause des particularités du numérique, mais aussi à cause du biocentrisme (ou de l’anthropocentrisme) sous-entendu par Wheeler (Hayles 2019). Pour répondre à Wheeler, Hayles se tourne vers une analogie à la compréhension :

With design and purpose displacing biological imperatives in the First Great Inversion3, a computer achieves meaning in this behavioral sense when it processes an algorithm, reads a data set, performs the calculations indicated, and produces results that it “understands” through its anticipations, interpretations, and information flows. (Hayles 2019)

Elle reste prudente, en mettant d’abord le terme understand entre guillemets, mais aussi en spécifiant que le computational media n’a pas de compréhension du même registre que la compréhension humaine ;

nevertheless, they are capable of meaning-making practices within their umwelten, performing actions in response to internal and external cues, making interpretations, and constructing relations between what is present and what is absent through their anticipations and operating constraints (Hayles 2019)

Pour Burton-Roberts le sens tel que produit par un interprétant “depends on [the subject] making inferences based on her beliefs” (Burton-Roberts 2013). Certains algorithmes peuvent produire des inférences, mais qu’en est-il de la croyance? Pour l’être humain, l’abduction est une inférence basée sur les croyances d’un individu, mais si l’abduction est formalisable, elle est difficile à mathématiser. En conceptualisant la croyance comme un degré de certitude à l’aide de l’inférence bayésienne, nous obtenons un équivalent numérique à l’abduction. Les statistiques bayésiennes se basent sur des probabilités de vérité, et dont les présuppositions sont mises à jour au contact de nouvelles observations, ce qui est différent de l’abduction4, mais valable dans la construction de connaissance. L’humain comme l’algorithme rencontre ses modèles tirés de la lecture à l’aide de la logique, mais cette dernière ne saurait être déductive, plutôt, des conclusions probabilistes et des inférences “to the best explanation” (Douven 2021) servent à générer du sens des modèles. Il suivra que l’algorithme est producteur de sens puisqu’il peut être mené à simuler la production humaine de sens sous la forme d’inférences guidée par des “croyances” dans le contexte de réseaux complexes de signes. Plus précisément, des méta-signes pertinents et intelligibles (au moins dans le cadre de la cybersémiotiques) peuvent être générés à partir du média numérique en se basant sur des signes dont la production rappellent le rapport du vivant à un environnement. Une partie de cette équivalence vient de la possibilité de simuler la croyance comme étant un degré de certitude, une méthode statistique basée sur le théorème de Baye (Weisberg 2009). Le sujet de la compatibilité entre l’inférence bayésienne et l’abduction est un sujet de débat dans lequel nous ne nous positionnerons pas ; cette compatibilité n’est pas nécessaire à ce que nous parlions d’équivalence et, de plus, nous ne nous basons pas sur les mêmes critères épistémologiques que la science [Douven (2021) ; weisberg_locating_2009]. Notre agnosticisme dans cette discussion est également motivé par notre décision de ne pas formaliser l’inférence humaine (abduction ou induction)5, la prochaine sous-section met donc l’accent sur le passage, grâce des inférences (rhétoriques ou logiques), de modèles de signes à un méta-modèle.

Méta-modèles et inférences littéraires

La modélisation de textes littéraires est un sujet établi des humanités numériques (Moretti 2013 ; Piper 2018, 2017 ; Underwood 2019 ; Nalisnick et Baird 2013a), et nous y retournerons dans notre dernier chapitre. L’analyse de modèles littéraires créés par des humains ont tendance à être aussi faite par des humains, bien que l’on trouve dans la littérature des exemples de représentations humaines analysées à l’aide d’algorithmes (Moretti 2013) et de modèles numériques étudiés par des humains (Nalisnick et Baird 2013a). Nous décrirons dans notre dernier chapitre ce genre de recherche collaborative humain-machine comme du computer-assisted criticism (Rockwell et Sinclair 2016). Plus généralement, une herméneutique algorithmique peut être conceptualisée comme une modélisation littéraire suivie de l’analyse du modèle pour générer un méta-modèle ; c’est là le paradigme précédemment présenté de création de signe, puis de sens. Qu’est-ce qui nous permet de parler de sens littéraire en référant à l’inférence algorithmique basée sur des modèles générés automatiquement? D’abord, le fait que ce travail herméneutique n’est pas fait en vase clos, mais plutôt le résultat d’une collaboration dialogique entre l’humain et l’ordinateur : les découvertes sont le résultat de cette rencontre et non de la mécanique seule (Rockwell et Sinclair 2016 ; Piper 2017 ; Moretti 2013 ; Ramsay 2011). La supervision humaine offre une certaine validité à notre démarche ; après tout l’humaniste connait les objectifs, les limites, et la portée des études littéraires et reste central à la recherche ; le littéraire doit être en mesure de discerner les résultats pertinents et les rendre intelligibles. Ensuite, et de manière peut-être plus intéressante, parce que nous avons la possibilité de rejeter une conception anthropocentrique de l’herméneutique et d’appréhender de nouvelles avenues de recherche [Hayles (2019) ; Ramsay (2011) ; binder_alien_2016]. Ce point est paradoxal considérant que nous venons de mettre l’accent sur la relation humain-machine comme étant une simple extension de la cognition, mais les structures de recherche proposées dans le dernier chapitre offriront des moyens pour pousser les limites de la cognition en terrains inconnus.

Certains intérêts de recherche des littéraires peuvent être réduits à des inférences, soit à l’abduction, à l’induction6, et à l’inférence bayésienne. Ces intérêts sont la généralisation à partir du particulier (Piper 2020 ; Moretti 2013 ; Underwood 2019), le positionnement d’une oeuvre dans un corpus (incluant la classification) (Wendell 2021 ; Nalisnick et Baird 2013b), et recherche de sens d’un texte à partir de modèles sociohistoriques, psychologiques ou philosophiques (Tracey et Morrow 2006). Dans ces cas (et d’autres que nous ne considérons pas directement), des observations sont combinées pour découvrir des classes de connaissances d’une autre nature, c’est un cas de double intermédiation selon la définition qu’en fait N. Katherine Hayles (Hayles 2019). En effet, les observations qui sont faites du texte sont le résultat d’une médiation, nous avons d’ailleurs mis l’accent sur cet aspect de la lecture en la qualifiant de modélisation. L’intermédiation est synonyme de perte d’information, ainsi, il est nécessaire de rappeler que l’étude d’un modèle n’est pas l’étude du texte (Erb, Ganahl, et Kilian 2016), à ce sujet dans le cadre de la biosémiotique, Hayles écrit :

In informational terms, the specific levels formed by physicochemical media always contain more information within the level than they communicate upward or downward. Indeed, it is precisely this reserve of dynamic information that characterizes the levels as such. (Hayles 2019)

Prenant l’exemple des particules subatomiques, elle ajoute que certaines caractéristiques d’un média (que nous pourrions qualifier de niveau d’émergence de la matière) ne sont visibles que dans un média adjacent ; l’émergence de nouvelles qualités est couplée à la découverte de qualité invisible aux niveaux précédents (Hayles 2019). Ainsi, les modèles littéraires produits ne sont pas les textes dont ils sont issus, mais lorsque nous considérons ce nouveau paradigme, des informations d’un nouvel ordre qui réfèrent au texte deviennent visibles (Erb, Ganahl, et Kilian 2016 ; Piper 2018 ; Jockers 2013). C’est le cas des genres littéraires qui ne peuvent être générés au niveau des textes eux-mêmes, et demandent une comparaison de modèles textuels, tels que la longueur, les émotions produites, les archétypes utilisés, les structures narratives, etc. C’est à partir de ces informations qu’un nouveau modèle (un méta-modèle) peut générer des catégories à l’aide de l’abduction : le genre littéraire est une explication des différences et du groupage entre les textes qui n’est pas fondamentale, mais qui explique au mieux le phénomène observé (Douven 2021). Dans cette optique, notre choix de considérer le texte comme un assemblage de signes est à nouveau révélé comme n’étant pas innocent ; d’abord puisque la sémiotique nous permet de mettre l’accent sur l’inter- et l’intratextualité, et puis parce que considérer le signe comme un niveau d’émergence de la matière nous permet de théoriser le sens à son tour comme un niveau d’émergence (Hayles 2019 ; Deacon 2011). La sémiotique nous permet ainsi de ne pas nous frotter aux problèmes de la sémantique ; un dossier que nous préférons laisser aux linguistes. L’herméneutique littéraire numérique que nous avons mise de côté dans le dernier chapitre refait ainsi surface dans le présent chapitre ; notre but final est, après tout, une contribution au champ du Digital Criticism. N. Katherine Hayles, à qui nous empruntons plusieurs définitions en ce qui a trait au sens, écrivait en 2019 : “Accepting that meaning making is not an exclusively human prerogative is a crucial step in the right direction” (Hayles 2019). Il s’agit à la fois d’un déplacement des questions de Searle et de Turing (John R. Searle 1980 ; Turing 1950) sur la cognition et la compréhension, que nous mettons complètement de côté au profit d’un autre type de réconciliation humain-machine : en plaçant l’un comme l’autre sur le même continuum de l’évolution biotechnologique, nous avons un cadre théorique pour l’interprétation de texte littéraire qui couvre les deux à la fois.

In broad strope, the first evolutionary leap bootstrapped complexity from simpler mechanistics reactions; the second emerged from the first, bootstrapping meaning-making practices from complexity; the third emerged from the second, bootstrapping artificial cognition from biologically derived signs and meanings. (Hayles 2019)

Cette continuité permet à Hayles de théoriser le signe et le sens en termes d’émergence au passage de différents niveaux d’intermediation qu’elle définit ainsi :

intermediation can be understood as an alternation between ements considered as individuals, which interact among themselves to create the quasi-stable patterns that are incorporated into the emergence of individuals at a higher level of complexity, creating a process that results in increasingly complex patterns. (Hayles 2019)

Hayles, s’appuyant sur les catégories de Terrence Deacon, détermine que l’algorithme est une meaning-making practice, mais ajoute également que les niveaux d’émergence se succèdent en ordre de complexité (soit en ordre d’évolution). Grâce aux règles statistiques et à la généralisation, les médias supérieurs en ordre d’évolution ne sont pas nécessairement plus complexes, mais simplement différents, similairement, deux médias peuvent occuper la même strate de l’évolution biotechnologique tout en étant deux formes d’organisation de la matière entièrement différentes. Nous avons relevé une erreur similaire chez Wendy Wheeler qui définissait le sens comme une fonction ; dans un cas comme dans l’autre, le biocentrisme est en cause, ce que nous ne pouvons pas lui reprocher considérant les limites de son sujet d’étude [wheeler_expecting_2016]. Le concept de média est tout de même plus adapté à notre contexte puisque nous ne sommes pas toujours en mesure de quantifier le différentiel de complexité entre un lecteur humain et un algorithme, ou encore entre deux algorithmes7. L’avantage de ce cadre théorique est toutefois teinté d’un compromis majeur : bien que plusieurs de leurs démarches puissent être réduites en termes de modélisation et d’inférence, ce n’est pas ainsi que les chercheurs pensent à la recherche. La prochaine section fait donc le cas qu’une part de la recherche herméneutique et littéraire utilise la modélisation et l’inférence, une recherche que nous assimilons au sens dans sa définition limitée précédemment présentée. En mettant l’accent sur les tâches que l’humain et l’ordinateur peuvent entreprendre, les possibilités du numérique et ses différences avec le biologique n’en deviennent que plus apparentes.

Interprétations humaines

Hermeneutics is both science and art. (Robinson 1995)

Dans sa définition normative, le sens textuel est une propriété sémantique et communicative (Burton-Roberts 2013) : un sujet émetteur a encodé une information qu’un décodeur saurait plus tard décoder (Hall 1999) ; l’intention de l’auteur (rendre une information accessible) se reflète dans l’intention de l’interprétant (accéder à l’information), et le message n’est pas changé par le processus. Cela présuppose une symétrie d’encodage (linguistique, culturelle, etc.), des propriétés sémantiques linguistiques, et une intention de communication d’une information qui vaut la peine d’être encodée, et qui, par le fait qu’elle a été encodée, signale qu’elle vaut la peine d’être décodée. Ces trois aspects sont la cible de critique dans les prochains paragraphes, les deux premiers à cause de principes premiers ou universels, et le troisième dans le cadre de la littérature.

Au-delà du sens littéral

Selon Barthes, le sens littéral est codifié en fonction de la phonétique, de la phonologie, de la grammaire et du contexte (Barthes 1981) ; une vision du sens qui présuppose que le texte possède des propriétés sémantiques (Olsen 1982), ce qui est lourd de conséquences. En effet, en attribuant de la sémantique au texte, ce dernier devient chargé d’un “bon” sens, d’un sens “correct”, et le pouvoir d’interprétation est enlevé au lecteur au profit d’un système interprétatif8. Si certaines formes textuelles présupposent l’importance d’une communication la plus transparente possible (les textes légaux, traités mathématiques et manuels d’assemblage IKEA nous viennent en tête), ce n’est pas le cas de la littérature qui est dénaturée par l’utilisation d’un système rigide d’interprétation (Butler 2017). Une communication parfaite et directe par le texte présuppose également la transparence de l’émetteur ; ce dernier est pourtant en mesure d’encoder des informations sans en être conscient (Butler 2005), ou encore d’encoder des informations sans désirer les voir décoder par tous (Hall 1999). L’opacité de l’émetteur est supplémentée par l’opacité de l’interprétant ; de nombreux facteurs inconscients informent l’interprétation d’un texte de manière imprévisible pour l’émetteur. À ces biais inconscients s’ajoutent les différences linguistiques et culturelles entre les sujets qui rendent impossibles une symétrie entre les processus d’encodage et de décodage de l’information : un interprétant peut décoder un message de manière subversive ou contraires aux intentions de l’émetteur. Pour reprendre les catégories de décodage de Stuart Hall ; toute interprétation est au moins partiellement négociée (Hall 1999 ; Aligwe, Nwafor, et Alegu 2018).

L’asymétrie d’encodage est une caractéristique obligatoire de la communication, et dans le cas de la littérature, un trait assumé et même central. Nous reprenons ici la définition d’Olsen que nous avons précédemment utilisée : “a literary work is a discourse in which an important part of the meaning is implicit” (Olsen 1982). Des signes sociaux et linguistiques contribuent à différencier un texte dont le but est une communication claire et les textes littéraires ; le contexte du texte, son médium, et sa présentation contribue à indiquer le type d’exercice herméneutique qui est attendu au contact d’un texte, mais aussi des différences stylistiques qui sont facilement repérables par un algorithme (Underwood 2019). Si l’interprétation textuelle usuelle demande que le lecteur présuppose que le texte est porteur de sens et que l’information qui y a été encodée vaut la peine d’être décodée, l’interprétation littéraire est quelque peu différente. Nonobstant les lectures non-littéraires et les démarches absolutistes9, le lecteur présume que le texte est porteur de plusieurs sens et que l’acte de décodage, plutôt que l’information qui en est retirée, vaut la peine. Le plaisir de l’interprétation littéraire est dérivé de deux aspects de la littérature, soit l’esthétisme et la satisfaction du vide sémiotique (Culler 1976). Nous ne traitons pas de l’esthétisme dans le présent mémoire, mais le besoin de combler un vide sémiotique donne à l’interprétation un aspect téléologique que nous retrouvons chez le lecteur humain et l’algorithme. Ce vide combiné à la multiplicité de sens force l’utilisation de modèles précis pour permettre de faire s’effondrer les possibilités sémiotiques au profit d’un nombre limité d’interprétations. Le dernier aspect du sens littéral que nous nous devons d’évacuer est celui de l’adéquation entre la linguistique et la sémantique ; un sujet que nous avons déjà touché dans nos présuppositions. Comme le note Noel Burton-Roberts, la langue n’est pas la seule dépositaire du sens (Burton-Roberts 2013), ce qui indique que le sens n’est pas trouvé au même niveau que le texte, il s’agit d’un média différent. Selon Barthes, les unités sémantiques du texte servent une fonction supérieure, qu’elle soit narrative ou discursive (Barthes 1981) ; mais en s’arrêtant à la phrase comme unité sémantique, il commet une erreur : il confond les conventions linguistiques avec le sens (Burton-Roberts 2013). Nous dissocions complètement les signes écrits de propriétés sémantiques, pour les traiter comme des signes qui ne pointent vers des propriétés sémantiques que dans le contexte de réseaux de signes. Le sens est produit par conventions linguistiques : le texte n’a pas de sens, mais plutôt un potentiel de sens actualisé au contact de l’interprétant (Atkin 2013 ; Eco 1976). Le texte, le modèle et l’interprétation, sont trois médias différents, liés ensemble par des contraintes qui permettent l’émergence de l’un par l’autre, une émergence qui peut être dissociée de la sémantique au profit de la sémiotique (Hayles 2019).

Abduction littéraire et autres inférences

Trois tâches communes du littéraire10 reposent sur une combinaison de transformations (la modélisation), associations (intra- et inter- et extratextuelles) et raisonnements (logiques, rhétoriques et intuitifs). Ces raisonnements prennent la forme d’inférences qui, dans le cadre de la recherche littéraire humaine, sont surtout des abductions et des inductions. Plusieurs structures rhétoriques communes révèlent des traces de la logique formelle ; par exemple, la thèse supportée par des arguments est un calque direct de l’induction. Cette dernière cherche à généraliser à partir de cas particulier des règles générales et, au contraire de la déduction qui mène aux conséquences obligatoires de ses arguments, l’induction offre un degré de support pour ses conclusions (Hawthorne 2021). L’induction est mathématisable et formalisable, mais il n’est pas nécessaire d’employer la logique formelle pour l’utiliser ; l’induction peut supporter des conclusions de manière qualitative à l’aide d’arguments clairement binaires ou probabilistes11. Toutefois, les arguments de la littérature ne se prêtent pas tous bien au paradigme binaire vrai-faux et probabiliste de la logique formelle, certains sont conditionnels et la majorité sont dépendants des modes de modélisations textuels utilisés. C’est ainsi que, bien que la structure logique de l’induction soit souvent répliquée dans la recherche littéraire, cette dernière utilise plus souvent l’abduction ; une forme d’inférence que nous utilisons dans la vie de tous les jours de manière instinctive, mais qui a aussi une place centrale dans les démarches scientifiques. En 1998, Niiniluoto formulait ainsi l’abduction :

Given evidence E and candidate explanations H1, …, Hn of E, if Hi explains E better than any of the other hypotheses, infer that Hi is closer to the truth than any of the other hypotheses. (Douven 2021)

L’abduction est une recherche de la meilleure explication pour une série d’observations incomplètes, ce qui est d’une grande importance dans la recherche littéraire où les textes disponibles ne sont jamais l’ensemble des textes possibles, et où un texte est considéré “terminé” quand il est publié plutôt que lorsqu’il peut prétendre être achevé12. Comme nous l’avons précédemment mentionné, l’abduction est utilisée dans la vie de tous les jours pour produire des conclusions ; Igor Douven exemplifie l’ubiquité de l’abduction dans son entrée sur ce sujet dans The Stanford Encyclopedia of Philosophy :

You happen to know that Tim and Harry have recently had a terrible row that ended their friendship. Now someone tells you that she just saw Tim and Harry jogging together. The best explanation for this that you can think of is that they made up. You conclude that they are friends again. (Douven 2021)

Similairement, il montre comment l’abduction est utilisée dans le domaine scientifique en prenant pour exemple les écrits de Sir Joseph John Thomson :

As the cathode rays carry a charge of negative electricity, are deflected by an electrostatic force as if they were negatively electrified, and are acted on by a magnetic force in just the way in which this force would act on a negatively electrified body moving along the path of these rays, I can see no escape from the conclusion that they are charges of negative electricity carried by particles of matter. (Thomson 1897)

Cette réduction à la meilleure explication se trouve aussi dans les études littéraires ; par exemple, la division entre les comédies et les tragédies de Shakespeare reconnaît certaines caractéristiques de ses pièces pour en tirer des conclusions (des catégories). C’est ainsi que des observations sur les pièces se transforment en règles et en paradigmes : 1. Nous observons que plusieurs des pièces de Shakespeare se terminent par un mariage, nous observons que la concentration de jeux de mots à caractère sexuel est haute dans certaines pièces de Shakespeare ; 2. Nous trouvons une corrélation entre les pièces de la première et de la seconde observation ; 3. Nous offrons comme explication que ces pièces font partie de la même catégorie que nous nommons “les comédies” (Barnet 1998). Nous sommes dans l’obligation de faire des inférences à partir d’observations incomplètes, d’un côté à cause des limites de nos modélisations, et d’un autre parce que l’ensemble des textes disponibles pour analyse est toujours incomplet. Certains textes ne sont pas disponibles, certains textes ont été détruits, d’autres encore n’ont jamais été écrits, une problématique à laquelle il est possible de répondre en limitant l’étude à un corpus bien construit et, surtout, définit en fonction des barrières à la production, survie et disponibilité des textes. L’induction et l’abduction fournissent des outils logiques et rhétoriques malgré les limites des arguments disponibles pour ces inférences. Ces arguments sont contingents aux modèles littéraires produits, les conclusions le sont également ; les caractéristiques de la lecture humaine reviennent ainsi former les limites et possibilités de l’interprétation littéraire humaine.

Lecture humaine : conséquences interprétatives

Cette présente section a cherché à montrer les répercussions de l’asymétrie d’encodage, des limites des corpus, et de la sémiotique littéraire sur l’interprétation textuelle ; nous présentons maintenant comment les caractéristiques de la lecture humaine présentée dans le dernier chapitre influencent l’interprétation littéraire. Nous rappelons que ces caractéristiques sont des points saillants de la lecture qui servent de points de comparaison et de démarcation avec l’interprétation numérique. C’est parce qu’elles limitent, formes, permettent et informent les capacités herméneutiques de l’humain sur plusieurs plans différents que les frontières de l’expérience humaine prennent autant de place dans notre analyse (et parce que les frontières de la computation sont radicalement différentes). D’abord, l’interprétation, comme la lecture, est située dans le temps, elle fait donc partie d’une série d’interprétations qui s’entre-affectent : les leçons tirées de l’interprétation d’un texte suivent l’interprétant (à divers degrés) dans ses interprétations subséquentes. Cela est dû au fait que l’interprétant a accès aux modèles précédemment produits dans ses analyses, ces derniers l’informent méthodologiquement (différentes approches herméneutiques auront pu être testées et raffinées) et ont également permis de raffiner ses modèles non littéraires. Qui plus est, l’interprétant peut utiliser les catégories, inférences et connaissances dérivées de son umwelt littéraire (qui ne se limite pas aux modèles littéraires qu’il porte, mais aussi aux inférences préalablement produites) pour appréhender le texte comme un réseau de signes vers des textes et concepts littéraires. Puisque les lectures sont ordonnées, les interprétations littéraires dépendent de facteurs semi-aléatoires ; la toile ainsi formée est unique à un interprétant dans un lieu et temps précis. Ces deux derniers éléments sont le résultat de la diachronie de la lecture, un concept qui ne se traduit pas directement dans le cadre de l’interprétation ; il est possible d’interpréter plusieurs modèles de textes littéraires à la fois, mais il n’est pas possible de produire plusieurs interprétations simultanément. Aux limites causées par la séquentialité de l’expérience humaine s’ajoute une autre caractéristique : l’introduction d’une distance temporelle entre les différents actes herméneutiques produit des déformations et des oublis dans les outils interprétatifs et méta-modèles générés par le passé par un interprétant. Les connaissances et inférences sont donc non seulement déformées par les interprétations subséquentes, mais également par les limites biologiques de la mémoire. D’autres facteurs contribuent à modifier l’interprétation, cette fois alors que l’interprétant accède les modèles littéraires ; ces derniers sont composites et certains des éléments de la lecture ont des effets sur l’état de conscience du lecteur qui peuvent avoir des effets permanents sur l’interprétant ou qui se répètent lorsque celui-ci réactualise son modèle d’une oeuvre qui l’a touché. Par exemple, l’affect émotionnel peut mener à oublier des aspects d’un texte (ou même d’oublier ce dernier entièrement), à mettre l’accent de manière quasi-arbitraire sur des éléments, et modéliser des parties du texte à l’aide d’outils herméneutiques inusités. En plus de l’affect, la relation sociohistorique de l’interprétant au texte change son rapport à ce dernier ; les lectures qui tendent vers l’hégémonique mènent à des interprétations radicalement différentes des lectures oppositionnelles (Hall 1999). Tous ces facteurs moulent les formes d’intertextualité et d’intratextualité que l’interprétant sera à même de convoquer et d’utiliser dans le cadre d’inférences. Le potentiel sémiotique des signes dépend des éléments listés dans le présent paragraphe, et il s’ensuit que les modèles littéraires en sont affectés, tout comme les méta-modèles et inférences qui en découlent. Pour paraphraser dans le jargon informatique ce que Judith Butler répondrait aux obligatoires et importantes approximations qui sont ici décrites “It’s not a bug, it’s a feature!” L’herméneutique est après tout à la rencontre de la vérité et de la méthode, de l’art et de la science ; l’unicité des interprétations littéraires est centrale à la recherche littéraire.

Interprétation numérique

Qu’elle soit le fruit d’un humain ou d’un ordinateur, l’interprétation est un acte téléologique ; mais l’origine relatif des objectifs herméneutiques humains est différent de celle de l’algorithme (John R. Searle 1980). L’interprétation humaine est motivée intrinsèquement, et elle dépend autant de processus conscients qu’inconscients pour les outils qu’elle emploie et ses motivations. Même si certaines traditions herméneutiques déconstruisent activement l’acte interprétatif en fonction de l’intra-, inter- et extratextualité, des facteurs arbitraires, informels, ou inconscients restent fermement enracinés dans les activités humaines (Butler 2005). Dans le cas de l’interprétation numérique, les motivations et biais ne sont pas internes, mais plutôt assujettis aux objectifs du chercheur, à ses biais inconscients, et aux conséquences inattendues de l’erreur humaine, multipliées à chaque itération des calculs touchés (Shah 2018). Cela signifie que l’aspect téléologique d’une interprétation algorithme doit être rendu la plus transparente possible, le chercheur doit rendre visible dans la pleine mesure de ses moyens ses décisions (Ramsay 2011). Plus important encore, les objectifs du chercheur, et par procuration de l’algorithme, doivent être formels, ce qui limite la portée téléologique de l’interprétation textuelle artificielle ; certaines formes d’objectifs littéraires n’ont pas encore su être formalisés. Cela est en partie dû au fait que l’approche du littéraire au texte n’est pas d’abord téléologique, elle ne le devient que lorsque ce dernier décide de porter son attention vers un texte en particulier dans un cadre académique ; les textes sont d’abord rencontrés pour le plaisir de la lecture et l’extension de son réseau sémiotique littéraire. L’interprétation numérique est donc contingente à la décision du chercheur d’étendre son contact au texte ou au corpus, c’est-à-dire que ces efforts herméneutiques sous-entendent que quelqu’un croit que les textes traités en conjonction avec les méthodes utilisées sont à même de produire du sens pertinent et intelligible. La computation, à l’inverse de la cognition, peut rester stable dans le temps, par exemple en conservant parfaitement ses modèles littéraires, sociohistoriques ou linguistiques durant l’ensemble de son processus, ce qui ouvre la porte à certains enjeux éthiques et épistémiques : le moindre biais dans un de ces modèles voit son influence décuplée par l’application rigide et à grande échelle de méthodes d’inférence13. Ces différences permettent de s’assurer que tant qu’une forme d’information est portée par les modèles littéraires de la lecture numérique, et que cette dernière est reconnaissable par l’algorithme d’inférence, chaque instance sera de ce genre d’information sera intégré à l’analyse. C’est là un avantage important de l’interprétation numérique ; les capacités de reconnaissance et de mémoire de l’ordinateur permettent une intratextualité et une intertextualité qui n’est pas approximative (Ramsay 2011). Si les modèles qui lui sont fournis permettent à l’interprétant numérique de simuler certains niveaux de lecture humaine, le rapport entre un humain et ses modèles est différent que celui qu’à un algorithme avec les siens : l’extratextualité de l’algorithme est modulable, pouvant être changée en quelques lignes de code et dépendant totalement des décisions du chercheur. L’utilisation de ces modèles n’est pas, comme dans le cas de l’interprétant humain, approximative : la mémoire d’un ordinateur ne se dégrade pas14 et ce dernier peut accéder pleinement et parfaitement à toutes les informations qui lui sont disponibles. C’est à la fois un problème à considérer (la propagation des biais pouvant grandement nuire aux résultats finaux de manière parfois difficile à détecter) et un avantage : les êtres humains ont beaucoup de difficulté à conserver les paramètres d’un modèle sur une longue période de temps. Sur ce point, l’interprétation littéraire numérique est favorisée par rapport à l’interprétation humaine, puisqu’elle a la possibilité d’être synchronique ou diachronique, et même de se mettre à jour pour simuler le synchronisme dans le cas d’une interprétation diachronique. Les biais conscients et inconscients du chercheur affecte ainsi l’interprétation algorithmique, un piège qui ne saurait être complètement réglé par la création de réseaux sémantiques à partir de méthodes numériques et de données sociales ou linguistiques brutes puisque ces mêmes biais s’appliquent à la conceptualisation et à la sélection des données qui mènent à ces modèles (Shah 2018). Le rapport entre l’algorithme et le modèle sociohistorique ou linguistique est problématisé par un aspect supplémentaire : alors que l’humain est enworlded et embodied, le programme informatique dépend d’un support sans que ce dernier ne soit intrinsèquement similaire à son existence15. Ce genre de modèle n’est toutefois pas nécessaire à notre démarche, l’analyse de textes pouvant se faire à partir d’un umwelt constitué uniquement de textes et de modèles littéraires. L’interprétation algorithmique de ce genre est comparatiste par nature ; c’est d’ailleurs là une forme d’étude littéraire qui se prête spécifiquement bien aux recherches interprétatives numériques. Comme nous l’avons précédemment mentionné, la rigidité de la computation lui permet d’éviter l’approximation après que les paramètres de sa recherche aient été implémentés. La traduction des textes littéraires en modèles en est encore à ses débuts, mais la découverte de connaissances dans les bases de données est une branche de l’informatique qui est très mature en comparaison. Ainsi, un algorithme est à même de découvrir l’ensemble des concordances, répétitions, motifs, variations, etc., dont il connait les définitions formelles. C’est sur ce point, le formalisme, que l’interprétation numérique doit se dissocier des mécanismes présentés dans la dernière section : nous y avons présenté l’abduction comme l’inférence de choix pour l’interprétation humaine. Cette forme d’inférence to the best explanation permet de comprendre ou d’expliquer des passages, oeuvres, corpus et courants littéraires à partir des informations limitées, celles-là mêmes qui sont soit disponibles, soit correspondent aux limites de la cognition. L’interprétation littéraire numérique n’est pas assujettie aux mêmes limites, bien que les informations qui sont disponibles à un algorithme soient également limitées, un autre type d’inférence est donc nécessaire. De plus, l’abduction n’est pas formelle, mais il existe une forme d’inférence formelle qui partage plusieurs caractéristiques avec l’abduction ; il s’agit de l’inférence bayésienne, une forme spécifique d’induction.

Induction algorithmique

In a good inductive argument, the truth of the premises provides some degree of support for the truth of the conclusion, where this degree-of-support might be measured via some numerical scale. (Hawthorne 2021)

L’induction est d’abord un processus de généralisation qui peut mener à la caractérisation, la classification, ou la partition de données ; différentes méthodes de minage de données utilisent l’induction, par exemple les arbres de décisions (Quinlan 1986), la programmation logique inductive (Muggleton et Raedt 1994), et l’inférence bayésienne (Hawthorne 2021). Au contraire de la déduction, l’induction ne génère pas de conclusion qui soit nécessairement vraie (Douven 2021), mais plutôt pour laquelle il existe un haut degré de certitude. L’induction demande trois représentations (ou langage) ; celle des observations (O), celle des connaissances externes (B, background knowledge), et celle des hypothèses (H) (Muggleton 1991).

The general inductive problem is as follows: given a consistent set of examples or observations O ⊆ ℒO and consistent background knowledge B ⊆ ℒB find an hypothesis H ∈ ℒH such that B ∧ H ⊢ O (Muggleton 1991)

Nous cherchons donc une hypothèse formulée de sorte qu’elle puisse être utilisée en conjonction aux connaissances16 pour expliquer les observations. Muggleton prévient :

such a form of inference is not sound in the logical sense since H does not necessarily follow from B and O. In the worst case there could be an infinite number of contending hypotheses all of which fit the relationship shown above. (Muggleton 1991)

Notre réponse de la section précédente tient toujours, nos démarches ne sont pas assujetties aux standards de l’épistémè scientifique17. Douven écrit de l’induction et de l’abduction que

both are ampliative, meaning that the conclusion goes beyond what is (logically) contained in the premises (which is why they are non-necessary inferences), but in abduction there is an implicit or explicit appeal to explanatory considerations, whereas in induction there is not; in induction, there is only an appeal to observed frequencies or statistics. (Douven 2021)

Cette différence nous rappelle que les raisonnements logiques humains et formels sont comme des comédiens qui ne jouent pas dans la même pièce de théâtre (j’emprunte cette image à Douven) : malgré les similarités, l’abduction et l’induction existent dans des paradigmes parallèles (Douven 2021). Alors que l’abduction repose sur des valeurs qui permettent de discriminer entre plusieurs hypothèses (par exemple, la simplicité de l’explication), l’induction cherche à ce que ses conclusions satisfassent le critère d’adéquation :

The logic should make it likely (as a matter of logic) that as evidence accumulates, the total body of true evidence claims will eventually come to indicate, via the logic’s measure of support, that false hypotheses are probably false and that true hypotheses are probably true. (Hawthorne 2021)

Plusieurs formes d’induction algorithmique reposent sur des méthodes heuristiques pour que leurs conclusions répondent au critère d’adéquation, un tel exemple étant l’arbre de décision. Ce type de minage de données permet de découvrir des règles dans une base de données, de classifier des cas inconnus à partir de ces règles, et même de partitionner des jeux de données à partir d’un algorithme simple (Quinlan 1986). L’arbre de décision sélectionne les caractéristiques d’une base de données qui permet au mieux de séparer les données en parts égales, puis reprend ce principe jusqu’à ce que tous les cas puissent être décrits sur les branches de l’arbre métaphorique. Malgré sa simplicité, quelques tâches sont mieux accomplies à l’aide de cette méthode que des statistiques bayésiennes, par exemple l’attribution de données manquantes pour les cas incomplets d’une base de données (Quinlan 1986). De son côté, l’inférence bayésienne offre un cadre épistémologique, formel et probabiliste qui ressemble à l’abduction, ce sera donc le sujet du reste de cette section.

Inférences bayésiennes

L’abduction demande à l’interprétant de générer au moins une hypothèse répondant plus ou moins à “various ‘theoretical virtues’ such as simplicity, consilience and precision” (McGrew 2003). C’est theoretical virtues servent ensuite à évaluer les hypothèses, soit pour signifier que celle produite est satisfaisante, soit pour comparer les diverses hypothèses. Dans Confirmation, Heuristics, and Explanatory Reasoning, McGrew fait état de l’incompatibilité entre les critères de sélection de l’abduction et les mathématiques :

But attempts to bring such theoretical virtues into clear focus without explicitly invoking the probability calculus have not advanced the discussion beyond a clash of intuitions regarding their epistemic relevance, leaving critics with the impression that ‘inference to the best explanation’ remains a slogan rather than an accurate characterization of any form of non-demonstrative inference (Salmon [2001a], p. 60). (McGrew 2003)

La critique épistémologique de l’abduction de McGrew est virulente, mais bien que nous devions garder en tête qu’elle nous informe sur les limites mathématiques de ce genre d’inférence, nous devons nous rappeler des différences entre l’épistémè scientifique et nos propres démarches littéraires. Pour les sciences formelles, la production de connaissance nécessite l’accumulation d’une quantité phénoménale de données (“frequently the evidence is not strong enough to warrant an inference to any of the available explanations” (McGrew 2003)), McGrew ajoute :

IBE only sanctions inference when the ‘best’ is good enough; sometimes, the correct response to the data is agnosticism (Lipton [2001], p. 104). [W]hen the data are sparse, the virtues are worthless: they can do no epistemic work until there are enough of them in place to justify a definite conclusion. (McGrew 2003)

Nous mettons ainsi de côté l’abduction au profit d’une autre forme d’inférence, tant pour des raisons épistémiques que parce que nous avons besoin d’outils formels (lire ici algorithmiques) dans le cadre d’une interprétation numérique. Comme l’abduction, l’inférence bayésienne utilise une série d’observations comme point de départ, mais alors que l’abduction demande la création d’une ou plusieurs hypothèses répondant à des vertus qui serviront à juger et discriminer entre les explications, l’inférence bayésienne produit un degré de certitude pour ces hypothèses à partir de statistiques bayésiennes. Classiquement, un chercheur déciderait que son degré de certitude envers une hypothèse correspond à un nombre sur la place ]0, 1[, où 1 (ici exclu de la plage comme 0) représenterait une confiance absolue et 0 une impossibilité totale. L’inférence bayésienne est en mesure de confronter ce degré de certitude aux données pour donner une nouvelle mesure :

Van Fraassen (1989) interprets [inference to the best explanation] as a policy of favoring explanatorily superior hypotheses by giving their subjective probabilities a post-conditionalization boost. (Weisberg 2009)

C’est toutefois là une forme précise d’inférence bayésienne définit par Weisberg dans son article Locating IBE in the Bayesian Framework :

Subjectivist Conditionalization When you gain new evidence E, your new degree of belief in a hypothesis H, call it q(H), should be your old degree of belief in H conditional on E: q(H) = p(H ∣ E). (Weisberg 2009)

En offrant à chaque hypothèse une chance égale, nous faisons plutôt appel à une inférence bayésienne basée sur une conditionnalisation objective :

Objectivist Conditionalization At any given time, your credence in an arbitrary proposition H ought to be p(H ∣ E), where p is the correct a priori probability distribution, and E is your total evidence at that time. (Weisberg 2009)

La conditionnalisation subjective offre plusieurs défis et défauts, quelques-uns étant épistémologiques, d’autres étant pragmatiques : il est difficile de formuler automatiquement des présuppositions probabilistes pour une hypothèse sans faire intervenir un humain, et ce type d’intervention par un humain n’est pas très solide (Weisberg 2009). Comme suggéré par McGrew, nous explorons l’avenue de l’inférence bayésienne en conjonction à la conditionnalisation objective pour offrir un équivalent algorithmique à l’abduction. Dans son argument pour mettre de côté la conditionnalisation subjective, il ajoute aux points déjà apportés précédemment que cette dernière que cette dernière n’est qu’une heuristique destinée à répliquer arbitrairement l’instinct et de l’expérience humaine avant de la combiner aux statistiques bayésiennes (McGrew 2003). Nous sommes toutefois confrontés à deux problèmes ; d’abord, l’inférence bayésienne ne permet pas de trouver de conclusion définitive au contact d’un jeu de données limitées. Ce premier enjeu est, dans notre cas très spécifique, un anti-problème, puisque nous ne cherchons pas à trouver de conclusions définitives, et bien que nous essayons de nous éloigner de l’idée que nos modèles sont des jouets (Rockwell et Sinclair 2016), notre démarche se veut ouverte et incomplète, ce qui nous rend immunisés aux standards épistémiques du scientisme. Notre second problème est celui de la création d’hypothèses : ces dernières sont généralement produites par des chercheurs qui utilisent l’inférence bayésienne pour les tester. Notre projet d’interprétation littéraire algorithmique nous demande d’aller au-delà des hypothèses humaines, une tâche qui peut être accomplie à partir d’algorithmes génétiques. Noda et Freitas présentent les Genetic Algorithms comme appartenant au champ de la computation évolutive, et parlent d’individus qui dans notre cas correspondent à des hypothèses :

create (usually at random) an initial population of individuals; compute the fitness (a quality measure) of each individual;
REPEAT
select individuals based on fitness;
apply genetic operators to selected individuals, creating offspring; compute fitness of each offspring individual;
update the current population;
UNTIL (stopping criterion) (Noda et Freitas 2006)

Si générer une hypothèse demande des capacités importantes de conceptualisation, décoder une hypothèse produite par un algorithme génétique pour la rendre intelligible sera du domaine de l’exploit, mais c’est là un sujet qui dépasse la portée du présent mémoire.

Statistiques bayésiennes et inférence

L’inférence bayésienne repose sur le théorème de Baye pour lequel nous définissons A et B comme des évènements qui ont une probabilité non nulle (P(A, B) ≠ 0) :

$P(A\mid B)=P(B\mid A)\dfrac{P(A)}{P(B)}$

Ce qui se traduit en langage naturel par : la probabilité que l’évènement A aie lieu si B est vrai (P(A ∣ B)) est égale au ratio entre les probabilités que A et B soient vrais (P(A) et P(B) respectivement), multiplié par la probabilité que l’événement B aie lieu si A est vrai (P(B ∣ A)). Ce théorème est dérivé d’une définition, celle des probabilités conditionnelle :

$P(A\mid B) = \dfrac{P(A\cap B)}{P(B)}$

P(A ∩ B) est la probabilité que A et B soient vrais. Puisque nous nous intéressons à l’inférence, nous utilisons E pour désigner les données (the evidence) et H pour désigner une hypothèse (Weisberg 2009). Chaque hypothèse peut être jugée indépendamment pour calculer notre degré de certitude en celle-ci en fonction des données disponibles (et pour mettre à jour notre confiance relative envers les hypothèses au contact de nouveaux cas de figure). C’est en comparant ces degrés de certitudes que nous pouvons utiliser les statistiques bayésiennes pour inférer quelle hypothèse est supérieure à une autre. Ainsi, pour une hypothèse H, nous donnons une probabilité initiale égale18 à ce que l’hypothèse et sa non-hypothèse soient vraies (P(H) = P() = 0.5).

$P(H\mid E)=\dfrac{P(E\mid H)P(H)}{P(E\mid H)P(H)+P(E\mid \bar{H})P(\bar{H})}$

L’utilisation de l’inférence bayésienne demande de pouvoir conceptualiser en termes mathématiques les données, les hypothèses et le rapport entre les deux. En d’autres mots, les hypothèses testées doivent être applicables algorithmiquement au modèle, de sorte que l’expression mathématique de l’hypothèse lorsque mise en relation au texte offre un résultat binaire vrai-faux. Pour reprendre notre exemple précédent de la séparation entre les tragédies et les comédies de Shakespeare : un modèle simple pourrait être la réponse binaire à la question “la pièce a-t-elle une scène de mariage?” L’hypothèse “les comédies de Shakespeare ont un mariage” pourrait alors être testée contre l’anti-hypothèse “les comédies de Shakespeare n’ont pas de mariage”. Dans ce cas, nous pouvons donner un degré de certitude de 0.9519 à notre hypothèse en tenant compte du fait que 15 des 16 comédies de Shakespeare présentent un mariage, l’exception étant The Comedy of Errors20. Cela ne nous renseigne que sur les comédies, mais pas sur les autres pièces de Shakespeare, après tout, six des tragédies et quatre des pièces historiques de Shakespeare ont également des mariages, soit sur scène, soit sous-entendus, quoique ceux-ci aient tendance à avoir lieu au début de la pièce plutôt qu’à la fin. Si nous utilisons plutôt l’hypothèse : “les pièces de Shakespeare ayant un mariage sont des comédies”, nous découvrons que le degré de certitude pour cette hypothèse est de 0.55, un pourcentage qui monte à 0.68 si nous changeons notre hypothèse pour exclure les mariages ayant lieu dans un premier acte21. Une hypothèse plus complexe permettrait d’identifier plus clairement les comédies des tragédies et pièces historiques, mais demanderait une modélisation plus complexe des pièces de Shakespeare. Pour en venir à ces résultats, nous avons assumé une probabilité égale pour les hypothèses H et les anti-hypothèses $\overline{H}$, ce qui diffère de l’abduction et de l’inférence bayésienne par conditionnalisation subjective. En effet, l’abduction donnerait aux hypothèses et anti-hypothèses des degrés de certitudes qui dépendent de sa simplicity, consilience and precision (McGrew 2003), le degré de certitude de .50 serait arbitraire ou, dans le cas d’une inférence bayésienne subjective, les degrés de certitudes initiaux seraient arbitraires. Dans le cas de l’abduction, notre seconde hypothèse a l’avantage d’être simple et de faire appel à une convention théâtrale établie22, bien qu’elle ne soit pas très précise. En assumant qu’un chercheur place son degré de certitude initial entre 60% et 90%, le degré de certitude après l’utilisation des statistiques bayésiennes place notre hypothèse n’importe où dans la plage [0.76, 0.95]. Ces variations importantes, même pour un modèle jouet et une hypothèse simple, sont la raison pour laquelle nous faisons la promotion de l’inférence bayésienne à partir d’une conditionnalisation objective comme substitut de l’abduction. Nous devons tout de même rappeler que si nous sommes en mesure de trouver de nombreux parallèles entre l’abduction et l’inférence bayésienne, ces deux formes d’inférences ne sont pas équivalentes : la première est basée sur une épistémologie des croyances (belief), et la seconde sur une épistémologie des degrés de croyances (Douven 2021).

Il y aura des humains

Nous avons précédemment énoncé notre objectif comme étant l’interprétation littéraire numérique, et les deux derniers chapitres nous ont mené à créer un cadre théorique où une herméneutique algorithmique est concevable. Bien que nos chapitres aient été divisés entre la lecture et l’interprétation, notre démarche double a cherché à réduire l’écart entre l’humain et la machine. Nous avons d’abord réduit certaines activités herméneutiques humaines à la modélisation et à l’inférence, des processus pour lesquels nous avons présenté des équivalents numériques. Ensuite, nous avons placé la cognition et la computation sur un même continuum d’évolution biotechnologique grâce à la biosémiotique, la sémiotique littéraire et la cybersémiotique. Loin de minimiser les différences entre l’interprétation humaine et algorithmique, nous avons mis de l’avant l’unicité de chaque meaning-making practice : ces deux rapports aux données textuelles et extratextuelles reposent sur des principes, présuppositions et épistémologies différentes, mais sont tous deux en mesure d’interpréter des réseaux complexes de signes. Nous n’avons toutedois pas explicitement montré que l’interprétation littéraire numérique était elle-même critique ou littéraire, notre démarche s’étant arrêté à la notion de sens pour laquelle nous avons dû emprunter une définition tirée de la cybersémiotique. Le Digital Criticism doit répondre à des critères de pertinence et d’intelligibilité, un sujet auquel nous avons touché dans le présent chapitre. À ces deux critères s’ajoute un troisième, plus élusif et résistant aux définitions (formelles ou non) : celui de l’adéquation avec l’idée que se fait la communauté académique de ce qu’est la recherche en littérature. Bien que nous ayons à de multiples reprises souligné qu’une herméneutique numérique est indissociable du chercheur ; nous devons à nouveau nous replier sur ce fait : le Digital Criticism en étant encore à ses premiers balbutiements, ce sera au chercheur de juger de la place des expériences d’interprétation littéraire, et de les assujettir au domaine littéraire. C’est donc en l’humain que repose encore le travail de discernement, ce qui remet l’accent sur l’aspect joueur des démarches d’interprétation numérique. Toutefois, cet aspect est encore présent non pas par nécessité ou à cause de caractéristiques intrinsèques à notre démarche, mais plutôt parce que nous n’avons pas encore de standards de modélisation littéraire, ou de pratiques établies de minage de données littéraires. En attendant le développement d’un certain accord (et parallèlement d’un débat sain) dans la communauté académique sur les outils d’analyse et leur place dans la critique littéraire, le Digital Criticism restera une activité en marge de la recherche normative. S’il est difficile de régulariser (et de faire adopter par un plus grand nombre) les idées et principes d’une interprétation littéraire numérique, il n’en est pas de même pour les conclusions que nous découvrons grâce aux méthodes quantitatives qui peuvent être traduites et présentées dans le langage académique des littéraires. Notre force à ce niveau doit venir des différences épistémologiques entre la cognition et la computation. C’est dans les différences entre l’interprétation littéraire humaine et numérique que se trouve le potentiel de découverte qui rend le Digital Criticism attirant au-delà du développement de ses outils numériques : l’interprétation en dehors de notre paradigme actuel est à même de mener à des connaissances qui sont également en dehors de ce paradigme.

Aligwe, Hygeinus Nwokwu, Kenneth Adibe Nwafor, et Johnson Chinasa Alegu. 2018. « Stuart Hall’s Encoding-Decoding Model: A Critique ». World Applied Science Journal 36 (9). https://doi.org/10.5829/idosi.wasj.2018.1019.1023.
Atkin, Albert. 2013. « Peirce’s Theory of Signs ». In The Stanford Encyclopedia of Philosophy, édité par Edward N. Zalta, Summer 2013. https://plato.stanford.edu/archives/sum2013/entries/peirce-semiotics/; Metaphysics Research Lab, Stanford University.
Aydın-Düzgit, Senem. 2016. « De-Europeanisation through Discourse: A Critical Discourse Analysis of AKP’s Election Speeches ». South European Society and Politics 21 (1):45‑58. https://doi.org/10.1080/13608746.2016.1147717.
Barnet, Sylvan. 1998. « Introduction ». In Shakespeare : Four Great Comedies. Signet Classics.
Barthes, Roland. 1966. Critique et vérité. Seuil.
Barthes, Roland. 1981. « Introduction à l’analyse structurale des récits ». In Communications, 8 : L’analyse structurale du récit, 7‑33.
Binder, Jeffrey M. 2016. Debates in the Digital Humanities. University of Minnesota Press. http://www.jstor.org/stable/10.5749/j.ctt1cn6thb.
Binder, Jeffrey M. 2020. « Romantic Disciplinarity and the Rise of the Algorithm ». Critical Inquiry 46 (4).
Bonissone, Piero P. 1980. « A Fuzzy Set Based Approach: Theory and Applications ». Proceedings of the 1980 Winter Simulation Conference.
Brownlee, Jason. 2018. « Why Initialize a Neural Network with Random Weights? ». Machine Learning Mastery. 1 juillet 2018. https://machinelearningmastery.com/why-initialize-a-neural-network-with-random-weights/.
Burton-Roberts, Noel. 2013. « Meaning, Semantics and Semiotics ». In Perspectives on Linguistic Pragmatics, édité par Alessandro Capone, Franco Lo Piparo, et Marco Carapezza, 1‑22. Springer.
Busa, Roberto. 1980. « The Annals of Humanities Computing: The Index Thomiscus ». Computers and the Humanities. North-Holland Publishing Company, 83‑90.
Butler, Judith. 2005. Giving an Account of Oneself. Fordham University Press.
Butler, Judith. 2017. Le pouvoir des mots. Traduit par Charlotte Nordmann et Jérôme Vidal. Éditions Amsterdam.
Cohen-Tannoudji, Claude, Bernard Diu, et Franck Laloë. 2005. Quantum Mechanics. Vol. 1. Wiley-VCH.
Cole, Jarrett. 2020. « Negociating Code: The Decoding of Stuart Hall ». Winnsox.
Culler, Jonathan. 1976. Ferdinand de Saussure. Cornell University Press.
Culler, Jonathan. 2011. Literary theory: A very short introduction. Oxford University Press.
Deacon, Terrence. 2011. Incomplete Nature: How Mind Emerged from Matter. W. W. Norton & Company.
Douven, Igor. 2021. « Abduction ». In The Stanford Encyclopedia of Philosophy, édité par Edward N. Zalta, Summer 2021. https://plato.stanford.edu/archives/sum2021/entries/abduction/; Metaphysics Research Lab, Stanford University.
Dufays, Jean-Louis, Louis Gemenne, et Dominique Ledur. 2005. Pour une lecture littéraire. De Boeck Supérieur.
Eco, Umberto. 1976. « Peirce’s Notion of Interpretant ». MLN - Comparative Literature 91 (6). The Johns Hopkins University Press.
Erb, Maurice, Simon Ganahl, et Patrick Kilian. 2016. « Distant Reading and Discourse Analysis ». Le foucaldien 2 (juin):8. https://doi.org/10.16995/lefou.16.
Fayyad, Usama, Gregory Piatetsky-Shapiro, et Padhraic Smyth. 1996. « From Data Mining to Knowledge Discovery in Databases ». AI Magazine 17 (3):37. https://doi.org/10.1609/aimag.v17i3.1230.
Furlong, Anne. 1995. « Relevance Theory and Literary Interpretation ». Thèse de doctorat, University College London.
Gasparov, Mikhail. 2016. « Boris Yarkho’s works on literary theory ». Studia Metrica et Poetica 3 (2). https://doi.org/10.12697/smp.2016.3.2.05.
Glavanakova, Alexandra. 2020. « Reading Fiction in The Digital Age ». The Online Journal for Arts and Culture - Reading Modes in the Digital Age 20. Piron.
Gori, Marco, et Alberto Tesi. 1992. « On the Problem of Local Minima in Backpropagation ». IEEE Transactions on Pattern Analysis and Machine Intelligence 14 (1).
Hale-Stern, Kaila. 2018. « Marvel Movies Are a Universe of Terrible Fathers ». The Mary Sue. https://www.themarysue.com/marvel-bad-dads/.
Hall, Stuart. 1999. « Encoding/Decoding ». In The Cultural Studies Reader, édité par Simon During, 507‑17. Routledge.
Hawthorne, James. 2021. « Inductive Logic ». In The Stanford Encyclopedia of Philosophy, édité par Edward N. Zalta, Spring 2021. https://plato.stanford.edu/archives/spr2021/entries/logic-inductive/; Metaphysics Research Lab, Stanford University.
Hayles, N. Katherine. 2019. « Can Computers Create Meaning? A Cyber/Bio/Semiotic Perspective ». Critical Inquiry 46. The University of Chicago.
Heidegger, Martin. 1962. Being and Time. Traduit par John Macquarrie et Edward Robinson. Blackwell.
Hutto, C. J., et Eric Gilbert. 2014. « VADER: A Parsimonious Rule-based Model for Sentiment Analysis of Social Media Text ». Association for the Advancement of Artificial Intelligence.
Iyyer, Mohit, Anupam Guha, Snigdha Chaturvedi, Jordan Boyd-Graber, et Hal Daumé III. 2016. « Feuding Families and Former Friends: Unsupervised Learning for Dynamic Fictional Relationships ». Proceedings of NAACL-HLT 2016, 1534‑44.
Jockers, Matthew L. 2013. Macroanalysis. University of Illinois Press.
Lancashire, Ian, et Graeme Hirst. 2009. « Vocabulary Changes in Agatha Christie’s Mysteries as an Indication of Dementia: A Case Study ». 19th Annual Rotman Research Institute Conference, Cognitive Aging: Research and Practice.
Lvoff, Basil. 2021. « Distant Reading in Russian Formalism and Russian Formalism in Distant Reading ». Russian Literature 122-123:29‑65. https://doi.org/https://doi.org/10.1016/j.ruslit.2021.07.003.
Marche, Stephen. 2012. « Literature Is not Data: Against Digital Humanities ». Los Angeles Review of Books. 28 septembre 2012. https://lareviewofbooks.org/article/literature-is-not-data-against-digital-humanities/.
McGrath, Lynette. 1985. « Structural and Poetic Theory: Intention, Meaning and Privilege ». College English 47 (8). National Council of Teachers of English:809‑23.
McGrew, Timothy. 2003. « Confirmation, Heuristics, and Explanatory Reasoning ». The British Journal for the Philosophy of Science 54 (4). Oxford University Press:553‑67.
Mikolov, Tomas, Kai Chen, Greg Corrado, et Jeffrey Dean. 2013. « Efficient Estimation of Word Representations in Vector Space ». arXiv. https://doi.org/10.48550/ARXIV.1301.3781.
Miller, Geoffrey D. 2010. « Intertextuality in Old Testament Research ». Currents in Biblical Research 9 (3):283‑309. https://doi.org/10.1177/1476993X09359455.
Moretti, Franco. 2013. Distant Reading. New York: Verso.
Muggleton, Stephen. 1991. « Inductive Logic Programming ». New Generation Computing 8:295‑318.
Muggleton, Stephen, et Lud de Raedt. 1994. « Inductive Logic Programming: Theory and Method ». Logic Programming 19 (20):629‑79.
Nalisnick, Eric T., et Henry S. Baird. 2013a. « Character-to-Character Sentiment Analysis in Shakespeare’s Plays ». In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), 479‑83. Sofia, Bulgaria: Association for Computational Linguistics. https://aclanthology.org/P13-2085.
Nalisnick, Eric T., et Henry S. Baird. 2013b. « Extracting Sentiment Networks from Shakespeare’s Plays ». In 2013 12th International Conference on Document Analysis and Recognition, 758‑62. https://doi.org/10.1109/ICDAR.2013.155.
Noda, Edgar, et Alex A. Freitas. 2006. « Discovering Knowledge Nuggets with a Genetic Algorithm ». In Data Mining and Knowledge Discovery Approaches Based on Rule Induction Technique, édité par Evangelos Triantaphyllou et Giovanni Felici. Springer.
Nowviskie, Bethany Paige. 2004. « Speculative Computing: Instruments for Interpretive Scholarship ». Thèse de doctorat, University of Virginia.
Olsen, Stein Haugom. 1982. « The Meaning of a Literary Work ». New Literary History 14 (1). The Johns Hopkins University Press.
Padnick, Steven. 2019. « How daddy issues drive the marvel cinematic universe ». Tor.com. https://www.tor.com/2018/06/13/how-daddy-issues-drive-the-marvel-cinematic-universe/.
Peter Szondi, Timothy Bahti. 1978. « Introduction to Literary Hermeneutics ». New Literary History 10 (1). The Johns Hopkins University Press:17‑29.
Piper, Andrew. 2017. « Think Small: On Literary Modeling ». PMLA 132 (3):651‑58.
Piper, Andrew. 2018. Enumerations : Data and Literary Study. The University of Chicago Press.
Piper, Andrew. 2020. Can We Be Wrong? The Problem of Textual Evidence in a Time of Data. Cambridge University Press.
Quinlan, J. R. 1986. « Induction of Decision Trees ». Machine Learning 1. Kluwer Academic:81‑106.
Ramsay, Stephen. 2011. Reading Machines. Champaign: University of Illinois Press.
Robinson, G. D. 1995. « Paul Ricoeur and the Hermeneutics of Suspicion: A Brief Overview and Critique ». PREMISE 2 (8).
Rockwell, Geoffrey, et Stefan Sinclair. 2016. Hermeneutica: Computer-Assisted Interpretation in the Humanities. MIT Press.
Ryan, Rory. 1985. « Pathologies of Epistemology in Literary Studies ». Journal of Literary Studies 1 (1):3‑42.
Saldler, Matthew, et Natasha Regan. 2019. Game Changer : AlphaZero’s Groundbreaking Chess Strategies and the Promise of AI. New In Chess.
Searle, John R. 1980. « Minds, brains, and programs ». The Behavioral and Brain Science 3:417‑57.
Searle, John Rogers, et François Latraverse. 1979. « Le sens littéral ». Langue française, nᵒ 42:34‑47.
Shah, Hetan. 2018. « Algorithmic Accountability ». Philosophical Transactions A 376 (2128).
Snow, C. P. 1959. The Two Cultures and the Scientific Revolution. The Syndics of the Cambridge University Press.
Terras, Melissa, et Julianne Nyhan. 2016. « Father Busa’s Female Punch Card Operatives ». In Debates in the Digital Humanities, édité par Matthew K. Gold et Lauren F. Klein. University of Minnesota Press.
Thiselton, Anthony C. 1992. New Horizons in Hermeneutics: The Theory and Practice of Transforming Biblical Reading. Zondervan Publishing House.
Thomson, Joseph John. 1897. « Cathode Rays ». Philosophical Magazine and Journal of Science 44 (269).
Todorov, Tzvetan. 1969. « Structural Analysis of Narrative ». Traduit par Arnold Weinstein. NOVEL: A Forum on Fiction 3 (1). Duke University Press:70‑76.
Tracey, Diane H., et Lesley Mandel Morrow. 2006. Lenses in Reading : An Introduction to Theories and Models. The Guilford Press.
Turing, A. M. 1950. « Computing Machinery and Intelligence ». Mind: A Quarterly Review of Psychology and Philosophy 59 (236):433‑60.
Uexküll, Jakob von. 1982. The Theory of Meaning. De Gruyter.
Underwood, Ted. 2019. Distant Horizons - Digital Evidence and Literary Change. Chicago: The University of Chicago Press.
Weil, Simone. 1946. « Essai sur la notion de lecture ». Les Études philosophiques, Nouvelle Série 1 (1):13‑19.
Weisberg, Jonathan. 2009. « Locating IBE in the Bayesian Framework ». Synthese 167 (1). Springer:125‑43.
Wendell, Inna Alekseyevna. 2021. « A Statistical Analysis of Genre Dynamics: Evolution of the Russian Five-Act Comedy in Verse in the Eighteenth and Nineteenth Centuries ». Thèse de doctorat, University of California.
Wheeler, Wendy. 2016. Expecting the Earth: Life, Culture, Biosemiotics. Lawrence & Wishart.
Wiedemann, Gregor, et Cornelia Fedtke. 2021. « From Frequency Counts to Contextualized Word Embeddings: The Saussurean Turn in Automatic Content Analysis ». In Handbook of Computational Social Science, 2:366‑85. Routledge. https://doi.org/10.4324/9781003025245-25.

  1. L’implémentation étant une étape technique, nous ne la considérons pas puisqu’elle dépend directement des autres étapes.↩︎

  2. Nous incluons la biosémiotique puisqu’elle nous permet de commencer notre description à son niveau le plus simple, ainsi que pour démontrer la continuité entre les trois médias.↩︎

  3. La première grande inversion est définie ainsi par Hayles : “As humans continue evolving by implementing sign relations in computational media, design and purpose substitute for the biological imperative of survival and reproduction” (Hayles 2019)↩︎

  4. Ce sujet sera développé dans la section sur l’inférence bayésienne dans le dernier tiers du présent chapitre.↩︎

  5. Nous ne donnerons pas plus que de définitions mathématiques très simples dans la prochaine section de ce chapitre sur l’interprétation humaine.↩︎

  6. Nous ferons le cas que la nature de la littérature et de la recherche littéraire rendent difficiles l’induction, et que cette dernière est souvent une forme d’abduction déguisée.↩︎

  7. Autrement dit, le passage entre deux formes de représentations symboliques n’augmente pas forcément la complexité des motifs et de l’information, tout en répondant aux règles de l’intermédiation.↩︎

  8. Judith Butler décrit une langue ne permettant qu’une interprétation comme une langue morte dans Excitable Speech. Elle cite abondamment le discours d’acceptation du prix Nobel de littérature de Tony Morrison pour caractériser la langue vivante comme supportant une infinité d’interprétations (Butler 2017).↩︎

  9. Par exemple, l’originalisme légal aux États-Unis, l’exégèse biblique et l’étude du sens autorial.↩︎

  10. La classification, la généralisation et l’analyse (ou caractérisation) d’une oeuvre dans un cadre précis. D’autres formes d’analyse répondent aussi à ce modèle, mais nous n’y toucherons pas directement dans le présent mémoire.↩︎

  11. C’est d’ailleurs là une structure rhétorique des plus connues et enseignées dans les cours de littérature : celle d’une thèse globale supportée par une série d’arguments particuliers.↩︎

  12. Pour citer Paul Valéry : “un ouvrage n’est jamais achevé, – mot qui pour eux n’a aucun sens, – mais abandonné”↩︎

  13. L’exemple des algorithmes de recommandation des médias sociaux dénote du danger de l’application d’une règle ou d’un modèle à grande échelle (Shah 2018).↩︎

  14. Nous parlons ici de périodes limitées, la pérennité des informations sur supports informatiques n’est pas assurée sur des périodes plus longues que quelques années.↩︎

  15. L’algorithme est un média qui peut être dit désincarné, soit transférable de “corps”, pouvant exister sous forme d’idée ou de signal avant de reprendre forme dans un support informatique.↩︎

  16. Ces deux aspects nous demandent encore de mathématiser des concepts, voir (Piper 2017).↩︎

  17. Muggleron propose entre autres d’utiliser les statistiques bayésiennes pour discriminer entre plusieurs hypothèses ; quoiqu’une part importante de son approche soit dédiée à la compression de l’information, un enjeu des plus pressants en 1991.↩︎

  18. Comme mentionné dans la section précédente, nous utilisons la conditionnalisation objective.↩︎

  19. Ce qui correspond à un très haut niveau de certitude.↩︎

  20. The Winter’s Tale et Love’s Labour’s Lost se terminent sur l’annonce d’un mariage imminent, nous les avons inclus puisque la fonction dramaturgique du mariage est remplie, ce qui dénote d’un modèle plus complexe que la simple présence d’une scène de mariage.↩︎

  21. Quatre des tragédies et une pièce historique commencent avec un mariage ou juste après un mariage.↩︎

  22. Conclure avec un mariage étant un motif récurent dans les comédies d’autres dramaturges (Barnet 1998), nous pourrions faire le cas que notre hypothèse est conciliante.↩︎