Strumenti
Si può dire che l’analisi informatica dei testi letterari quasi coincida con la nascita del moderno calcolatore. Le prime analisi a essere effettuate sono quelle di tipo linguistico-lessicale. L’iniziatore, riconosciuto dalla comunità scientifica internazionale come il padre dell’informatica umanistica, è Roberto Busa S.J., che nel 1949 inizia a preparare le concordanze dell’opera di S. Tommaso[4] con gli elaboratori a schede perforate dell’IBM-USA. Il successo è praticamente immediato: si può dire che già dagli anni ‘50 e ‘60 le concordanze non sono che automatizzate (Faulhaber 1991: 123-148). Anche nella pratica ecdotica l’uso degli strumenti informatici ha origini remote, addirittura antecedenti a P. Busa, se si considera lo Hinman Collator[5] . Ma è soprattutto negli anni ’60 e ’70 che le sperimentazioni di collazione assistita dal calcolatore si ampliano, con l’obiettivo di automatizzare il procedimento lachmanniano di stabilire i rapporti di parentela tra testimoni. Tra i primi tentativi, gli algoritmi proposti da Froger e Zarri, sulla base del metodo di Quentin, e i primi programmi presentati al convegno la Pratique des ordinateurs, nel 1979. Due dei pacchetti più diffusi attualmente per questo tipo di risultati nascono proprio in quegli anni: TUSTEP di Wilhelm Ott e Collate di Peter Robinson. Dagli anni ‘80, con la diffusione del personal computer, lo strumento informatico più semplice impiegato nella preparazione di un’edizione critica, così da costituire il “livello zero”[6] dell’ecdotica elettronica, è il word processor; tuttavia il testo elettronico così prodotto resta spesso un “formato di passaggio” (Roncaglia 1997) o un “byproduct” (Faulhaber 1991), dal momento che l’obiettivo dell’editore continua a essere un testo a stampa.
Durante gli ultimi vent’anni, con eventi fondamentali come la nascita e lo sviluppo del Web e gli sviluppi teorico-pratici della comunità scientifica internazionale sul problema di una adeguata codifica dei testi letterari, il panorama di strumenti per la filologia si è notevolmente allargato. L’elaborazione di software per la produzione di edizioni critiche in senso tradizionale è proseguita secondo due direzioni: realizzazione di nuovi strumenti in grado di prevedere come output non solo la stampa, ma anche la pubblicazione elettronica online e offline, in codifiche diverse (HTML, SGML, XML, ecc.); aggiornamenti in tal senso dei programmi storici. D’altro canto però, si sono aperte nuove prospettive di analisi testuale attraverso la tecnologia digitale, che hanno determinato, soprattutto negli ultimi 6-7 anni, un’altra duplice tendenza: lo sviluppo di programmi, perlopiù scritti in Java, il cui fine è rendere testi e immagini sempre più dinamici, manipolabili, condivisibili in rete, tridimensionali; e l’uso di programmi multimediali (audio, video, 3D) per applicazioni ad archivi letterari.
Sembra perciò opportuno valutare gli strumenti per la filologia elettronica dividendoli in base alla loro finalità. Il primo gruppo comprende i software specifici per la critica del testo, destinati alle esigenze dell’editore che svolga un’operazione ecdotica di tipo abbastanza tradizionale, indipendentemente dal supporto finale (libro, CD-ROM o Web) che sceglierà. In un secondo gruppo racchiudiamo, invece, tutti quei programmi impiegati più genericamente per l'analisi del testo, sia esplicitamente realizzati per l’ambito umanistico sia a esso adattati con nuovi esiti.
[4] La prima pubblicazione del lavoro compiuto da P. Busa all’IBM è in formato cartaceo: (Busa 1974). Sarà in versione ipertestuale completa nel 1992: Thomae Aquinatis Opera Omnia cum hypertextibus in CD-Rom, Editoria Elettronica Editel.
[5] Sullo Hinman Collator e i primi esperimenti di collazione automatica si vedano Ott 1992: 1 e Perilli 1995: 22, nota 6.
[6] Roncaglia 1997: 251-276. Rimandiamo a questo saggio per le considerazioni teoriche e i problemi relativi all’edizione elettronica, nonché per le descrizioni dettagliate, anche dal punto di vista tecnico, di alcuni programmi ed edizioni online qui indicati.