N.4 2022 - Biblioteche oggi | Maggio 2022

Navigazione dei contenuti del fascicolo

Strumenti per l’interoperabilità

Simona Turbanti

Università degli studi di Milano simona.turbanti@unimi.it

Abstract

L'articolo è incentrato sul concetto di interoperabilità, la cui rilevanza è dimostrata anche dall'esistenza delle Linee guida sull'interoperabilità tecnica delle Pubbliche Amministrazioni su cui si basa il Piano triennale per l'informatica nella Pubblica Amministrazione. La condizione essenziale per l'interoperabilità è l'esistenza di metadati che descrivano esattamente un oggetto; ciò è particolarmente importante nell'ambiente digitale. Esistono diversi tipi di metadati - descrittivi, amministrativi, strutturali, di conservazione, di utilizzo - e le comunità scientifiche hanno sviluppato diversi schemi di metadati che, se mantenuti da organizzazioni come l'Organizzazione Internazionale per la Standardizzazione, assumono lo status di standard. La qualità e l'apertura dei dati sono requisiti fondamentali per lo scambio di informazioni. Fin dall'Ontario New Universities Library Project - ONULP (1963), le biblioteche hanno utilizzato i metadati per l'elaborazione automatica dei dati; l'articolo passa in rassegna il formato MARC, la Dublin Core Metadata Initiative (DCMI), lo standard nazionale e internazionale (ISO 23950) Z39.50, l'Open archival information system (OAIS). L'interoperabilità è un campo di studio recente e non è ancora stata pienamente raggiunta; nell'ambiente digitale, l'interdisciplinarità ha portato alla ricerca di scambi con altri contesti.

English abstract

The article is focused on the concept of interoperability, whose relevance is also demonstrated by the existence of the Guidelines on technical interoperability of Public Administrations on which the Threeyear plan for IT in Public Administration is based. The essential condition for interoperability is the existence of metadata that exactly describe an object; this is especially important in the digital environment. There are different types of metadata – descriptive, administrative, structural, preservation, usage – and scientific communities have developed different metadata schemes that, if maintained by organisations such as the International Organisation for Standardisation, assume the status of standards. Data quality and openness are fundamental requirements for the exchange of information. Since the Ontario New Universities Library Project - ONULP (1963), libraries have been using metadata for automatic data processing; the article reviews the MARC format, Dublin Core Metadata Initiative (DCMI), the national and international standard (ISO 23950) Z39.50, the Open archival information system (OAIS). Interoperability is a recent field of study and it has not yet been fully achieved; in the digital environment, interdisciplinarity has led to the search for exchange with other contexts.

Per scaricare l'articolo in pdf visita la sezione "Risorse" o clicca qui.

Qualità dei dati, apertura, interdisciplinarità

Definire qualcosa costituisce il primo passo per accostarsi all’oggetto descritto dalle parole, tentare di appropriarsi del suo significato e coglierne l’essenza; la difficoltà di individuare una definizione chiara e esaustiva di un termine o concetto rivela solitamente la natura sfuggente, complessa, dell’oggetto.

Nel caso del termine “interoperabilità” le diverse definizioni coniate nel tempo testimoniano la non facilità di rappresentare il significato – anzi, i significati – del sostantivo.

Nel linguaggio comune equivale alla “capacità di due o più sistemi, reti, mezzi, applicazioni o componenti, di scambiare informazioni tra loro e di essere poi in grado di utilizzarle”, come sviluppato nel vocabolario tecnico dell’International Organization for Standardization (ISO): “capability to communicate, execute programs, or transfer data among various functional units in a manner that requires the user to have little or no knowledge of the unique characteristics of those units”.

Si tratta, quindi, di un concetto centrale nell’ambito delle istituzioni della memoria, emerso a partire dalla nascita di internet; infatti, come evidenziato da Claudio Gnoli 

La rete (ovvero rizoma o, nel nome del protocollo di trasmissione principe, ragnatela) è un tipo di grafo che lascia più libertà di connessione da un qualsiasi nodo potenzialmente a un qualsiasi altro, nell’una o nell’altra direzione. Una tale struttura, come ben sanno gli studiosi del cervello, è in grado di far emergere percorsi e proprietà di una molto maggiore complessità e sofisticazione rispetto ai grafi di tipo più costrittivo (orientati, aciclici ecc.).

Gli studiosi utilizzatori dei software di gestione delle bibliografie, quali Zotero, Mendeley, Citavi ecc., conoscono la comodità di importazione, con un semplice clic, di riferimenti bibliografici dal web e dei documenti stessi (e, tramite questi, dei dati descrittivi); forse non tutti, però, sono consapevoli del fatto che ciò che permette questi semi-automatismi è proprio l’interoperabilità tra sistemi diversi che non è mai scontata.

Il ruolo centrale dell’interoperabilità è dimostrato anche dall’esistenza delle Linee guida sull’interoperabilità tecnica delle pubbliche amministrazioni sulle quali si basa il Piano triennale per l’informatica nella Pubblica amministrazione. Partendo dal presupposto che “i dati pubblici sono un bene comune e una risorsa del Paese in grado di produrre valore migliorando i servizi, creandone di innovativi e contribuendo a creare nuovi modelli di business, competenze e posti di lavoro”, si sottolinea come il Dipartimento per la trasformazione digitale del Governo italiano abbia come obiettivi il miglioramento nella creazione e gestione dei dati pubblici, la realizzazione di servizi focalizzati sui cittadini agevolati dall’interoperabilità tra enti, il miglioramento del processo decisionale istituzionale e il supporto all’attività imprenditoriale e alla ricerca scientifica. Vengono, inoltre, elencati i vantaggi derivanti dallo scambio di dati tra gli enti sia per la pubblica amministrazione sia per i privati preannunciando l’implementazione della Piattaforma digitale nazionale dati che consentirà l’analisi dei big data prodotti nell’ambito della PA.

Facciamo un passo indietro soffermandoci sulla condizione essenziale per l’interoperabilità, vale a dire l’esistenza di metadati che descrivono esattamente un oggetto digitale; a essere precisi i metadati esistono anche per gli oggetti analogici – viviamo con e dentro i metadati sin da quando, alla nascita, veniamo dotati di un nome – ma nella dimensione digitale il loro ruolo diventa ancora più necessario. 

Quasi un secolo fa, nel 1931, il filosofo e matematico polacco Alfred Korzybski pubblicò un articolo sulla semantica matematica nel quale, a partire dalle frasi “the map is not the territory” e “words are not the things they represent”, sintetizzava un concetto importante, ossia che la descrizione della cosa non è la cosa stessa, la realtà è distinta dal suo modello. Lo studioso evidenziava, inoltre, come i modelli siano necessari ma inevitabilmente imperfetti in quanto, nel processo di riduzione della realtà vanno perse alcune informazioni; oltre a ciò, una mappa necessita sempre di interpretazione e questo può portare, quindi, a errori. 

Portando come esempio proprio i dati catalografici, alcuni anni fa Pomerantz osservava come i metadati siano un mezzo per rappresentare in modo semplice la complessità di un oggetto, aggiungendo che quando i metadati fanno bene il loro lavoro svaniscono nello sfondo

Sono definibili varie tipologie di metadati: descrittivi, amministrativi, strutturali, di conservazione e d’uso. I primi hanno la funzione di fornire una descrizione dell’oggetto ai fini della sua identificazione e, quindi, reperibilità (titolo, autore, soggetto ecc. di un record catalografico); con metadati amministrativi o gestionali si intendono le informazioni sull’origine e la conservazione di una risorsa digitale come, nell’esempio portato da Pomerantz, una fotografia digitalizzata con uno specifico tipo di scanner e con una certa risoluzione alla quale sono associati determinati diritti d’uso (rights management metadata).

I metadati strutturali stabiliscono come un oggetto è organizzato (l’articolazione in capitoli e paragrafi di un libro), mentre quelli relativi alla conservazione danno informazioni sul modo con cui preservare una risorsa per il futuro; considerata la loro finalità gestionale, questi ultimi due tipi di metadati sono talvolta considerati sottocategorie di quelli amministrativi.

Il modo con cui un oggetto è stato utilizzato confluisce, infine, nei metadati d’uso; si pensi al numero dei download di un ebook o di un articolo di una rivista e l’individuazione del profilo degli utenti che hanno scaricato l’oggetto.

A queste tipologie di metadati si aggiungono i linguaggi di marcatura (markup) che uniscono metadati e contenuto; nel caso di una risorsa testuale, contrassegnando elementi strutturali come i paragrafi, le parole con informazioni semantiche o fornendo informazioni di formattazione.

 

Metadata Type 

Example Properties 

Primary Uses Author

Descriptive metadata

Title 

Author

Subject

Genre

Publication date

Discovery

Display

Interoperability

Technical metadata

File type

File size

Creation date/time

Compression scheme

Interoperability

Digital object management

Preservation

Preservation metadata

Checksum

Preservation event

Interoperability

Digital object management

Preservation

Rights metadata 

Copyright status

License terms

Rights holder

Interoperability

Digital object management

 

Structural metadata

Sequence

Place in hierarchy

Navigation

Markup languages

Paragraph

Heading

List

Name

Date

Navigation

Interoperability

Figura 1 - Metadati

 

I metadati sono, dunque, alla base di numerose funzionalità e grazie alla loro presenza è possibile identificare, ricercare, selezionare, localizzare, usare e conservare una risorsa.

Le pagine web hanno spesso metadati incorporati, quali i link che rimandano da una pagina web ad altre e i dati sui comportamenti degli utenti; inoltre, gli indici costruiti dai motori di ricerca utilizzano il testo e i metadati delle pagine web. Per inciso, il più noto motore di ricerca, Google, dieci anni fa ha introdotto il Knowledge graph, un sistema basato su enormi quantità di metadati su fatti, luoghi e persone che permette di visualizzare i risultati della ricerca in un “grafo” fatto di relazioni tra oggetti, in un’ottica di web semantico. 

In Wikipedia vengono usati e generati metadati e il progetto Wikidata è una base di conoscenza aperta arricchita in modo collaborativo simile al Knowledge graph di Google. I metadati sono essenziali nelle operazioni di grandi aziende come Amazon – che, da una parte, ne riceve dai numerosi fornitori e, dall’altra, raccoglie metadati sulle vendite per fornire consigli ai clienti e ottimizzare le relazioni con i fornitori – e delle piattaforme social come Facebook che, tracciando i metadati generati dagli utenti, individuano gli argomenti di tendenza e promuovono i post sponsorizzati.

Tecnicamente il collegamento tra l’oggetto e i metadati che ne descrivono le caratteristiche e le finalità può essere attuato in due modi: inserendone i metadati direttamente nella risorsa, come nella scheda CIP, Cataloguing-in-publication, spesso presente nei libri su carta e in digitale, oppure mediante la creazione di una registrazione separata, come accade nei cataloghi. Nel primo caso i vantaggi sono la difficoltà di perdita dei metadati e l’aggiornamento costante di entrambe le componenti, a fronte della gestione separata di risorsa e metadati, generalmente più semplice.

Al fine di usufruire di strumenti affidabili, nel corso del tempo, da parte delle varie comunità scientifiche, sono stati sviluppati schemi di metadati diversi che, se mantenuti da organizzazioni come l’International Organization for Standardization, assumono lo status di standard.

Le istituzioni del patrimonio culturale usano metadati da molto tempo, a partire dal progetto Ontario New Universities Library Project (ONULP) del 1963 in cui fu ideato “un formato adatto a identificare in modo sistematico e ripetibile gli elementi informativi della notizia bibliografica”. Due anni più tardi, sulla scia del progetto pilota per la machine-readable cataloging iniziato nel mese di febbraio del 1966 presso la Library of Congress, fu elaborato “one format structure (the physical representation on a machine-readable medium) capable of containing bibliographic information for all forms of material (books, serials, maps, music, journal articles, etc.) and related records (name and subject reference records, etc.)”.

Al termine del progetto pilota, nell’estate del 1968, la Library of Congress aveva distribuito circa 50.000 record leggibili da una macchina per materiale librario in lingua inglese e, dallo stesso anno, iniziò il MARC distribution service.

Il MARC fu concepito per la trasmissione e lo scambio dei dati contenuti nelle schede catalografiche cartacee attraverso gli strumenti esistenti in quel periodo, i nastri magnetici e le prime reti telematiche, ed era quindi necessario avere alla base informazioni codificate in modo “semplice” e in minor spazio possibile.

Il formato prevede che i dati che formano una descrizione bibliografica, un record di copia e una registrazione di autorità, “disposti in un certo ordine nelle schede catalografiche, vengono contrassegnati con codici – campi e sottocampi, ripetibili o meno, e altri indicatori – in modo da essere gestiti automaticamente. All’interno dei blocchi numerici del formato trovano spazio le informazioni descrittive, le intestazioni uniformi, gli accessi semantici e altri dati, molti dei quali codificati (codici lingua e paese di pubblicazione, tipo materiale ecc.)”.

Le ricadute positive del MARC sono (state) almeno quattro.

Grazie a esso fu possibile contare, innanzitutto, su un considerevole risparmio dei tempi e dei costi della catalogazione, fattore che semplificò l’accesso al materiale delle biblioteche per gli utenti. Furono inoltre avviati molti progetti di conversione retrospettiva dei cataloghi e le organizzazioni nazionali e internazionali furono in grado di attivare sistemi automatizzati grazie alla presenza di manuali d’uso ad hoc per le loro necessità. Infine, nonostante nell’ambiente bibliotecario fosse già nota l’importanza degli standard, la spinta del MARC fu fondamentale per la standardizzazione delle procedure bibliotecarie.

Attualmente il formato MARC risulta ancora usato in molti contesti bibliografici; la celebre provocazione di Roy Tennant – MARC must die – risalente a venti anni fa, con la quale si preannunciava il passaggio a un diverso sistema per la trasmissione e lo scambio dei dati, dato che, “when MARC was created, the Beatles were a hot new group and those of us alive at the time wore really embarrassing clothes and hairstyles”, si è scontrata con l’estrema difficoltà di sostituire il pur datato formato con un altro strumento in grado di offrire il medesimo servizio.

Passando a un’altra tappa fondamentale, la Dublin Core Metadata Initiative (DCMI) è un progetto nato da un incontro organizzato nel marzo 1995 a Dublino, Ohio, dall’Online Computer Library Center (nota con l’acronimo OCLC, che inizialmente stava per Ohio College Library Center) e dal National Center for Supercomputer Applications (NCSA), incentrato sui metadati per descrivere correttamente e in modo completo gli oggetti digitali da parte di autori e editori, a prescindere dalla conoscenza approfondita delle regole catalografiche.

Presero parte al workshop esponenti di varie comunità scientifico-professionali (bibliotecari, archivisti, ricercatori, editori, informatici, sviluppatori di software) con visioni e esigenze diverse, accomunati però dalla convinzione della necessità di raggiungere una standardizzazione, anche a costo di sacrificare l’analiticità a favore dell’applicabilità. Inizialmente furono definiti 13 elementi fondamentali, divenuti poi 15 – contributor, coverage, creator, date, description, format, identifier, language, publisher, relation, rights, source, subject, title, type – che andarono a costituire il Dublin Core metadata element set (DCMES). In seguito, è stato sviluppato il Qualified Dublin Core che si avvale di elementi aggiuntivi e del perfezionamento degli elementi.

In seguito alla formalizzazione, nel 1998, nello standard Internet Engineering Task Force RFC 5791, si è attivato il processo per renderlo uno standard del National Information Standards Organization (NISO) che ha condotto alla pubblicazione dello standard statunitense ANSI/NISO Z39.85-2001 e dello standard internazionale ISO 15836-2003 con aggiornamenti negli anni successivi.

Nelle fasi iniziali Dublin Core venne largamente adottato grazie alla sua semplicità di uso e versatilità – a esso fanno riferimento molti standard e progetti che ne hanno sviluppato una mappatura – ed è stato tradotto in oltre venti lingue; la versione italiana è curata dall’Istituto centrale per il catalogo unico delle biblioteche italiane e per le informazioni bibliografiche. Sempre l’ICCU ha prodotto una mappatura tra i quindici elementi del Dublin core metadata element set reference description, Versione 1.1 e il formato UNIMARC (esiste anche la mappatura con il MARC 21).

La semplicità del set di metadati rappresenta, allo stesso tempo, un vantaggio e un limite; se da una parte, infatti, esso si rivolge a un bacino di utilizzatori assai ampio e non circoscritto a specialisti del settore della Library and information science, favorisce l’interoperabilità semantica mediante una base comune di dati concordati nel loro significato e permette l’integrazione di altri dati con significati semantici diversi, dall’altra lo schema è troppo generale per consentire una descrizione accurata di risorse specifiche di un determinato contesto spingendo, quindi, verso altri sistemi maggiormente caratterizzati.

Come evidenziato più volte, tra le funzioni dei metadati rientra l’interoperabilità tra oggetti diversi, attuabile seguendo due strade principali.

La prima è rappresentata dallo standard nazionale e internazionale (ISO 23950) Z39.50 che, come si legge sulle pagine web della Library of Congress, l’agenzia che mantiene lo standard, definisce “a protocol for computer-to-computer information retrieval allowing a user in one system (with a Z39.50 client) to search and retrieve information from an other system (with a Z39.50 server) without knowing the search syntax of that system”.

Z39.50, originariamente approvato dalla NISO nel 1988, è stato via via sostituito dalle interfacce via web degli OPAC e degli altri strumenti di ricerca, rimanendo un protocollo usato da diversi programmi per comunicare tra loro.

Un secondo strumento, sul quale può essere utile soffermarsi, è l’Open archival information system (OAIS), un modello concettuale per gestire, archiviare e conservare a lungo termine la documentazione digitale.

Il modello è stato concepito all’interno di un’organizzazione per lo sviluppo di standard, Consultative Committee for Space Data Systems (CCSDS), in risposta all’esigenza di preservare dati immagazzinati in digitale, in quantità sempre crescente a partire dagli anni Sessanta del secolo scorso, da parte di vari soggetti. L’aumento esponenziale di utenti interessati allo scambio di dati causato dal World wide web suggerì l’istituzione, nel 1994, di una Task Force on Digital Archiving che pubblicò, due anni più tardi, un rapporto dal titolo Preserving digital information. Nonostante il focus del CCSDS fosse specificatamente lo studio dell’ambiente terrestre e spaziale, la portata del Rapporto fu assai più ampia. Il responsabile dello sviluppo del modello fu Don Sawyer, informatico a capo della National Aeronautics and Space Administration (NASA) Office of Standards and Technology (NOST), al quale si affiancarono altre figure. Il Reference model for an open archival information system vide la luce, sotto forma di bozza, nel 1997 per poi venire approvato come raccomandazione ufficiale e poi, nel 2003, come standard ISO 14721:2003. La versione attualmente in uso è quella del 2012, rivista e “confermata” nel 2018, come si legge sulla relativa pagina web della ISO.

Un ambiente OAIS si fonda sullo scambio di informazioni tra tre soggetti (produttori, utenti e responsabili). I primi sono rappresentati da persone e organizzazioni, pubbliche o private, che forniscono all’archivio il materiale da conservare, mentre gli utenti sono coloro che accedono al suddetto materiale; con responsabili, infine, si intendono i decisori che, in accordo alla politica dell’istituzione, stabiliscono la “linea” dell’archivio e provvedono al suo funzionamento.

Il modello funzionale di un OAIS è basato su sei entità – acquisizione, archiviazione, gestione dei dati, conservazione, accesso, amministrazione – che svolgono le funzioni fondamentali per garantire la conservazione e l’accesso nel tempo alle risorse informative; nel modello informativo viene, invece, esplicitato il contenuto dei pacchetti di informazioni, ossia gli oggetti destinati a essere preservati.

Riprendendo le parole di Giovanni Michetti:

Il modello OAIS assume quindi un valore privilegiato in quanto strumento per leggere la realtà degli oggetti digitali e affrontarne la complessità con un approccio unitario: non si limita infatti a definire quella che oggi a buon diritto definiremmo un’ontologia per la conservazione, ma fornisce anche una guida per individuare delle strategie conservative in relazione tanto al profilo tecnico quanto a quello organizzativo. E propone un’architettura di sistema che non solo possa essere assunta a fondamento per la progettazione di moduli e servizi dedicati alla conservazione, ma che costituisca al contempo un terreno per la riflessione teorica sui nodi critici: la sistematizzazione dei principi fondanti per la conservazione in ambiente digitale non è operazione neutrale e asettica che possa compiersi senza precisi obiettivi e chiavi di interpretazione afferenti a uno specifico milieu. Il modello incarna tali caratteristiche e come tale può rappresentare un fecondo luogo di confronto e valutazione di soluzioni differenti, uno strumento di mediazione utilizzabile in contesti disciplinari affini ma diversi, un efficace veicolo di promozione di una cultura condivisa della conservazione digitale, con la consapevolezza dell’importanza di consolidare linguaggi, tecniche e teorie al fine di configurare stabilmente una comunità italiana dedicata al tema della digital preservation.

Figura 2 – Rappresentazione del modello funzionale di OAIS

OAIS è stato accolto favorevolmente da parte di numerose istituzioni e comunità.

Gli strumenti (modelli e standard) fin qui descritti non sono sufficienti a “generare” interoperabilità per la quale occorrono altre condizioni importanti, tra cui la qualità dei dati e la loro apertura.  

La qualità dei metadati è, infatti, un prerequisito basilare di cui ci accorgiamo ogni volta che, consultando un OPAC, ci imbattiamo in descrizioni lacunose, poco accurate se non palesemente errate, e in registrazioni duplicate per la medesima pubblicazione.

Peraltro, la disponibilità di dati corretti è la base di partenza per costruire un web semantico grazie alla tecnica dei linked open data; l’architettura, infatti, di un web – o meglio, una parte del web – i cui dati siano descritti e relazionati tra loro in modo interpretabile dalle macchine non può essere raggiunta in mancanza di una “base informativa” solida.

L’interoperabilità, insomma, è un settore di studio e applicativo piuttosto recente; tra i motivi del ritardo con cui si è iniziato a capirne l’importanza e cercare di metterla in pratica si annovera la tendenza delle istituzioni della memoria a sottolineare le specificità del proprio ambito, le caratteristiche gestionali e il tipo di servizi che vengono forniti all’utenza di riferimento. Una reale interoperabilità e, ancor più, un’interoperabilità automatica tra le macchine che prescinda dall’intervento umano non è stata ancora raggiunta in alcun ramo della conoscenza. 

Le biblioteche sono state le prime istituzioni della memoria a dotarsi di strumenti informatizzati – le prime sperimentazioni risalgono agli anni Settanta del secolo scorso, prima dell’avvento di internet e del web – e a fornire ai propri utenti la possibilità di consultare le registrazioni bibliografiche e accedere a vari servizi da remoto.

Oltre a ciò, l’ambito bibliotecario è stato il primo a impegnarsi nello sviluppo di strumenti per la descrizione di risorse bibliografiche e nella realizzazione di modelli concettuali orientati all’analisi del “mondo” dei documenti – si pensi ai Functional requirements for bibliographic records editi nel 1998 e a FRBRoo (object-oriented) nato dall’integrazione con il modello concettuale CIDOC usato in ambito museale – ma ancora non si è raggiunta una piena interoperabilità. 

Se dovessimo giudicare, per fare un esempio, il grado di interoperabilità bibliografica dei nostri cataloghi che dovrebbero offrire dati accessibili, completi e facili da interrogare e riutilizzare, avremmo qualche sorpresa in negativo; proprio il servizio centrale, il “cuore” che permette il funzionamento di tutti i servizi di una biblioteca o sistema bibliotecario, difetta spesso quanto al grado di copertura rispetto al posseduto, nell’interazione con altri strumenti, per non parlare della qualità dei dati. Inoltre, come ho avuto modo di ricordare in un recente contributo “negli attuali cataloghi sono sacrificate due componenti essenziali, vale a dire la funzione esplorativa del catalogo e la presentazione ordinata e logica dei risultati di una ricerca”. 

A conclusione di questa riflessione è utile sottolineare, come efficacemente ricordato in un lavoro uscito oltre un decennio fa, che “il concetto di “interoperabilità” viene spesso appiattito sul fronte tecnologico e solo su una parte degli aspetti che bisogna effettivamente tenere presente per rendere interoperabili dei sistemi di gestione delle informazioni”. Le dimensioni dell’interoperabilità sono, al contrario, molteplici e dovrebbero essere considerate tutte; nell’ambito delle biblioteche digitali, l’European Commission Working Group on Digital Library Interoperability ha individuato sei dimensioni di interesse, ossia:

  1. interoperating entities – istituzioni cooperanti;
  2. information objects – oggetti informativi;
  3. functional perspective – funzionalità/prospettiva funzionale;
  4. multilinguality – multilingualità/multilinguismo;
  5. user perspective – utenti/prospettiva degli utenti;
  6. interoperability technology – tecnologie/interoperabilità tecnologica

Un’ulteriore “leva” per promuovere una maggiore interazione tra sistemi e ambienti è rappresentata dall’interdisciplinarietà, che in ambito digitale, ha indotto alla ricerca dello scambio con altri contesti. 

Interoperabilità significa, infatti, anche mettere in connessione discipline tra loro diverse facendo comunicare gli studiosi delle varie branche del sapere, come si prefiggono le digital humanities.

La dimensione del digitale non è mai un semplice modo per soddisfare un’esigenza, che si tratti di informatizzazione dei servizi o di digitalizzazione di materiale documentario, ma costituisce anche un modo di trasformare gli oggetti stessi di partenza in qualcosa di diverso rispetto al loro status originario.

Qualsiasi progetto che metta in campo conoscenze appartenenti a domini distinti per il raggiungimento di un obiettivo comune utile a tutte le sfere deve poter contare, oltre che sull’apertura mentale di chi vi prende parte, sulla reale interoperabilità dei linguaggi e dei dati.

Credo che la “visione” che si legge sul sito della NISO, l’associazione statunitense che sviluppa e mantiene standard e offre strumenti per la gestione delle informazioni in ambiente digitale, sia in grado di sintetizzare in modo esemplare l’importanza per gli studiosi di procedere insieme: “Our vision is a world where all benefit from the unfettered exchange of information”.