Leggere l’IFLA Statement on Libraries and Artificial Intelligence al tempo di ChatGPT v
Università del Piemonte Orientale; maurizio.lana@uniupo.it Per tutti i siti web la data di ultima consultazione è il 17/04/2023
Contenitore
Indubbiamente, nel campo dell’intelligenza artificiale la data del 30 novembre 2022 segna uno spartiacque. In quel giorno l’azienda americana OpenAI annunciò la disponibilità per il pubblico generalista di un’interfaccia (un chatbot conversazionale noto come ChatGPT) per interagire con il suo modello linguistico di intelligenza artificiale noto come GPT3, ormai giunto alla versione 4 alla data di scrittura di questo articolo.[i]
Perché uno spartiacque? Perché prima di questo evento l’intelligenza artificiale appariva come un prodotto a disposizione di intermediari che se ne servivano per operare con il pubblico dei clienti: aziende di assicurazioni per i contratti vita, centri di selezione del personale, tribunali per la gestione delle domande di libertà su cauzione. Ed era a disposizione anche delle biblioteche, ad esempio come supporto per la catalogazione/soggettazione. Tanto che le proposte di normative europee aventi per oggetto la definizione e la regolamentazione della responsabilità civile connessa all’uso di sistemi di intelligenza artificiale [European Parliament, 2020] distinguevano e vedevano ugualmente responsabili gli sviluppatori e gli operatori di backend (coloro che usano il sistema di intelligenza artificiale per fornire un servizio a un cliente finale) implicando con ciò che un operatore di backend fosse sostanzialmente sempre presente laddove sono in opera sistemi di intelligenza artificiale. Dal 30 novembre 2022 non è più stato ‘semplicemente’ così. Chiunque può usare un chatbot conversazionale ed essere operatore di backend di se stesso. Non solo nell’ambiente demo (di test) fornito da OpenAI, ma anche in campo aperto: si susseguono annunci di integrazione di chatbot nei motori di ricerca,[ii] nei sistemi di assistenza alle imprese, nelle interfacce di interazione delle auto elettriche; di impiego di chatbot per la scrittura di software e di testi aziendali; senza dimenticare l’uso dei chatbot da parte di studenti per la scrittura di documenti oggetto di valutazione come report, tesi ecc. [Huang, 2023].
Nel 2020, quindi ben prima di questo punto di svolta, IFLA aveva pubblicato uno statement su Libraries and Artificial Intelligence [IFLA, 2020]. Nelle pagine che seguono lo Statement verrà commentato dal punto di vista del 2020; ma ci si chiederà anche se, come e quanto, principi e visione dello Statement siano ancora efficaci, siano ancora in grado di suscitare una riflessione capace di una presa critica sulla realtà nel 2023, nel mondo in cui chiunque vuole può usare ChatGPT.[iii]
Le tre pagine principali dello Statement si aprono con una prospettiva positiva e favorevole sull’intelligenza artificiale: «[a] power [that] can be put to the service of public welfare and innovation» [IFLA, 2020, p. 1]. Questa è la prospettiva sintetizzata nell’espressione «AI for good» presente nello Statement e che Luciano Floridi ha usato più volte per descrivere la sua idea di intelligenza artificiale. L’idea espressa nello Statement ha due possibili esplicazioni a seconda di come si pensino i sistemi di intelligenza artificiale:
come capaci di completa autonomia operativa (agency): nel qual caso sarebbe il sistema di intelligenza artificiale che si pone al servizio del benessere pubblico e, dal momento che il sistema non si è creato da sé, occorre chiedersi chi gli ha dato le regole e quali, per definire che cosa siano public welfare e innovation;
come sistemi operati da soggetti umani: nel qual caso sono le persone che li hanno progettati e quelle che li usano che se ne servono al servizio del benessere pubblico, e i sistemi di intelligenza artificiale operano come ‘amplificatori’ delle loro capacità operative.[iv]