Intelligenza artificiale e informazione, tra opportunità e rischi

Sì all’intelligenza artificiale in redazione, ma la responsabilità resta sempre in capo ai giornalisti. L’uso della tecnologia, le sue implicazioni, e il volto umano della comunicazione sono stati al centro del corso di formazione promosso dall’Ordine dei giornalisti dell’Emilia-Romagna insieme alla diocesi di Piacenza-Bobbio e svoltosi sabato 7 febbraio nella Sala degli arazzi della Galleria Alberoni a Piacenza. Ne hanno parlato Ruben Razzante, professore di diritto dell’informazione all’Università Cattolica di Milano e fondatore di Polisophia, Alessandro Zaccuri, direttore della comunicazione dell’Università Cattolica, Nicoletta Marenghi, vicecaposervizio di Libertà, Telelibertà e Liberta.it, Paola Pinotti, direttrice di Piacenzasera.it e Andrea Cherchi, fotografo professionista, fondatore della pagina Facebook “Semplicemente Milano”. Carla Chiappini ha moderato il convegno. Le conclusioni sono state affidate al vescovo mons. Adriano Cevolotto.
“L’AI non ha il «fiuto della notizia»”
“Verità sostanziale dei fatti, uso responsabile degli algoritmi e nuove sfide deontologiche per i giornalisti” è il titolo dell’intervento di Ruben Razzante. “L’intelligenza artificiale non può sostituire l’attività giornalistica – ha subito rassicurato – e quando viene utilizzata deve essere dichiarato ai lettori. L’utilizzo dell’AI non può mai considerarsi esimente da obblighi deontologici: un contenuto generato con l’intelligenza artificiale può essere fuorviante o privo di contesto, la tecnologia non ha il «fiuto della notizia» né un’etica, le chatbot possono generare informazioni errate su persone reali e in ambito giornalistico la diffusione non verificata può causare danni reputazionali e sfociare nella diffamazione. Il giornalista resta il garante della verità sostanziale dei fatti, che è uno degli obiettivi essenziali”.
Lavori ripetitivi si possono delegare all’AI
L’intelligenza artificiale, tuttavia, può essere “un’opportunità significativa per il giornalista, liberandolo da lavori ripetitivi e a basso valore aggiunto”, ha detto Razzante, “può servire a suggerire titoli, ad esempio, o a selezionare un target”. Il docente ha poi ribadito che è necessario un “controllo editoriale umano costante” e che non si può “delegare la pubblicazione alla tecnologia”. Un altro tema è il copyright. “Chi può essere considerato l’autore di un’opera generata dall’intelligenza artificiale? Si discute anche sulla liceità dell’addestrare la tecnologia con i testi pubblicati dai giornali, protetti da diritto d’autore”, ha spiegato Razzante. In conclusione, l’AI “può essere una valida alleata” ma “il giornalista mantiene un ruolo fondamentale di garante delle persone coinvolte nella notizia, di interprete del contesto e non solo di utilizzatore della tecnologia. Capacità di inchiesta, relazione umana, interpretazione dei fatti e narrazione profonda e consapevole della verità restano al giornalista. Nell’era delle macchine intelligenti, il giornalista deve far sì che la comunicazione conservi un volto umano”.
“ChatGpt fa un salto generativo”
“Chi ha scritto il mio articolo? Giornalismo responsabile e intelligenza artificiale generativa” è il tema trattato da Alessandro Zaccuri. L’AI, per il direttore della comunicazione della “Cattolica”, non è uno strumento che ci viene in aiuto come in passato lo sono stati la penna, la macchina da scrivere e il computer. “L’intelligenza artificiale è un dispositivo. A differenza dello strumento, il dispositivo avvia un processo, il cui esito non è sempre controllabile. Il televisore, ad esempio, da strumento è diventato dispositivo quando da un canale solo si è passati a più canali ed è nato il telecomando. L’AI è il primo dispositivo in grado di creare il proprio contenuto. Rispetto all’AI che avevamo già in diversi strumenti, ChatGpt fa un salto generativo: la sua capacità di autogenerazione va a una velocità incomparabile coi vecchi standard di obsolescenza della tecnologia. Da un po’ di tempo l’AI reagisce sempre meno per prompt e sempre più per obiettivi. Se delego l’obiettivo all’AI non so come viene fuori”. Zaccuri ha poi spiegato che “anche a fronte di milioni di documenti che l’AI ha a disposizione, ne bastano 250 con bias intenzionali perché il risultato sia caratterizzato da quelle distorsioni. Se inserisco documenti di stampo razzista in banca dati, prima o poi l’AI mi dà risposte razziste”.
“Nella scrittura c’è fatica, ma anche apprendimento”
“Evitiamo di ricadere nell’idea moralistica, pensando di poter mettere una regolina morale per risolvere i problemi. Non è così. Siamo davanti a un dispositivo che fa sempre qualcosa di più e di diverso da quello che ci aspettiamo. A noi meno giovani l’AI sembra comoda perché sappiamo com’erano le cose prima, ma in passato anche senza i servizi di oggi riuscivamo comunque a cavarcela”. La provocazione di Zaccuri punta il dito contro una deriva del giornalismo. “Considerando che l’AI funziona per modelli, forse nel giornalismo funziona così bene perché ci siamo accontentati di un giornalismo per modelli, costruito su misura di ciò che la gente vuole leggere? Non dimentichiamo che per un giornalista non esiste la gente ma le persone, che vanno rispettate. L’AI è il punto maturo dell’economia del dato, cominciata con i social”. Infine, Zaccuri ha sottolineato il “bello” dell’attività umana. “Nella scrittura c’è una fatica, ma anche un apprendimento”.
Dipendenze e violenza di genere, il lato umano dell’informazione
La giornalista del Gruppo Libertà Nicoletta Marenghi ha spiegato la genesi del podcast “Iceberg”, che racconta storie di dipendenza da gioco d’azzardo, e della trasmissione “Red Flags”, in onda su Telelibertà, dedicata alla prevenzione della violenza di genere. “Le persone avevano una grandissima voglia di raccontare cosa era successo – ha detto, parlando di Iceberg – pensando che la propria testimonianza fosse utile per far capire agli altri che una via d’uscita esiste. Il dottor Maurizio Avanzi (responsabile del percorso di cura sul disturbo da gioco d’azzardo dell’Azienda Usl di Piacenza, nda) ci ha detto che ogni sette persone ce n’è una che è dipendente da gioco d’azzardo o ha un familiare con questo disturbo. Non esiste un identikit, tutti possono caderci”. L’intelligenza artificiale, ha spiegato Marenghi, è un’opzione che è stata valutata ma poi scartata. “Abbiamo pensato di farci aiutare dall’AI per modificare le voci dei familiari, che volevano mantenere l’anonimato, ma poi non è stato necessario perché con gli strumenti che già adoperiamo riuscivamo a mantenere tutte le pause, i silenzi e i momenti di narrazione del racconto”. Su Red Flags, la giornalista ha rivelato che l’idea di far generare storie all’AI è stata subito scartata perché si perdeva l’autenticità del racconto. “La trasmissione parte dai fatti di cronaca accaduti sul nostro territorio – ha detto – e si sofferma su cosa spinge una persona apparentemente normale a rendersi responsabile di fatti del genere”.
Disabilità e giornalismo
Paola Pinotti, direttrice del quotidiano Piacenzasera.it, ha parlato dei progetti in atto ormai da diversi anni che vedono protagoniste persone con disabilità. Pinotti è anche socia della cooperativa sociale Officine Gutenberg, editrice del giornale, che dà lavoro a persone con disabilità. “La Redazione del Civico 11 – ha spiegato – è composta da persone con disabilità che da dieci anni raccontano la propria vita e le proprie esperienze, al di là dei pregiudizi. Grazie alla collaborazione con l’Università Cattolica del Sacro Cuore, con il contributo del Comune di Piacenza, abbiamo attivato anche l’esperienza di Universi, che coinvolge studenti diplomati o laureati con disabilità motorie, che così smettono di essere banalmente l’argomento di cui si parla e hanno la possibilità di essere giornalisti come noi. I giornalisti di Universi, nel tempo, hanno fatto emergere negli intervistati parti di sé a cui noi probabilmente non saremmo riusciti ad arrivare”. Questi due progetti, ha spiegato Pinotti, sono stati messi a sistema grazie alla nuova testata GoodmorningPiacenza, nata grazie alla collaborazione con Fondazione di Piacenza e Vigevano e Università Cattolica, che si accompagna alle tovagliette su cui vengono stampate le notizie”. “Avere questa vocazione non significa che rinunciamo a fare informazione a 360 gradi”, ha sottolineato. “Ci troviamo davanti a una frammentazione delle fonti di informazione – ha riflettuto la direttrice di Piacenzasera.it – se una volta si riconosceva un potere a noi giornalisti, perché era materia che solo noi governavamo, oggi chiunque può raccogliere informazioni con varie modalità. Siamo chiamati a riflettere sul modo di fare informazione, parliamo di povertà educativa ma spesso forse siamo noi a contribuire a questa degenerazione. Con la sfida dell’AI dobbiamo capire l’impatto che vogliamo avere sulla società. Invito tutti a fare sempre più affidamento sulla nostra intelligenza umana”.
Le fotografie e l’emozione di uno scatto “umano”
Una delle “vittime” preferite dell’intelligenza artificiale sono le immagini. Il fotografo milanese Andrea Cherchi rifiuta l’uso dell’AI e rivendica la “fatica” artistica dell’arrampicarsi nei posti più impervi per ottenere scatti esclusivi. “L’intelligenza artificiale non rientra nella passione, nell’emozione e nel lavoro vero e proprio del fotografo”, sostiene. Cherchi ha mostrato alcune fotografie scattate, evidenziando tratti realistici facilmente modificabili con l’AI per “perfezionare” l’immagine. Ma cambiarli, dice, significherebbe alterare la realtà, e quindi alterare la foto. “Chiunque guardi un’immagine generata dall’intelligenza artificiale – ha detto – non la apprezza mai a fondo come una foto scattata da un umano”. Così come per i giornalisti è utile a svolgere carichi di lavoro ripetitivo e a risparmiare tempo, anche per i fotografi può essere un’alleata importante. “È utile a gestire grandi quantità di dati e metadati che accompagnano la fotografia, ovvero gli hashtag che servono per pescarle dagli archivi. Prima, passavo giornate intere a svolgere questo lavoro che con l’AI viene semplificato. Tuttavia, alla fine, serve sempre il controllo umano”. L’intelligenza artificiale viene adoperata anche dagli architetti per realizzare i render. “Quando poi il cliente vede la casa finita si lamenta perché la finestra è da un’altra parte e la parete è di colore diverso”, ha detto. “Non vedo ancora l’AI come una concorrente”, ha concluso.
Il Vescovo: non dimentichiamo la nostra “responsabilità umana”
“C’è una pigrizia intellettuale autoindotta e autogenerata”, ha riflettuto il vescovo mons. Adriano Cevolotto chiamato, al termine del convegno, a commentare il messaggio di papa Leone XIV per la 60esima Giornata mondiale delle comunicazioni sociali, in occasione della ricorrenza di san Francesco di Sales, patrono dei giornalisti. “Come accade in ogni rivoluzione – ha detto il Vescovo – tante cose vanno per aria. E stare dentro la rivoluzione, e non alle sue conseguenze, non è facile. Una delle novità che noto è che, mentre in passato la prima reazione davanti a una cosa nuova era di rifiuto e presa di distanza, oggi l’atteggiamento che prevale è quello critico, come se il magistero della Chiesa cercasse di pensare e immaginare alcune ricadute: i vantaggi e anche gli inevitabili prezzi da pagare. La consapevolezza è la strada migliore”. “Papa Leone dice che è in gioco il nostro modo di essere umani – ha spiegato mons. Cevolotto – le dinamiche sociali e relazionali, le conseguenze politiche, i poteri che si stanno imponendo. Il messaggio non ci dice di combattere contro qualcosa ma di alzare la voce a favore dell’umanità”. “Non costruiamo a tavolino la nostra identità, che è sempre dinamica perché si arricchisce con le relazioni. La prima preoccupazione non è l’uso dell’intelligenza artificiale, ma l’uso della nostra umanità. Il rischio che intravedo è quello della sfiducia e del sospetto: stiamo introducendo un virus grave, che va a intaccare la qualità delle nostre relazioni e del nostro umano. Un’alleanza va costruita sul nostro senso di responsabilità: se non ci domandiamo quali possono essere le conseguenze di quello che facciamo, non solo ci diamo in pasto all’AI, ma perdiamo la responsabilità dei nostri atti. La responsabilità umana – ha concluso il Vescovo – ha un potere che spesso banalizziamo”.
Francesco Petronzio
Pubblicato il 9 febbraio 2026
Nella foto, da sinistra Paola Pinotti, Nicoletta Marenghi, Carla Chiappini, Andrea Cherchi, mons. Adriano Cevolotto, Alessandro Zaccuri, Ruben Razzante, don Davide Maloberti
Ascolta l'audio


