In cerca di fiducia

Come ogni anno, gli istituti culturali più prestigiosi fanno a gara per selezionare la parola che meglio descrive i dodici mesi che stanno per concludersi. Non si tratta solo di un gioco linguistico, ma di un atto di lettura e interpretazione della realtà che vuole far riflettere sulla nostra società e le trasformazioni che la stanno attraversando. Non è quindi un caso che le parole scelte per il 2025 ruotano tutte intorno alla comunicazione digitale, fotografandone derive tutt’altro che positive.

L’Oxford Dictionary sceglie rage bait, ovvero la pratica – ormai quotidiana sui social – di diffondere contenuti costruiti appositamente per suscitare indignazione e reazioni forti, giocando su un’emozione contagiosa come la rabbia con l’unico obiettivo di ottenere visibilità e accelerare la viralità. In un tempo in cui la polarizzazione è arrivata all’estremo e siamo sempre meno disponibili ad ascoltare, basta un commento tagliente, un meme sarcastico o una clip estrapolata dal suo contesto per innescare conversazioni che in pochissimo tempo raggiungono una diffusione sorprendente, liberando frustrazione, rancore, odio verso qualcosa o qualcuno, più spesso contro tutto e tutti.

Per il Cambridge Dictionary è invece parasocial la parola dell’anno, esemplificativa della fragilità di una società che fa sempre più fatica a coltivare le relazioni vere e si rifugia in rapporti che danno una parvenza di affetto e, al tempo stesso, non impegnano troppo. Le chiamano appunto relazioni parasociali, che percepiamo come reali e quotidiane, ma in verità sono del tutto virtuali e unidirezionali. È il tipo di rapporto che ci lega a celebrity, creator e influencer che seguiamo costantemente in rete, pensando di sapere tutto delle loro vite e del loro mondo perché non ci perdiamo neanche una loro storia e commentiamo ogni nuovo post, mentre loro non sanno nemmeno della nostra esistenza. Ed è la stessa fascinazione di intimità che ci spinge ad affidare confidenze, dubbi e ansie ai chatbot animati dalle intelligenze artificiali, arrivando in casi estremi ad innamorarcene.

Tra attacchi scatenati a tavolino e relazioni surrogate, cosa possiamo dire davvero autentico? Forse la verità che attribuiamo all’AI? Anche qui siamo vittime di un abbaglio. Se i filosofi dell'antica Grecia chiamavano episteme la vera conoscenza, oggi rischiamo di ammalarci di epistemia, cadendo nella trappola in cui l’illusione di sapere prende il posto della conoscenza. È proprio epistemia la parola che, secondo il prof. Walter Quattrociocchi dell’Università La Sapienza di Roma, racconta l’ubriacatura di AI cui abbiamo assistito nell’ultimo anno e, soprattutto, la convinzione largamente diffusa che l’AI sappia comprendere, valutare, giudicare. In realtà, i modelli linguistici dell’AI «funzionano così: producono testi coerenti non perché capiscono, ma perché ottimizzano correlazioni statistiche. Cercano solo la plausibilità linguistica», scrive Quattrociocchi. Tale impressione di conoscenza regge quando sappiamo poco o nulla di un certo argomento, quando diamo totale fiducia all'AI e neanche ci prendiamo il tempo di controllare e verificare il risultato che in pochi istanti abbiamo tra le mani.

In questo quadro a tinte un po’ fosche, Treccani ci consegna fiducia come parola chiave del 2025, sottolineandone non tanto la carenza, quanto il bisogno. Siamo in cerca di riferimenti condivisi, di punti fermi nel crescente rumore di fondo, di legami affidabili. Siamo in cerca di nuovi modi di ricomporre la frammentazione e riconquistare quella che lo stesso dizionario definisce «la tranquilla sicurezza che nasce da una valutazione positiva di una persona o di un gruppo di persone, verso altri o verso sé stessi».

Che la voglia di fidarsi sia così forte lo dimostra anche il fatto che “fiducia” sia uno dei termini più cliccati su treccani.it, nonché quello con il più alto incremento percentuale rispetto all’anno scorso. È tra le parole simbolo del 2025, è un augurio per il 2026.

 

Nella foto: Tokyo, teamLab Planets


Giornali e media alla prova dell’AI

Tra i pionieri dell’uso dell’AI in ambito giornalistico spiccano il Washington Post con il robot-giornalista Heliograf, e The Guardian, che già nel 2020 pubblicava un editoriale firmato da GPT-3 di OpenAI. Da allora, sempre più testate in tutto il mondo hanno integrato tecnologie di intelligenza artificiale nei propri workflow editoriali, anche se non è semplice quantificarne la diffusione esatta.

Molti quotidiani e agenzie – tra cui Associated Press, Reuters, Bloomberg e Forbes – usano l’AI per automatizzare la scrittura di cronache sportive, report finanziari e aggiornamenti su eventi complessi come le elezioni. In altri casi, come Der Spiegel, l’AI supporta il fact-checking e aiuta i redattori a verificare la veridicità delle fonti prima della pubblicazione.

In Italia, l’impatto dell’AI è tra le novità del nuovo Codice deontologico dei giornalisti, in vigore dal 1° giugno 2025, che impone la massima trasparenza: l’AI non può sostituire il lavoro umano e va sempre dichiarata e supervisionata. Un esempio virtuoso è quello de Il Sole 24 Ore, che utilizza l’AI per il data journalism e la creazione di inchieste e dossier basati sull’analisi di grandi basi di dati (Lab24, Info Data). Interessante, ma non esente da critiche, anche la sperimentazione condotta da Il Foglio, che ha lanciato “Il Foglio AI”, un’edizione interamente generata con strumenti di intelligenza artificiale.

Cosa ne pensano i giornalisti? Secondo una recente indagine della Thomson Reuters Foundation, il 54% ritiene che l’AI abbia già trasformato in modo significativo il lavoro delle redazioni. Il 42% guarda con ottimismo al suo impiego futuro, pur segnalando criticità etiche ancora da risolvere.

I lettori, invece, si mostrano più scettici. Un sondaggio del Pew Research Center indica che il 50% degli americani teme che l’AI peggiorerà la qualità delle notizie. Il 41% la giudica meno efficace nella scrittura e il 66% esprime forti preoccupazioni per il rischio di disinformazione.

Ma l’AI non riguarda solo i giornalisti e il lavoro editoriale. Con l’obiettivo di personalizzare sempre di più e meglio l’esperienza dei lettori, gli algoritmi di raccomandazione – come quelli adottati da New York Times e BBC – analizzano i comportamenti di navigazione per suggerire articoli pertinenti, aumentare l’engagement e ottimizzare il tempo speso sul sito. In parallelo, strumenti di AI generano automaticamente metadati SEO e contenuti social, migliorando la diffusione online, come nel caso de Il Sole 24 Ore.

L’AI si sta rivelando utile anche per rendere i contenuti più accessibili e inclusivi. Al Festival del Giornalismo di Perugia, Matthew Garrahan ha raccontato cosa sta facendo il Financial Times: dall’agente Ask FT per fare ricerche avanzate negli archivi del giornale alle traduzioni in più lingue per i lettori stranieri, dalla generazione automatica di titoli, sottotitoli e abstract ai contenuti per le persone ipovedenti, la testata sta provando l’AI anche per il monitoraggio e la moderazione dei commenti pubblicati sotto le storie. È ancora presto per misurare i risultati in termini di soddisfazione e fidelizzazione del pubblico, ha sottolineato Garrahan, ma i primi riscontri sono incoraggianti.

Una delle domande aperte riguarda l’impatto dell’AI sui modelli di business degli editori: se la risposta che cerco posso chiederla a ChatGPT, perché dovrei pagare un giornale? Per Garrahan, la risposta non è nella tecnologia, ma nel valore del contenuto: Nessun algoritmo, almeno per ora, può sostituire la qualità dell’informazione prodotta da giornalisti competenti e fonti affidabili”.

 

Photo credit: Unsplash


B-Story srls a socio unico
P. IVA / cod. fisc. 09349140963
CCIAA Monza Brianza