Ma quando gli algoritmi riescono a scrivere interi articoli e, allo stesso tempo, a inondare Internet di fake news, una domanda si fa sempre più forte: i media stanno tenendo il passo con una tecnologia che sta rimodellando la loro stessa missione?

In tutta Europa, sempre più redazioni si stanno affidando all'intelligenza artificiale. Alcuni la vedono come un'opportunità per aumentare l'efficienza, altri come una scommessa pericolosa. L'approccio più promettente finora sembra essere il modello ibrido, che sfrutta la velocità e la potenza dell'automazione mantenendo al contempo gli esseri umani coinvolti nel processo di giudizio critico. Questo mix potrebbe rappresentare la migliore difesa contro la disinformazione. Eppure, la realtà è complessa: per quanto l'intelligenza artificiale sia d'aiuto, crea anche nuovi rischi, dagli algoritmi distorti ai dubbi sull'affidabilità delle notizie.

Quindi, questo modello ibrido è una soluzione a lungo termine o solo una soluzione temporanea per ritardare una crisi di fiducia ancora più grande?

Il fattore umano: essenziale o obsoleto?

La ricerca non lascia dubbi : l'uomo rimane centrale nel giornalismo. Non solo nella scrittura degli articoli, ma anche nella creazione degli strumenti per verificarli. Senza la supervisione umana, combattere la disinformazione sarebbe pressoché impossibile.

La sfida? Molte redazioni non possiedono solide competenze tecnologiche. Questa lacuna rende più difficile adattarsi alla rapida ascesa dell'intelligenza artificiale. Sempre più professionisti dei media chiedono una formazione diffusa sull'intelligenza artificiale per i giornalisti, avvertendo che senza di essa, i giornalisti rischiano di diventare dipendenti da tecnologie che non comprendono appieno. E se i giornalisti non sono in grado di spiegare gli strumenti che utilizzano, possono davvero affermare la loro indipendenza?

Il circolo vizioso della disinformazione: possiamo interromperlo?

Il problema della disinformazione non riguarda solo l'offerta, ma anche la domanda. Come ha osservato Susan D'Agostino su The Bulletin , gli algoritmi amplificano i contenuti che generano più clic e coinvolgimento, che siano veri o meno.

Marshall Van Alstyne sostiene che abbiamo bisogno di una doppia strategia: bloccare la creazione di fake news generate dall'intelligenza artificiale e, al contempo, rimodellare il modo in cui le persone fruiscono delle informazioni. Ciò implica un cambiamento tecnologico, culturale e persino psicologico. Ma quanto è realistico? E se falliamo, quanto tempo ci vorrà prima che la società perda la capacità di distinguere la verità dall'illusione digitale?

Bias algoritmico : errore o guasto del sistema?

Un altro problema importante: i pregiudizi insiti negli algoritmi. Ramaa Sharma sottolinea che per affrontarli sono necessari team diversificati, set di dati più ampi e standard etici chiari, integrati fin dall'inizio nella progettazione dell'intelligenza artificiale.

Alcune soluzioni includono il monitoraggio dei metadati, lo sviluppo di strumenti di rilevamento dei pregiudizi, la promozione della trasparenza e la collaborazione tra le redazioni. Ma anche le migliori soluzioni tecniche non serviranno a nulla se il settore non si troverà di fronte a una dolorosa verità: tollerare un'intelligenza artificiale distorta potrebbe significare sacrificare la credibilità, il cuore stesso del giornalismo.

I chatbot come nuova linea di difesa

Alcune redazioni stanno sperimentando i propri strumenti di intelligenza artificiale per contrastare le pressioni. Il giornalista Rowan Philip descrive come alcune testate abbiano creato chatbot interni che rispondono alle domande solo utilizzando archivi verificati.

A differenza dei sistemi di intelligenza artificiale pubblici come ChatGPT, che attingono a contenuti Internet non verificati, questi modelli chiusi si basano esclusivamente su fonti attendibili. Forniscono al pubblico risposte accurate e ricostruiscono la fiducia attraverso la trasparenza. La domanda è: queste soluzioni locali più piccole possono sopravvivere alle piattaforme globali che dominano con algoritmi orientati al profitto?

Il giornalismo nell'era dell'intelligenza artificiale: la democrazia può sopravvivere?

L'intelligenza artificiale è già integrata nel giornalismo europeo e la sua influenza non potrà che crescere. Le opportunità sono grandi, ma lo sono anche i rischi. Se non controllato, il giornalismo automatizzato potrebbe alimentare la disinformazione ed erodere la fiducia in tutti i media. E se i cittadini smettessero del tutto di credere nell'informazione, le fondamenta stesse della democrazia sarebbero a rischio.

Ecco perché gli esperti sostengono che le soluzioni tecniche da sole non siano sufficienti. Abbiamo bisogno di uno sforzo congiunto – legale, etico e culturale – per garantire che l'intelligenza artificiale rafforzi il giornalismo anziché indebolirlo. Le redazioni europee, insieme ai responsabili politici, dovrebbero impegnarsi per la trasparenza, l'equità e un controllo indipendente.

Perché senza queste garanzie, il giornalismo potrebbe non essere salvato dall'intelligenza artificiale, ma perdersi.

Dai forma alla conversazione

Hai qualcosa da aggiungere a questa storia? Hai qualche idea su interviste o angolazioni da esplorare? Facci sapere se vuoi scrivere un seguito, un contrappunto o condividere una storia simile.