De Kerchove: «Nell’era dell’AI, i giornalisti devono imparare il prompt engineering»

Si tratta, in altre parole, di fare domande: per convivere con l'intelligenza artificiale, bisogna imparare a porre domande, senza lasciare che sia lei a produrre contesto. Ne è convito il sociologo belga, ospite dell'edizione 2023 di Glocal

Generico 06 Nov 2023

Il giornalista deve imparare a fare prompt engineering. Il che è l’equivalente del porre domande nel contesto dell’intelligenza artificiale. Ne è convinto il sociologo belga Derrick De Kerchove, che sarà ospite, venerdì 10 novembre alle 14:30 in Sala Campiotti, di Festival Glocal, in un panel dedicato all’intelligenza artificiale promosso in collaborazione con il Consiglio nazionale dell’Ordine dei Giornalisti.

Lei sostiene che l’intelligenza artificiale genera una crisi epistemologica, nel senso che mette in crisi la distinzione tra fatti e opinioni. Cosa comporta questo? Vede delle possibili soluzioni a questa crisi?
«In realtà, per me la crisi epistemologica viene prima di tutto dalla trasformazione digitale, non dall’AI, che è solo la punta dell’iceberg di questa trasformazione. Il vero problema è che l’algoritmo non si interessa al senso, ma si interessa all’ordine. Questo è fondamentale, perché la parola umana è strutturata a partire dall’obbligo di trasmettere del senso e scambiarlo con altre persone. Il digitale non ha bisogno di questo, il che significa che è fondamtnelamente irresponsabile. Irresponsabile non nel senso morale, ma in quello logico. Questo significa che non è in grado di distinguere tra fatti e opinioni, ma li presenta allo stesso modo, che abbiano valore o meno. La responsabilità è allora delle persone, che usano la tecnologia per scopi buoni o cattivi, con informazioni valide o sbagliate, attenendosi al testo o al contesto, controllando il referente dell’affermazione. È una vera e propria sfida perché le persone sono pigre e diventano facilmente vittime di chi non lo è. La soluzione alla crisi è una rieducazione dell’intera società al valore del significato e alla relatività delle affermazioni. Dobbiamo più che mai coltivare il dubbio. Descartes ha rovinato tutto quando ha cambiato il suo famoso ‘cogito ergo sum’ dalla sua fenomenale intuizione iniziale ‘dubito ergo sum’».

Perché è importante la trasparenza, ovvero che un essere umano sia avvertito nel momento in cui si trova ad interagire con un’intelligenza artificiale o con un prodotto dell’AI?
«Perché è il primo passo per accertare le responsabilità ed eliminare parte dei dubbi. Questo non significa che tutto sia chiaro, ma rivela che l’informazione è stata creata o da una persona, quindi responsabile in qualche modo nei confronti del destinatario, o dall’automazione, quindi non responsabile per quanto corretta sia la risposta. Però detto questo, passando nell’era del quantum, stiamo per forza entrando nell’era dell’incertezza. Ormai la realtà è solo un accordo di consenso, non più un universo di certezze».

Il 2023 è l’anno europeo delle competenze. Glocal è un festival che nasce con l’obiettivo di fare formazione per i giornalisti. Quale sarà, secondo lei, l’impatto dell’AI su chi fa questo mestiere? Si perderanno posti di lavoro? Verranno svalutate le competenze? L’AI sarà semplicemente un nuovo strumento, come è stato vent’anni fa il digitale e settant’anni fa la televisione?
«Io credo che parlare di AI generativa come di uno strumento è un errore. Nemmeno la Tv è uno strumento, ma un  medium. Allo stesso modo, l’AI generativa non è uno strumento, è un sistema operativo. L’unica cosa veramente strumentale nel digitale è stato il sistema che permetteva di risparmiare tempo. Questo è strumentale. Lo strumento non prende il tuo posto, l’AI sì, fa il tuo lavoro. Il giornalismo deve cambiare le proprie competenze. Quelle della vecchia  routine giornalistica sono sostituibili: un articolo di sport o di finanza, che contenga numeri e statistiche, una macchina lo scrive perfettamente. Il giornalista, però, è chi fa le domande, è la persona che fa prompt engineering, che introduce il contesto nel testo. La macchina non conosce il contesto. Fa un matching tra il testo prodotto e il contesto che ha in mente. I giornalisti possono essere aiutati affidandosi all’AI, siamo ancora all’inizio. Il vero giornalista avrà un brand, uno stile, una scelta di argomenti pertinenti. Il giornalismo deve avere una dimensione di responsabilità. Ciò che manca alla macchina, il giornalismo deve integrarlo».

Cosa seguire a Glocal se ti interessa l’intelligenza artificiale

In un’intervista di un paio di anni fa ad Avvenire, lei ha dichiarato che nell’era degli algoritmi i media devono produrre coesione sociale. Questo messaggio è ancora valido? E cosa significa?
«Lo intendevo in senso difensivo. Gli algoritmi non sostengono la coesione sociale, solo l’ordine delle cose. Di per sé, gli algoritmi non sono né coesivi, né divisivi, però il loro uso da persone incolte o malintenzionate permette la formazione di camere dell’eco che contengono sia verità che falsità. La televisione è stato l’unico mezzo che ha portato davvero coesione alla società. Essendo un mezzo di trasmissione, uno a tutti, parla a tutti contemporaneamente. E ancora oggi rimane il miglior strumento in mano ai populisti dell’Est e dell’Ovest per forzare la coesione sociale, laddove il vero controllo si esercita su e via Internet».

Perché nell’era degli algoritmi la cultura umanistica torna ad avere un ruolo centrale?
«Perché è l’unica fonte di informazione che garantisce il giudizio e il senso del contesto di tutto ciò che è necessario sapere per prendere decisioni. Il vero problema è che la memoria è affidata allo smartphone e il giudizio ad assistenti digitali come Siri o Alexa. La maggior parte dei contenuti umanistici è fornita dalla lettura, non dalla radio o dalla TV. La lettura ti permette di prendere possesso del contenuto. La lettura trasforma la mente in un laboratorio di pensamento e d’identità, ma la TV o tutto ciò che arriva su qualche schermo prende posto e così anche possesso della tua mente. Ormai tutti i contenuti umanistici si trovano su Wikipedia, Google, Bard o altro, ma non più nella tua testa. Viene recuperato e rigurgitato dall’AI generativa. Se vogliamo mantenere un controllo individuale sull’informazione, dobbiamo imparare a ricordare le cose che abbiamo vissuto, sentito, letto. Se ci fidiamo all’AI generativa, anche il poco che ci resta nella testa svanisce».

In che misura la critica dell’intelligenza artificiale generativa è simile alla critica della scrittura nel Fedro di Platone?
«Entrambe sono simili in quanto l’alfabetizzazione minacciava lo sviluppo e l’uso di un’abilità di base, la memoria, e poi Platone parlava anche della responsabilità autoriale, altra perdita comune con l’AI generativa. Eric Havelock nel suo famoso libro, “Prefazione a Platone”, aveva capito bene il valore positivo della scrittura, spiegando che il fatto di delegare l’obbligo di ricordare le cose nella mente lasciava posto per aumentare il giudizio e il pensiero creativo. Ma se questo stesso compito di ben pensare è lasciato all’AI generativa, si chiede a cosa serve lo spazio mentale ormai sempre più vuoto. Intelligenza artificiale e scrittura sono due sistemi operativi di cultura e di civilizzazione ma sono diversi in quanto, mentre l’apprendimento della lettura e della scrittura sviluppava le capacità individuali di pensiero, l’AI generativa riduce il pensiero all’acquisizione di un contenuto comunemente disponibile, ma non necessariamente originale. Dipenderà da quanto la tecnologia, ancora in fase di sviluppo, riuscirà a emulare la creatività umana, ma dubito che sarà in grado di superarla perché, anche se simula molto bene il linguaggio, non può ancora, e forse non potrà mai, beneficiare del contesto multisensoriale in cui gli esseri umani lavorano naturalmente».

In altre parole, quanto pesano la paura di fronte a una nuova tecnologia e la resistenza al cambiamento nello sviluppo del pensiero critico rispetto all’IA generativa?
«Nel mio caso, niente affatto, non ho paura. Trovo che tutte le previsioni funeste siano tipiche di menti molto conservatrici che mancano di immaginazione e sto ancora aspettando un argomento convincente che dimostri che l’AI rappresenti un pericolo reale. Da 40 anni di studio i grandi cambiamenti di sistemi operativi di cultura, ho imparato che c’è sempre un periodo molto penoso di transizione, paragonabile, nello spirito, alle guerre di religione del Rinascimento. Per arrivare alla pace della cultura digitale serve accelerarla, aumentare ancora di più il suo regno sui nostri destini, però non limitarla a serie di zero/uno, ma andare oltre con la cultura quantica, molto più veloce, molto più capace d’inserire in ogni uno di noi una vera responsabilità, la capacità sensata di metter il pianeta al posto del nostro piccolo sé egotistico e sempre meno consistente. Vinceremo».

Immagine di copertina generata da DALL·E di OpenAI

Riccardo Saporiti
riccardo.saporiti@varesenews.it

VareseNews è da sempre un ottimo laboratorio per sperimentare l'innovazione digitale nel giornalismo. Sostienici in questa ricerca!

Pubblicato il 08 Novembre 2023
Leggi i commenti

Commenti

L'email è richiesta ma non verrà mostrata ai visitatori. Il contenuto di questo commento esprime il pensiero dell'autore e non rappresenta la linea editoriale di VareseNews.it, che rimane autonoma e indipendente. I messaggi inclusi nei commenti non sono testi giornalistici, ma post inviati dai singoli lettori che possono essere automaticamente pubblicati senza filtro preventivo. I commenti che includano uno o più link a siti esterni verranno rimossi in automatico dal sistema.

Vuoi leggere VareseNews senza pubblicità?
Diventa un nostro sostenitore!



Sostienici!


Oppure disabilita l'Adblock per continuare a leggere le nostre notizie.