Intelligenza artificiale, l'esperta: come fare per riconoscere i testi dell’AI

NOTEXT
di C. Adi.
3 Minuti di Lettura
Venerdì 10 Maggio 2024, 05:40

Come riconoscere se un testo è stato scritto dall’Ai? Lo abbiamo chiesto direttamente a ChatGpt, che ha risposto: «Riconoscere se un testo è stato scritto da un'intelligenza artificiale può essere complesso e dipende da diversi fattori. Tuttavia, ci sono alcuni segnali che potrebbero indicare che un testo è stato generato da un'intelligenza artificiale».

Governo, IA: l'appello dei giovani innovatori italiani

Tra questi, l’algoritmo individua la «coerenza», cioè la possibilità che i testi possano mancare di coerenza nel contenuto o nei dettagli e la «creatività limitata», ovvero il rischio che possano sembrare "troppo perfetti" o mancare di sfumature e originalità presenti nei testi umani. ChatGpt, poi, ‘ammette’ che i suoi testi «possono commettere errori o fare affermazioni errate se la loro formazione è incompleta», e riportare «errori di grammatica insoliti o utilizzo di parole o frasi non comuni». Ma come stanno realmente le cose? Abbiamo rivolto la stessa domanda a Irene Finocchi, Direttrice del corso di Laurea Triennale in Management and Artificial Intelligence alla Luiss e docente del progetto ‘A scuola di Intelligenza artificiale’.

NON CHIAMATELA INTELLIGENZA

«É molto difficile capire se un testo è generato dall’Ai o da un essere umano - spiega l’esperta -

i risultati che possiamo ottenere sono quasi sempre validi: la macchina genera testi che sembrano molto realistici, con una sintassi corretta. Ma bisogna verificare i contenuti, perchè possono comparire informazioni false. Questi strumenti, infatti, non sono veramente intelligenti, perchè non hanno la capacità di fare un ragionamento logico. Nel caso di quesiti di matematica, ad esempio, l’algoritmo spesso esegue dei passaggi complessi per arrivare al risultato finale.

Ma è anche vero che si tratta di sistemi che cambiano molto velocemente. All’inizio ChatGpt faceva molti più errori. Ora l’algoritmo è migliorato molto. Questo è un mondo in continua evoluzione».

CHATGPT COME UN PAPPAGALLO

Atenei e centri di ricerca utilizzano già da qualche anno dei tool che sono in grado di distinguere tra testi generati dall’Intelligenza artificiale e testi prodotti dall’intelligenza umana. Ma l’algoritmo, come ha spiegato la docente, si perfezionerà sempre di più. E per gli esseri umani sarà sempre più difficile distinguere tra Intelligenza artificiale e intelligenza umana.

«Quella dell’anti-plagio è una tematica da sviluppare - aggiunge Finocchi - Non c’è una soluzione. Guardando i testi possiamo individuare degli indizi, ma spesso è molto difficile capire se c’è dietro ChatGpt». Per l’esperta, però, anche il prodotto migliore ha sempre bisogno della validazione da parte dell’uomo. «ChatGpt - prosegue - è come un pappagallo che ripete quello che dicono le persone, ma senza capire. Quindi per il docente l’unica vera opportunità per capire la preparazione degli alunni è sottoporli a prove che implichino la creatività e il ragionamento. Devo cambiare la modalità di valutazione».

Un altro suggerimento per i professori, è anche quello di interfacciarsi il più possibile con gli studenti, per conoscere il loro modo di scrivere e di esprimersi, così da poter capire se le prove sono autentiche o meno.

«Questo non significa proibire l’utilizzo dell’IAi. Vietare l’uso delle tecnologie non ha senso, questi strumenti ormai ci sono - conclude Irene Finocchi - quello che deve cambiare è il modo di insegnare e valutare gli studenti».

© RIPRODUZIONE RISERVATA

© RIPRODUZIONE RISERVATA