Come evitare che la GenAI diventi lo zio ubriaco e fuori controllo

L’intelligenza artificiale generativa (GenAI) ha cambiato per sempre il modo in cui interagiamo con la tecnologia.

Soluzioni come ChatGPT possono produrre risposte ben argomentate e articolate in pochi secondi. La maggior parte degli utenti rivede attentamente i contenuti generati dall’AI prima di applicarli o riutilizzarli — almeno all’inizio. Col tempo, però, è facile diventare troppo fiduciosi verso la GenAI. Ed è lì che iniziano i problemi.

Gli strumenti di intelligenza artificiale generativa stanno entrando in diversi settori ad alto rischio, compresa la manutenzione industriale. Se da un lato il potenziale della GenAI è enorme, dall’altro i rischi sono altrettanto evidenti.

In una recente intervista, Tom Rombouts, Director of Reliability and Data-Driven Solutions di I-care, ha paragonato la GenAI a uno zio ubriaco durante una festa di famiglia. Analizziamo insieme questa metafora illuminante per capire come applicare gli spunti di Rombouts e tenere sotto controllo un’AI “indisciplinata”.

Come l’AI si comporta come uno zio ubriaco

Sir Winston Churchill disse una volta: “La più grande lezione della vita è sapere che anche gli sciocchi a volte hanno ragione.” La GenAI non ha ragione solo a volte — ha ragione la maggior parte delle volte. Ed è proprio questo il problema.

Quasi ogni risposta generata da strumenti come ChatGPT è grammaticalmente impeccabile e formulata con una sintassi raffinata. Le risposte ispirano fiducia, soprattutto perché sono trasmesse esclusivamente attraverso il testo. È qui che entra in gioco la parabola dello “zio ubriaco” di Rombouts.

Immagina di trovarti a un pranzo di famiglia, dove tutti partecipano a una vivace discussione. Tra loro c’è tuo zio. È un uomo intelligente e di solito dà buoni consigli. Oggi, però, ha bevuto un po’ troppo.

Tuo zio parla con sicurezza mentre condivide consigli sugli investimenti e grandi teorie sul mercato azionario. Fortunatamente, puoi sentire che biascica le parole e vederlo barcollare. Capisci quindi che, in quello stato, i suoi consigli non sono del tutto affidabili.

Ora immagina invece di leggere soltanto la trascrizione delle sue parole, con tutti i biascicamenti e le incoerenze corretti. I suoi consigli sembrerebbero molto più convincenti, senza che tu sappia che fosse ubriaco.

Ecco esattamente il problema che affrontano gli utenti della GenAI. Il testo appare curato e altamente convincente, soprattutto se il lettore non ha le competenze necessarie per distinguere le sciocchezze da un consiglio valido.

Perché non ci si può sempre fidare dell’AI

L’intelligenza artificiale generativa si basa su enormi quantità di dati, ma non tutte queste informazioni sono accurate o affidabili. A volte, contenuti distorti o addirittura falsi vengono integrati nelle risposte. Il risultato sono output fuorvianti che possono avere conseguenze gravi per la tua azienda.

Come riportare in sé l’intelligenza artificiale generativa

Contrastare la tendenza dell’AI a generare contenuti fuorvianti richiede solidi meccanismi di controllo qualità, tra cui:

  • Verifica dei fatti
  • Supervisione umana
  • Formazione degli utenti per riconoscere gli errori dell’AI
  • Strumenti di AI avanzati in grado di ammettere l’incertezza

Inoltre, è fondamentale testare la capacità di un modello AI di distinguere i dati validi da quelli errati. Alimentare intenzionalmente il modello con informazioni fuorvianti può allenare il suo “rilevatore di sciocchezze”.

Usa l’AI (ma verifica sempre)

Non lasciare che la parabola dello zio ubriaco ti scoraggi dall’usare l’intelligenza artificiale. La tua azienda dovrebbe utilizzare l’AI. Assicurati però di verificare sempre le informazioni ricevute per evitare errori imbarazzanti.

Con i giusti controlli, l’AI può diventare un vero punto di svolta per la tua organizzazione.


Articolo a cura di Tom Rombouts, Reliability Director