Nell'era digitale, l'Intelligenza Artificiale (IA) si insinua in ogni aspetto della nostra vita promettendoci di rivoluzionare il modo in cui lavoriamo, interagiamo e percepiamo il mondo. Ma quanto possiamo davvero fidarci? È davvero in grado di ragionare in autonomia?
Mettiamo alla prova l'IA con un quesito molto semplice: "Alice ha due sorelle e tre fratelli. Quante sorelle ha il fratello di Alice?"
Gemini, il sistema di Google basato sull'IA, ha risposto così: "Il fratello di Alice ha due sorelle. Questo perché il numero di sorelle che ha Alice non è legato al numero di fratelli che ha, e viceversa. Sono informazioni indipendenti. Se Alice ha due sorelle, allora il fratello di Alice ha due sorelle, indipendentemente da quanti fratelli ha lui stesso. Quindi, la risposta è due."
Non ha fatto di meglio l'osannato sistema ChatGPT 4 di OpeanAI: "Il fratello di Alice ha le stesse sorelle di Alice. Quindi, se Alice ha due sorelle, anche il fratello di Alice avrà due sorelle. Risposta: il fratello di Alice ha due sorelle.".
Ovviamente, hanno sbagliato entrambi.
Perché i due più famosi super-sistemi basati sull'IA hanno fallito? Quanto sono affidabili?
Alcuni studi hanno rilevato che gli LLM (Large Language Models, come ChatGPT e Gemini) possono raggiungere una percentuale di correttezza del 50-80% in compiti di ragionamento semplici, mentre in compiti più complessi la percentuale può scendere al 30-40%. Funzionano bene, invece, su date, eventi storici e informazioni, con percentuali prossime al 90%.
Sostanzialmente, se viene richiesto un ragionamento, in alcuni casi potrebbe essere più affidabile il lancio di una moneta.
Perché?
Anzitutto è importante sfatare il mito comune che l'IA possegga una vera e propria capacità di ragionamento. In realtà, i sistemi di IA non sono altro che complessi algoritmi in grado di elaborare grandi quantità di dati e generare risposte sulla base di modelli statistici.
Per fare un paragone, immaginiamo un bambino che impara a parlare: non possiede innate capacità linguistiche ma assorbe il linguaggio che lo circonda, imitando e ricombinando parole e frasi. Allo stesso modo, l'IA "impara" dai dati su cui viene allenata, identificando schemi e connessioni tra essi.
Questo significa che l'IA non è in grado di pensare in modo critico o indipendente, può solo fornire risposte basate su ciò che ha già "visto" in fase di addestramento.
Ecco perché l'affidabilità dell'IA dipende in gran parte dalla qualità e dalla completezza dei dati su cui viene allenata. È fondamentale che i dati siano accurati, aggiornati, rappresentativi e privi di pregiudizi, per evitare che l'IA perpetui discriminazioni o generi risultati distorti.
In conclusione, l'IA è uno strumento potente con un enorme potenziale per migliorare la nostra vita. Tuttavia, è importante non confonderla con un'entità senziente o infallibile. È solo uno strumento, e, come ogni strumento, deve essere utilizzato in modo responsabile e consapevole, con attenzione ai dati che la alimentano e alle implicazioni etiche del suo utilizzo.
Solo così potremo sfruttare al meglio i benefici dell'IA senza incorrere nei rischi che la sua cieca applicazione potrebbe comportare.