21 C
Roma
martedì, Ottobre 22, 2024
HomeTecnologia e InnovazioneL'IA è pronta per motori di ricerca come Google? Il problema allucinazioni

L’IA è pronta per motori di ricerca come Google? Il problema allucinazioni


Con il lancio di AI Overview di Google negli USA, avvenuto nella cornice del Google I/O 2024, l’intelligenza artificiale è sbarcata ufficialmente anche sui motori di ricerca.
Il dibattito, dunque, si è spostato sulla sua effettiva capacita e su quanto tale tecnologia sia pronta o meno per un compito importante come quello che gli è stato attribuito. Del resto, i primi giorni di AI Overview hanno mostrato ancora una volta quanto gli attuali modelli di intelligenza artificiale siano soggetti ad allucinazioni.

Long story short: l’IA può commettere errori

Collegandosi al portale ufficiale di ChatGPT ed eseguendo il login, appena sotto alla casella di testo per conversare col chatbot compare una frase: “ChatGPT può commettere errori. Considera di verificare le informazioni importanti“.

intelligenza artificiale v1 1081897
intelligenza artificiale v1 1081906

Poco importa che ora sia possibile utilizzare il nuovo e avanzato modello GPT-4o: i modelli linguistici di grandi dimensioni sono soggetti ad allucinazioni, per utilizzare un termine tecnico. È la stessa divisione Cloud di Google a spiegare, sul suo sito Web, che risultati errati o fuorvianti possono essere dovuti a una serie di fattori, facendo riferimento al modo in cui funzionano questi modelli: che si tratti di scarsità di dati utilizzati per l’addestramento o di distorsioni relative al dataset, le probabilità che allo stato attuale un’IA commetta un errore non sono basse.
Da previsioni errate a falsi positivi: è indubbio che l’utilizzo di uno strumento del genere in campi sensibili possa rappresentare un problema. Cosa succede, dunque, se si applica una soluzione di questo tipo al mondo dei motori di ricerca? A mostrarcelo sono proprio i primi test di AI Overview negli USA.
La funzione Panoramica vuole rivoluzionare il modo in cui Google fornisce le risposte all’utente, offrendo un riquadro con una risposta rapida generata dall’IA che dovrebbe consentire di ottenere tutti i dettagli del caso senza bisogno di ulteriori approfondimenti.

articolo 172094 850

Appena lanciata questa novità, tuttavia, i primi utenti hanno riscontrato delle problematiche non di poco conto. A una richiesta relativa alle modalità per preparare una pizza fatta in casa, infatti, l’intelligenza artificiale ha consigliato alle persone di “aggiungere un po’ di colla“. Questo è solamente un esempio di quanto possa risultare pericoloso l’utilizzo di una tecnologia con allucinazioni in un campo sensibile come quello delle ricerche online. Ma com’è possibile che AI Overview abbia risposto in questo modo?

Come fatto notare da The Verge, il problema risiede in questo caso nell’utilizzo di dati provenienti da Reddit per l’addestramento IA. La risposta era, infatti, basata su un assurdo commento lasciato da un utente su Reddit in un thread di più di dieci anni fa. Gli esempi di risposte assurde date dall’IA in questo primo periodo di test, però, non si fermano di certo qui: si va da un James Madison laureato per ben 21 volte, fino a un Batman che lavora come poliziotto, passando per un cane che gioca in NBA e per le fantomatiche indicazioni dei geologi sulla possibilità di “mangiare almeno una roccia al giorno“.
Certo, si tratta di questioni talmente assurde che si spera nessuno possa crederci, ma non si può negare o ignorare il problema.

articolo 172095 850

Ci si potrebbe soffermare a lungo sulla fame di dati delle Big Tech in campo di addestramento dei propri LLM, nonché sul fatto che ChatGPT e simili possono diventare meno smart se subentrano dei grattacapi in termini di training. Un sistema di intelligenza artificiale, d’altronde, è un sistema complesso, così come il numero di variabili in gioco nel contesto di un motore di ricerca sono parecchie.

L’aspetto che preoccupa maggiormente, forse, è il fatto che Google sia diventato nel corso del tempo una fonte estremamente credibile, ulteriore motivo per cui temere la presenza di allucinazioni.
A ciò aggiungiamo anche il tipico comportamento di un LLM, studiato per cercare di fornire risposte in modo autorevole e che può sembrare veritiero.

Al netto di tutti questi elementi, la gara per introdurre l’IA nei motori di ricerca è già iniziata da tempo e non sembra destinata a spegnersi; tuttavia, l’introduzione di una funzione di questo tipo su Google, il motore di ricerca più utilizzato a livello globale, è un’altra storia rispetto a quanto visto in passato, ad esempio, con Bing.

articolo 172096 850

Ma cosa ne pensa Google? In seguito agli errori visti in questi giorni con il primo rilascio di AI Overview, la portavoce Meghann Farnsworth ha difeso la funzione sostenendo che gli errori deriverebbero da “domande generalmente molto insolite e non sono rappresentativi delle esperienze della maggior parte delle persone“. Secondo BigG, dunque, si tratta di “esempi isolati” ed è già stato annunciato che verranno intraprese azioni contro le violazioni delle policy. Inoltre, Google ha affermato di voler approfondire i problemi per perfezionare il servizio.

C’è da dire che nel riquadro IA legato alle risposte, così come avviene per servizi come ChatGPT, compare un’indicazione chiara in merito al fatto che “l’intelligenza artificiale generativa è sperimentale“. Quel che sembra chiaro, però. è che per il momento questa tecnologia è tutt’altro che pronta per fornire informazioni accurate su larga scala.

articolo 172097 850

Certo, questa è la situazione attuale e il settore può migliorare molto col passare del tempo, ma viene a questo punto da chiedersi se la classica rincorsa all’innovazione da parte delle Big Tech non abbia fatto il passo più lungo della gamba in questo specifico ambito.
Non passa inosservato, a tal proposito, il fatto che Sundar Pichai, CEO di Google, in un’intervista concessa ai microfoni di The Verge, abbia indicato le allucinazioni dell’IA come “un problema ancora irrisolto“, spiegando anche che “in un certo senso, si tratta di una caratteristica intrinseca” di questi modelli. Pichai ha detto di credere, allo stesso tempo, che una funzione di questo tipo possa risultare comunque utile in abbinata al classico motore di ricerca, spiegando che valutare solamente gli aspetti negativi “sarebbe il modo sbagliato di pensarci“.



Fonte

ARTICOLI CORRELATI

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui

PIÙ POPOLARI