News | News | 15/01/2024

Più accurata e aggiornata, la RAG è il futuro dell’intelligenza artificiale: come funziona?

La RAG unisce alle capacità generative dei LLM il reperimento di informazioni da fonti esterne.

Quando si parla di intelligenza artificiale, siamo soliti immaginarla come un’unica entità, ma in realtà si compone di tante applicazioni e metodi, a loro volta basati su modelli e algoritmi. In questo universo composito e sfaccettato, in cui un posto di rilievo è occupato dai Large Language Models, o LLM, in grado di generare testi naturali e realistici, partendo da un input e una domanda.

I modelli linguistici di grandi dimensioni, a volte, possono anche non essere perfettamente coerenti, limitandosi ad esempio a restituire fatti casuali dai dati di addestramento o non avendo idea di ciò che propongono. Questo avviene perché gli LLM sanno come le parole si relaziono statisticamente, ma non cosa significano e, inoltre, non sono in grado di integrare le informazioni provenienti da fonti esterne.

Una soluzione a questi limiti potrebbe arrivare dalla Retrieval-Augmented Generation, o RAG: un modello che unisce le capacità generative dei LLM con le capacità di reperire informazioni da una fonte di conoscenza esterna. L’implementazione della RAG in un sistema di risposta alle domande basato su LLM presenta due vantaggi principali: da una parte, garantisce che il modello abbia accesso ai fatti più attuali e affidabili, dall’altra fa sì che gli utenti abbiano accesso alle fonti del modello, garantendo che le sue affermazioni possano essere verificate.

Come funziona la RAG?

Questo modello funziona in due fasi: recupero e generazione di contenuto. Nella fase di recupero, gli algoritmi cercano e recuperano frammenti di informazioni rilevanti per la richiesta o la domanda dell’utente. In un contesto di dominio aperto e di consumo, tali fatti possono provenire da documenti indicizzati su Internet. In un ambiente aziendale a dominio chiuso, ad esempio, si utilizza generalmente un insieme più ristretto di origini (per avere più sicurezza e affidabilità).

Questa conoscenza esterna viene aggiunta al prompt dell’utente e passata al modello linguistico. Segue, poi, la fase generativa, in cui il modello attinge dal prompt aumentato e dalla sua rappresentazione interna di dati di addestramento, sintetizzando così una risposta su misura. La risposta può essere passata a un chatbot con collegamenti alle sue fonti.

Pro e contro

Gli input possono essere parole chiave, frasi, domande o immagini, che si traducono in output come risposte, riassunti, articoli o descrizioni. I vantaggi della RAG sono numerosi, a cominciare dalla maggiore affidabilità: poiché si basa su fatti esterni e verificabili, ci sono minori possibilità di “allucinazioni” o perdite di dati. A questo si aggiungono una maggiore accuratezza nelle risposte, una più elevata capacità di adattamento e una riduzione delle necessità per gli utenti di addestrare continuamente il modello su nuovi dati e di aggiornarne i parametri man mano che le circostanze si evolvono.

Per capire un po’ meglio di cosa stiamo parlando, è utile prendere in prestito una definizione di Luis Lastras, direttore del Language Technologies Department di IBM Research: “È la differenza tra un esame a libro aperto e uno a libro chiuso. In un sistema RAG, chiedi al modello di rispondere a una domanda sfogliando il contenuto di un libro, invece di cercare di ricordare i fatti dalla memoria”.

Esistono, naturalmente, anche delle problematicità. La qualità delle risposte, ad esempio è strettamente dipendente dalla qualità dei dati recuperati e, inoltre, la RAG richiede una maggiore complessità computazionale o temporale. Qualora i dati recuperati non fossero ben allineati con la domanda o il contesto, potrebbero esserci problemi di coerenza e rilevanza. Al di là di questo, resta un dato di fatto, e cioè l’enorme potenziale che offre, che ha già spinto diverse aziende a implementarla nei loro database.


Ti servono altre informazioni?

Compila il modulo e sarai ricontattato dal nostro team al più presto.

Correlati

Tutti i diritti riservati | Privacy Policy | Cookie Policy