Retrieval-Augmented Generation (RAG) to technika wykorzystywana w dużych modelach językowych (LLM), która łączy generowanie języka naturalnego z mechanizmem wyszukiwania danych w czasie rzeczywistym. W odróżnieniu od klasycznych modeli, które bazują wyłącznie na wiedzy zapamiętanej podczas procesu trenowania, RAG pozwala modelowi sięgać do zewnętrznych źródeł – takich jak bazy dokumentów, artykuły, API czy dane firmowe – aby wzbogacić odpowiedzi o najnowsze i bardziej precyzyjne informacje. Dzięki temu AI może dostarczać odpowiedzi nie tylko płynne językowo, ale także aktualne i kontekstowe.
RAG działa w dwóch etapach: najpierw system wyszukuje fragmenty danych pasujących do pytania użytkownika, a następnie model językowy generuje odpowiedź na ich podstawie, integrując treści z własną wiedzą. Takie podejście eliminuje część problemów związanych z tzw. halucynacjami AI, czyli sytuacjami, w których model „wymyśla” nieistniejące fakty. Pozwala także na tworzenie spersonalizowanych odpowiedzi dopasowanych do specyfiki danej firmy, branży czy rynku.