Grounding w kontekście sztucznej inteligencji to proces „uziemiania” odpowiedzi generowanych przez model językowy w rzeczywistych, zewnętrznych źródłach danych. Zamiast opierać się wyłącznie na wiedzy wytrenowanej w ramach modelu, AI sięga po dodatkowe informacje z baz danych, wyszukiwarek czy dokumentów dostarczonych przez użytkownika. Dzięki temu treści generowane przez sztuczną inteligencję są nie tylko logiczne i spójne, ale przede wszystkim zgodne z faktami i osadzone w rzeczywistym kontekście.
Grounding działa w ten sposób, że model, odpowiadając na pytanie, wysyła równoległe zapytania do zewnętrznych źródeł – np. do indeksu wyszukiwarki czy firmowej bazy wiedzy – a następnie włącza pozyskane informacje do tworzonych treści. Takie podejście pozwala znacząco ograniczyć ryzyko tzw. halucynacji AI, czyli sytuacji, w których algorytm generuje treści wyglądające wiarygodnie, lecz niezgodne z rzeczywistością. To sprawia, że grounding staje się fundamentem dla wysokiej jakości i rzetelnych zastosowań AI.