Asystenci AI przestają być tylko wyszukiwarką w formie czatu. Coraz bardziej chodzi o to, żeby rozumiały kontekst użytkownika, potrafiły łączyć informacje z wielu źródeł i podawały odpowiedzi dopasowane nie do ogólnego internetu, ale do konkretnej sytuacji. Właśnie w tę stronę idzie Gemini, wprowadzając funkcję Personal Intelligence, która pozwala personalizować działanie asystenta przez połączenie go z aplikacjami Google.
Nowość polega na tym, że Gemini może – jeśli użytkownik włączy taką opcję – korzystać z danych znajdujących się w usługach takich jak Gmail czy Google Photos i dzięki temu odpowiadać bardziej trafnie, szybciej oraz w sposób, który uwzględnia realne potrzeby i historię użytkownika. To etap przejścia z „AI, które wie dużo” do „AI, które wie wystarczająco dużo o Tobie, by sensownie pomóc”... lub "podejmować decyzje za Ciebie".
📋 Czego dowiesz się z tego artykułu:

Personal Intelligence to funkcja, która umożliwia połączenie Gemini z wybranymi aplikacjami Google i korzystanie z informacji zgromadzonych w tych usługach podczas udzielania odpowiedzi. Konfiguracja ma być prosta: użytkownik łączy aplikacje jednym dotknięciem ekranu, wybiera, które źródła udostępnia, i w każdej chwili może tę funkcję wyłączyć.
Innymi słowy: oddajemy Google'owi ciężar podejmowania decyzji w naszym imieniu na podstawie zgromadzonych o nas informacji.
Gemini nie działa tylko na podstawie wiedzy modelu i ogólnych zasobów sieci, ale może sięgnąć do konkretnych danych: wiadomości e-mail, zdjęć, historii aktywności w YouTube czy wyników wyszukiwania. Dzięki temu odpowiedzi mają być bardziej użyteczne, bo są osadzone w realnym kontekście.
W opisie funkcji pojawiają się dwa kluczowe silniki użyteczności.
1️⃣ Pierwszy to rozumowanie na bazie złożonych źródeł. Gemini potrafi zestawić ze sobą informacje z wielu miejsc i wyciągnąć z nich wnioski, których użytkownik sam musiałby szukać długo albo w ogóle by ich nie połączył.
2️⃣ Drugi to szybkie odzyskiwanie konkretnych detali. Chodzi o sytuacje, w których odpowiedź jest ukryta w mailu, na zdjęciu albo w jakimś fragmencie historii aktywności, a użytkownik nie ma czasu ani przestrzeni, by to przeszukiwać ręcznie.
Największy efekt ma to wtedy, gdy oba podejścia działają razem: Gemini znajduje detale i jednocześnie je interpretuje, tworząc odpowiedź dopasowaną do sytuacji użytkownika. Funkcja ma działać w układzie wielomodalnym: tekst, zdjęcia i wideo mogą być analizowane łącznie, a odpowiedzi mają mieć charakter szyty na miarę.
W materiałach opisujących Personal Intelligence pojawia się scenariusz, który dobrze pokazuje, jak wygląda praktyczny zysk z integracji źródeł. Użytkownik stoi w kolejce w serwisie opon i orientuje się, że nie zna rozmiaru opon. Gemini nie tylko podaje specyfikację, ale dodatkowo sugeruje różne opcje opon dopasowane do potrzeb, w tym wariant codzienny i wariant lepiej pasujący do warunków całorocznych. W tym scenariuszu asystent potrafi też oprzeć rekomendacje o informacje znalezione w Google Photos (np. kontekst wyjazdów rodzinnych) i dołożyć dane o ocenach oraz cenach.
Chwilę później potrzebny jest numer rejestracyjny, który znajduje się na zdjęciu w Photos, a dodatkowo pojawia się potrzeba identyfikacji konkretnej wersji auta, co Gemini ma ustalić przez przeszukanie Gmaila. Całość dzieje się bez opuszczania kolejki, bez przewijania galerii i bez szukania informacji w kilku miejscach jednocześnie.
To pokazuje istotę Personal Intelligence: nie chodzi o to, że AI zna rozmiary opon, bo to potrafi wiele narzędzi. Chodzi o połączenie wiedzy, danych użytkownika i działania tu i teraz, kiedy liczy się czas i sprawność.
Z drugiej strony są to wszystko informacje, które można otrzymać po prostu rozmawiając z serwisantem...
Drugi obszar zastosowań to rekomendacje: książki, filmy, ubrania, podróże. Opisany przykład dotyczy planowania wyjazdu, gdzie Gemini analizuje zainteresowania i wcześniejsze podróże widoczne w Gmailu i Photos, a następnie proponuje plan, który unika schematycznych atrakcji. W tym scenariuszu pojawia się np. pomysł podróży nocnym pociągiem oraz konkretne propozycje gier planszowych pasujących do przejazdu.
To istotny sygnał: personalizacja ma nie tylko skracać czas wyszukiwania informacji, ale też poprawiać trafność rekomendacji i podpowiadać rozwiązania bardziej kreatywne niż „top 10 atrakcji”.
W opisie funkcji mocno podkreślono kilka elementów:
➡️ Po pierwsze, połączenie aplikacji jest wyłączone domyślnie. Użytkownik musi świadomie włączyć Personal Intelligence, sam wybiera, które aplikacje łączy, i może to wyłączyć w dowolnym momencie. To ma dawać realną kontrolę nad zakresem personalizacji.
➡️ Po drugie, odpowiedzi mają być weryfikowalne. Gemini ma próbować pokazać lub wyjaśnić, z jakich połączonych źródeł skorzystał, aby użytkownik mógł sprawdzić, czy asystent nie „dopowiada” sobie faktów. Jeśli tego nie zrobi, można poprosić o wskazanie źródła w odpowiedzi.
➡️ Po trzecie, użytkownik ma możliwość użycia rozmów tymczasowych lub wygenerowania odpowiedzi bez personalizacji w ramach konkretnego czatu. To istotne, bo nie każdy temat powinien być „podkręcany” przez dane prywatne, nawet jeśli funkcja jest włączona.
➡️ W opisie pojawiają się również zabezpieczenia dotyczące tematów wrażliwych: asystent ma unikać tworzenia samodzielnych założeń opartych na danych wrażliwych (np. zdrowie), choć może o nich rozmawiać, jeśli użytkownik o to poprosi.
W komunikacie pojawia się ważne rozróżnienie: dane z Gmaila i Photos, które są wykorzystywane do udzielenia odpowiedzi, nie mają być bezpośrednio używane do trenowania modelu. Model ma być rozwijany na podstawie ograniczonych informacji, takich jak prompty i odpowiedzi w Gemini, przy zastosowaniu mechanizmów filtrujących lub maskujących dane osobowe.
W opisywanym scenariuszu zdjęcie z numerem rejestracyjnym czy maile identyfikujące wariant auta mają być tylko „referencją” do odpowiedzi, a nie materiałem treningowym. Celem treningu ma być nauczenie systemu samej zdolności odszukiwania informacji na żądanie, a nie zapamiętywania danych użytkownika.
W przypadku funkcji beta pojawia się wprost informacja o możliwych błędach: niektóre odpowiedzi mogą być nieprecyzyjne, a model może czasem przesadzić z personalizacją i łączyć niepowiązane fakty.
Wskazano też ograniczenia związane z kontekstem i niuansami. Asystent może wyciągać wnioski z tego, co widzi w danych, ale nie zawsze zrozumie powód. Przykładowo, wiele zdjęć z pola golfowego może zostać zinterpretowane jako pasja do golfa, podczas gdy w rzeczywistości to efekt czasu spędzanego z rodziną. W takim przypadku użytkownik ma korygować asystenta wprost, żeby model nie utrwalał błędnego obrazu preferencji.
W komunikacie zachęca się też do zgłaszania problemów przez ocenę odpowiedzi, zwłaszcza gdy pojawia się błąd lub over-personalization.
Funkcja startuje jako beta w USA, z rolloutem dla uprawnionych subskrybentów (Google AI Pro i AI Ultra). Ma działać na webie, Androidzie i iOS oraz współpracować z modelami dostępnymi w „model pickerze” Gemini. Z czasem ma zostać rozszerzona na kolejne kraje i docelowo trafić również do wersji bezpłatnej, a także pojawić się w AI Mode w Search.
Istotne ograniczenie: funkcja ma być dostępna dla kont osobistych, nie dla użytkowników Workspace (biznes/enterprise/education).
Jeśli będziesz mieć dostęp, funkcję włączysz sobie z poziomu ustawień Gemini: Settings > Personal Intelligence > Connected Apps (Gmail, Photos, etc.)
Personal Intelligence jest sygnałem, że kierunek rozwoju asystentów AI będzie coraz mocniej kontekstowy, a nie tylko kompetencyjny. Dla użytkowników oznacza to wygodę, ale dla marketerów i firm to ważny wniosek strategiczny: AI będzie coraz częściej miejscem, w którym użytkownik podejmuje decyzje, bo narzędzie poda mu gotową odpowiedź opartą o jego własne dane. To może zmieniać sposób, w jaki planuje się komunikację, treści i doświadczenie użytkownika w całej ścieżce, nie tylko w kampanii.
Jednocześnie widać, że ten kierunek zwiększa wymagania w obszarze prywatności i transparentności. Im bardziej asystent wie, tym bardziej użytkownik będzie oczekiwał jasnej odpowiedzi: skąd to wiesz i czy mogę to wyłączyć. Firmy, które chcą budować zaufanie, powinny myśleć o tych mechanizmach już teraz, bo standardy będą tylko rosnąć.
Jednocześnie jest to kolejne narzędzie, które ma myśleć za człowieka. W całym tym technologicznym szale trzeba sobie zadać proste pytanie: czy tego właśnie chcemy?