Google przedstawia Personal Intelligence w Gemini

Asystenci AI przestają być tylko wyszukiwarką w formie czatu. Coraz bardziej chodzi o to, żeby rozumiały kontekst użytkownika, potrafiły łączyć informacje z wielu źródeł i podawały odpowiedzi dopasowane nie do ogólnego internetu, ale do konkretnej sytuacji. Właśnie w tę stronę idzie Gemini, wprowadzając funkcję Personal Intelligence, która pozwala personalizować działanie asystenta przez połączenie go z aplikacjami Google.

Nowość polega na tym, że Gemini może – jeśli użytkownik włączy taką opcję – korzystać z danych znajdujących się w usługach takich jak Gmail czy Google Photos i dzięki temu odpowiadać bardziej trafnie, szybciej oraz w sposób, który uwzględnia realne potrzeby i historię użytkownika. To etap przejścia z „AI, które wie dużo” do „AI, które wie wystarczająco dużo o Tobie, by sensownie pomóc”... lub "podejmować decyzje za Ciebie".

📋 Czego dowiesz się z tego artykułu:

  • czym jest Personal Intelligence i na czym polega połączenie Gemini z aplikacjami Google;
  • jakie typy zadań zyskują najwięcej dzięki pracy na wielu źródłach jednocześnie;
  • jak wygląda podejście do prywatności i kontroli danych w tej funkcji;
  • jakie są ograniczenia i ryzyka nadmiernej personalizacji;
  • kto może skorzystać z funkcji i jak ją uruchomić.

Czym jest Personal Intelligence w Gemini

Personal Intelligence to funkcja, która umożliwia połączenie Gemini z wybranymi aplikacjami Google i korzystanie z informacji zgromadzonych w tych usługach podczas udzielania odpowiedzi. Konfiguracja ma być prosta: użytkownik łączy aplikacje jednym dotknięciem ekranu, wybiera, które źródła udostępnia, i w każdej chwili może tę funkcję wyłączyć.

Innymi słowy: oddajemy Google'owi ciężar podejmowania decyzji w naszym imieniu na podstawie zgromadzonych o nas informacji.

Gemini nie działa tylko na podstawie wiedzy modelu i ogólnych zasobów sieci, ale może sięgnąć do konkretnych danych: wiadomości e-mail, zdjęć, historii aktywności w YouTube czy wyników wyszukiwania. Dzięki temu odpowiedzi mają być bardziej użyteczne, bo są osadzone w realnym kontekście.

Jak ludzie używają Personal Intelligence – czyli co naprawdę daje połączenie źródeł

W opisie funkcji pojawiają się dwa kluczowe silniki użyteczności.

1️⃣ Pierwszy to rozumowanie na bazie złożonych źródeł. Gemini potrafi zestawić ze sobą informacje z wielu miejsc i wyciągnąć z nich wnioski, których użytkownik sam musiałby szukać długo albo w ogóle by ich nie połączył.

2️⃣ Drugi to szybkie odzyskiwanie konkretnych detali. Chodzi o sytuacje, w których odpowiedź jest ukryta w mailu, na zdjęciu albo w jakimś fragmencie historii aktywności, a użytkownik nie ma czasu ani przestrzeni, by to przeszukiwać ręcznie.

Największy efekt ma to wtedy, gdy oba podejścia działają razem: Gemini znajduje detale i jednocześnie je interpretuje, tworząc odpowiedź dopasowaną do sytuacji użytkownika. Funkcja ma działać w układzie wielomodalnym: tekst, zdjęcia i wideo mogą być analizowane łącznie, a odpowiedzi mają mieć charakter szyty na miarę.

Przykład: od danych na zdjęciu do decyzji przy ladzie

W materiałach opisujących Personal Intelligence pojawia się scenariusz, który dobrze pokazuje, jak wygląda praktyczny zysk z integracji źródeł. Użytkownik stoi w kolejce w serwisie opon i orientuje się, że nie zna rozmiaru opon. Gemini nie tylko podaje specyfikację, ale dodatkowo sugeruje różne opcje opon dopasowane do potrzeb, w tym wariant codzienny i wariant lepiej pasujący do warunków całorocznych. W tym scenariuszu asystent potrafi też oprzeć rekomendacje o informacje znalezione w Google Photos (np. kontekst wyjazdów rodzinnych) i dołożyć dane o ocenach oraz cenach.

Chwilę później potrzebny jest numer rejestracyjny, który znajduje się na zdjęciu w Photos, a dodatkowo pojawia się potrzeba identyfikacji konkretnej wersji auta, co Gemini ma ustalić przez przeszukanie Gmaila. Całość dzieje się bez opuszczania kolejki, bez przewijania galerii i bez szukania informacji w kilku miejscach jednocześnie.

To pokazuje istotę Personal Intelligence: nie chodzi o to, że AI zna rozmiary opon, bo to potrafi wiele narzędzi. Chodzi o połączenie wiedzy, danych użytkownika i działania tu i teraz, kiedy liczy się czas i sprawność.

Z drugiej strony są to wszystko informacje, które można otrzymać po prostu rozmawiając z serwisantem...

Planowanie i rekomendacje: mniej turystycznych oczywistości, więcej dopasowania

Drugi obszar zastosowań to rekomendacje: książki, filmy, ubrania, podróże. Opisany przykład dotyczy planowania wyjazdu, gdzie Gemini analizuje zainteresowania i wcześniejsze podróże widoczne w Gmailu i Photos, a następnie proponuje plan, który unika schematycznych atrakcji. W tym scenariuszu pojawia się np. pomysł podróży nocnym pociągiem oraz konkretne propozycje gier planszowych pasujących do przejazdu.

To istotny sygnał: personalizacja ma nie tylko skracać czas wyszukiwania informacji, ale też poprawiać trafność rekomendacji i podpowiadać rozwiązania bardziej kreatywne niż „top 10 atrakcji”.

Prywatność i kontrola danych: jak to ma działać według założeń

W opisie funkcji mocno podkreślono kilka elementów:

➡️ Po pierwsze, połączenie aplikacji jest wyłączone domyślnie. Użytkownik musi świadomie włączyć Personal Intelligence, sam wybiera, które aplikacje łączy, i może to wyłączyć w dowolnym momencie. To ma dawać realną kontrolę nad zakresem personalizacji.

➡️ Po drugie, odpowiedzi mają być weryfikowalne. Gemini ma próbować pokazać lub wyjaśnić, z jakich połączonych źródeł skorzystał, aby użytkownik mógł sprawdzić, czy asystent nie „dopowiada” sobie faktów. Jeśli tego nie zrobi, można poprosić o wskazanie źródła w odpowiedzi.

➡️ Po trzecie, użytkownik ma możliwość użycia rozmów tymczasowych lub wygenerowania odpowiedzi bez personalizacji w ramach konkretnego czatu. To istotne, bo nie każdy temat powinien być „podkręcany” przez dane prywatne, nawet jeśli funkcja jest włączona.

➡️ W opisie pojawiają się również zabezpieczenia dotyczące tematów wrażliwych: asystent ma unikać tworzenia samodzielnych założeń opartych na danych wrażliwych (np. zdrowie), choć może o nich rozmawiać, jeśli użytkownik o to poprosi.

Czy dane użytkownika służą do trenowania modelu?

W komunikacie pojawia się ważne rozróżnienie: dane z Gmaila i Photos, które są wykorzystywane do udzielenia odpowiedzi, nie mają być bezpośrednio używane do trenowania modelu. Model ma być rozwijany na podstawie ograniczonych informacji, takich jak prompty i odpowiedzi w Gemini, przy zastosowaniu mechanizmów filtrujących lub maskujących dane osobowe.

W opisywanym scenariuszu zdjęcie z numerem rejestracyjnym czy maile identyfikujące wariant auta mają być tylko „referencją” do odpowiedzi, a nie materiałem treningowym. Celem treningu ma być nauczenie systemu samej zdolności odszukiwania informacji na żądanie, a nie zapamiętywania danych użytkownika.

Ograniczenia i ryzyko nadmiernej personalizacji

W przypadku funkcji beta pojawia się wprost informacja o możliwych błędach: niektóre odpowiedzi mogą być nieprecyzyjne, a model może czasem przesadzić z personalizacją i łączyć niepowiązane fakty.

Wskazano też ograniczenia związane z kontekstem i niuansami. Asystent może wyciągać wnioski z tego, co widzi w danych, ale nie zawsze zrozumie powód. Przykładowo, wiele zdjęć z pola golfowego może zostać zinterpretowane jako pasja do golfa, podczas gdy w rzeczywistości to efekt czasu spędzanego z rodziną. W takim przypadku użytkownik ma korygować asystenta wprost, żeby model nie utrwalał błędnego obrazu preferencji.

W komunikacie zachęca się też do zgłaszania problemów przez ocenę odpowiedzi, zwłaszcza gdy pojawia się błąd lub over-personalization.

Dostępność: kto dostanie Personal Intelligence i jak włączyć

Funkcja startuje jako beta w USA, z rolloutem dla uprawnionych subskrybentów (Google AI Pro i AI Ultra). Ma działać na webie, Androidzie i iOS oraz współpracować z modelami dostępnymi w „model pickerze” Gemini. Z czasem ma zostać rozszerzona na kolejne kraje i docelowo trafić również do wersji bezpłatnej, a także pojawić się w AI Mode w Search.

Istotne ograniczenie: funkcja ma być dostępna dla kont osobistych, nie dla użytkowników Workspace (biznes/enterprise/education).

Jeśli będziesz mieć dostęp, funkcję włączysz sobie z poziomu ustawień Gemini: Settings > Personal Intelligence > Connected Apps (Gmail, Photos, etc.)

Nasz komentarz 💬

Personal Intelligence jest sygnałem, że kierunek rozwoju asystentów AI będzie coraz mocniej kontekstowy, a nie tylko kompetencyjny. Dla użytkowników oznacza to wygodę, ale dla marketerów i firm to ważny wniosek strategiczny: AI będzie coraz częściej miejscem, w którym użytkownik podejmuje decyzje, bo narzędzie poda mu gotową odpowiedź opartą o jego własne dane. To może zmieniać sposób, w jaki planuje się komunikację, treści i doświadczenie użytkownika w całej ścieżce, nie tylko w kampanii.

Jednocześnie widać, że ten kierunek zwiększa wymagania w obszarze prywatności i transparentności. Im bardziej asystent wie, tym bardziej użytkownik będzie oczekiwał jasnej odpowiedzi: skąd to wiesz i czy mogę to wyłączyć. Firmy, które chcą budować zaufanie, powinny myśleć o tych mechanizmach już teraz, bo standardy będą tylko rosnąć.

Jednocześnie jest to kolejne narzędzie, które ma myśleć za człowieka. W całym tym technologicznym szale trzeba sobie zadać proste pytanie: czy tego właśnie chcemy?

3 wskazówki dla specjalistów 💡

  1. Zadbaj o spójność danych i źródeł, bo asystenci personalizowani będą podejmować decyzje na podstawie tego, co widzą w ekosystemie użytkownika. Jeśli marka jest niespójna w komunikatach, danych i opisach, trudniej będzie wygrać w momentach wysokiej intencji.
  2. Projektuj treści i oferty tak, żeby były łatwe do weryfikacji i cytowania przez AI. Jeśli narzędzie ma wyjaśniać, skąd bierze informację, lepiej działać będą źródła jasne, uporządkowane, konkretne, a nie marketingowe ogólniki.
  3. Przygotuj się na korektę jako element doświadczenia. Użytkownicy będą poprawiać asystenta („wolę okno”, „nie interesuje mnie golf”), a to oznacza, że w marketingu większą rolę może odgrywać elastyczność oferty, wariantowanie komunikatów i szybkie reagowanie na preferencje, zamiast jednej, sztywnej narracji.
➡️ Przeczytaj również artykuł: Żyjemy w agentic era – ale co to właściwie oznacza? - Tak, w praktycznym sensie zaczynamy żyć w agentic era – epoka agentów AI to już nie tylko wizja, ale rosnąca liczba wdrożeń w biznesie, administracji i życiu codziennym. Agenci zmieniają sposób pracy, struktury organizacji, procesy decyzyjne i oczekiwania wobec pracowników. Równocześnie jest to epoka bardzo nierówna. Z jednej strony ogromne szanse na odciążenie ludzi z powtarzalnych zadań, poprawę dostępności usług i stworzenie nowych modeli biznesowych; z drugiej poważne ryzyka związane z błędami, wyciekami danych, rozmyciem odpowiedzialności, nierównościami i militaryzacją technologii.

🔗 Gemini introduces Personal Intelligence

Poznaj naszą nową usługę: Automatyzacja z użyciem Agentów AI


Automatyzacja AI to szybsze działania, mniej ręcznej pracy i lepsze decyzje oparte na danych. Nasi inteligentni agenci przejmują powtarzalne zadania, usprawniają marketing i sprzedaż, porządkują CRM oraz wspierają HR, finanse i zarządzanie. Integrujemy się z Twoimi systemami SaaS, aby cały proces — od strategii po egzekucję — działał szybko, precyzyjnie i w sposób skalowalny.

➡️ Dowiedz się więcej: Automatyzacja z użyciem Agentów AI od Marketing Online
Szkolenia
Polski