Najnowszy model Gemini 1.5 Pro
Gemini 1.5 Pro to najnowsza wersja generatywnego AI. Działa w chmurze, a także lokalnie, jak i na urządzeniach mobilnych. Oznacza to, że Gemini wejdzie również do usługi Google Cloud, umożliwiającej szereg działań w chmurze, m.in. przechowywanie i przetwarzanie danych, ich analizę, uczenie maszynowe i narzędzia do zarządzania. Gemini stanie się z czasem naszym
osobistym asystentem, towarzyszącym w niemal każdej czynności, wykonywanej w Google i wszystkich usługach, jakie oferuje wyszukiwarka.
Gemini weźmie również udział w procesach, mających zapewnić bezpieczeństwo użytkowników wyszukiwarki. Sztuczna inteligencja jako stały element Google Chronicle Security Operations przyczyni się do poprawienia bezpieczeństwa i zaoferuje czat, który pomoże przejść określone czynności. Ogólnie rzecz biorąc, Chronicle oferuje zintegrowane doświadczenie w zakresie SIEM, SOAR i wywiadu w obszarze zagrożeń, aby poprawić wykrywanie, badanie i reagowanie. Dzięki niemu można zbierać dane telemetryczne dotyczące bezpieczeństwa czy wykonać wywiad w obszarze zagrożeń, aby zidentyfikować te o wysokim priorytecie.
Źródło: Blog Google / Google Chronicle Security Operations
Google Gemini 1.5 Pro to przede wszystkim:
Zwiększona wydajność - przede wszystkim w porównaniu z poprzednimi modelami AI od Google. Gemini 1.5 Pro potrafi bardzo wydajnie uczyć się w kontekście, czyli poznawać nowe informacje na podstawie tego, co zostanie podane w długim prompcie.
Etyka i bezpieczeństwo - Google dokłada starań, by ich narzędzia oparte na AI przechodziły z sukcesem szeroko zakrojone testy z dziedzin etyki i bezpieczeństwa. Wnioski z takich testów są włączane do procesu udoskonalania narzędzi. Od momentu wprowadzenia modelu 1.0, technicy Google stale pracują nad poprawą bezpieczeństwa systemu. Przeprowadzają tzw. testy red teaming, by określić różnorodne potencjalne szkody.
Pojemne okno kontekstowe - Gemini 1.5 Pro jest standardowo wyposażony w okno kontekstowe o pojemności 128 tysięcy tokenów. Tokeny to elementy, które służą do przetwarzania informacji. Mogą to być obrazy, filmy, dźwięk, tekst albo kod. Jeśli okno kontekstowe jest większe, system może przetworzyć większe porcje danych w ramach określonego promptu (prompt to polecenie dla systemu AI). Ograniczona grupa programistów i klientów korporacyjnych może w ramach wersji przedpremierowej korzystać z okna kontekstowego o pojemności do miliona tokenów jako część usługi AI Studio i platformy Vertex AI. Okno kontekstowe o pojemności miliona tokenów wymaga usprawnień, by zmniejszyć opóźnienia.
Porównanie pojemności modeli AI - źródło: Blog Google
Wysoce wydajna architektura - dzięki wykorzystaniu architektur Transformer oraz MoE. Dzięki najnowszym pracom w tej dziedzinie, AI od Google może szybko uczyć się i wykonywać złożone zadania, a także utrzymywać jakość na wysokim poziomie. Do tego trenowanie modelu i korzystanie z niego jest wydajniejsze.
Gemini 1.5 Pro rozumie gigantyczne porcje danych - jak podaje Google na swoim blogu, Gemini analizuje, klasyfikuje i podsumowuje naprawdę duże ilości informacji z promptu. W podanym przykładzie, dotyczącym 402 stron transkrypcji z Misji Apollo 11 (lot na Księżyc w 1969 roku), AI potrafi wyciągnąć i podać wnioski na temat dialogów, zdarzeń, obrazów i dodatkowych szczegółów, które są zawarte w dostarczonym dokumencie.
Na chwilę obecną czatbot Google Gemini sprawdza się bardzo dobrze. W porównaniu z ChatGPT, któremu zadaliśmy identyczne pytanie, odpowiedział o wiele lepiej. Podane informacje były nie tylko ściśle zgodne z prawdą, ale i o wiele obszerniejsze i bardziej wyczerpujące.
Czatbot możesz przetestować tutaj: Gemini Google App