Jeśli myślisz, że Gemini to po prostu kolejna wersja ChatGPT od Google, to… masz rację tylko połowicznie. Połowicznie, bo to już nie tylko chatbot, ale rozbudowana platforma, która przenika Androida, przeglądarki, a nawet okulary. Google I/O 2025 pokazało, że firma nie rzuca słów na wiatr — Gemini ma ambicje być wszędzie i robić wszystko.
Gemini 1.5 Pro i Flash — co nowego pod maską?
Zacznijmy od konkretów: Google oficjalnie wdrożyło modele Gemini 1.5 Pro i Gemini 1.5 Flash. Ten pierwszy to prawdziwy tytan – radzi sobie świetnie z kodem, tworzeniem treści, analizą danych i ogólnie wszystkim, czego może oczekiwać bardziej wymagający użytkownik. Flash z kolei to jego młodszy, ale za to szybszy brat – zoptymalizowany pod kątem responsywności, zużycia zasobów i wydajności w prostszych zadaniach.
Ciekawostka? Oba modele korzystają z tzw. Mixture of Experts, czyli techniki, która wybiera najlepsze „eksperckie” podmodeli w zależności od kontekstu. Dzięki temu nawet lżejszy Flash potrafi pokazać pazur.
400 milionów użytkowników miesięcznie – czy Gemini wyprzedzi ChatGPT?
Nie ma co ukrywać – Gemini nadrabia dystans do OpenAI w ekspresowym tempie. Z danych udostępnionych przez Google wynika, że aplikacja Gemini ma już ponad 400 milionów aktywnych użytkowników miesięcznie. To ogromna liczba, biorąc pod uwagę, że jeszcze rok temu mało kto korzystał z Barda – poprzednika obecnego systemu.
Klucz do sukcesu? Integracja. Gemini działa jako domyślny asystent w Androidzie (w tym na Pixelach), integruje się z wyszukiwarką, Workspace’em i Google Maps. Tam, gdzie wcześniej mieliśmy klasyczne „OK Google”, dziś mamy system uczący się naszych preferencji i oferujący coraz bardziej spersonalizowane wsparcie.
Agent Mode – AI, która robi rzeczy za Ciebie
Oto nowa era: AI, która nie tylko odpowiada, ale działa. Google zapowiedziało eksperymentalny tryb Agent Mode, w którym Gemini ma nie tylko interpretować Twoje potrzeby, ale wręcz realizować zadania za Ciebie – jak osobisty wirtualny asystent z przyszłości.
Przykład? Chcesz znaleźć mieszkanie do wynajęcia. Zamiast samodzielnie filtrować ogłoszenia, AI przeszukuje portale, porównuje lokalizacje, ceny, zdjęcia, nawet kontaktuje się z właścicielami i przedstawia Ci najlepsze opcje. Na razie funkcja testowana będzie w Stanach i tylko w wersji Pro (czyli płatnej), ale to ewidentny kierunek rozwoju całej platformy.
Gemini Live i Project Astra – AI na żywo
Gemini coraz śmielej wchodzi w tryb interakcji multimodalnej. Dzięki Gemini Live, użytkownik może komunikować się z AI w czasie rzeczywistym, wykorzystując nie tylko tekst, ale też głos, obraz z kamery i dane z otoczenia.
Projekt Astra, zapowiedziany jako „przyszłość asystentów AI”, umożliwia AI analizowanie otoczenia za pomocą kamery smartfona i odpowiadanie w czasie rzeczywistym – np. co to za roślina, czy ten przedmiot jest zepsuty albo gdzie jesteś. To narzędzie, które może zmienić edukację, diagnostykę techniczną, a nawet pomoc w podróży.
Android XR – okulary z AI, które tłumaczą świat
Kolejny przełom? Okulary XR z Gemini na pokładzie. To nie jest jeszcze finalna wersja Google Glass 2.0, ale wygląda na to, że firma szykuje wielki powrót do konceptu „ubieralnej AI”.
Zastosowania? Tłumaczenie na żywo (np. menu w Japonii), identyfikowanie miejsc i obiektów (np. gdzie zaparkowałeś samochód) czy sterowanie innymi urządzeniami głosowo – ale nie przez telefon, tylko przez to, co masz na nosie. To jak mieć Google’a w oczach.
AI Overviews – czyli jak Google zmienia wyszukiwarkę
Zmieni się też to, co dla wielu jest synonimem internetu – Wyszukiwarka Google. Dzięki AI Overviews nie dostajemy już listy linków, tylko gotową, wygenerowaną odpowiedź. Google staje się nie tylko drogą do informacji, ale samą odpowiedzią.
Z jednej strony to ogromna oszczędność czasu – nie musimy klikać w 10 linków, żeby znaleźć przepis na chleb bananowy. Z drugiej – to także potężne wyzwanie dla wydawców, SEO-wców i twórców treści. Bo jeśli odpowiedź generuje AI, to… po co klikać?
Cena przyszłości: Gemini Pro i Ultra
Wersja podstawowa Gemini jest dostępna za darmo, ale Google mocno rozwija ofertę premium. Plan Gemini Advanced (Ultra) kosztuje już ponad 1200 zł miesięcznie (na rynku amerykańskim 39,99 USD). Oferuje m.in. dostęp do najnowszego modelu, więcej zasobów obliczeniowych, integracje z Workspace, większe limity tokenów oraz priorytetowe przetwarzanie zadań.
Czy warto? Dla dużych firm, twórców oprogramowania i startupów – pewnie tak. Dla przeciętnego użytkownika – darmowa wersja Flash i tak już robi niemałe wrażenie.
Twórcy też mają swoje narzędzia: Veo, Imagen i MusicFX
Google nie zapomniało o twórcach treści. Zaprezentowano nowe wersje narzędzi do generowania multimediów: Veo (generowanie wideo z tekstu), Imagen 3 i 4 (grafika AI) oraz MusicFX (komponowanie muzyki). Wszystko to ma być dostępne przez nowe API oraz bezpośrednio z poziomu ekosystemu Google Workspace.
Dzięki temu każdy — od grafika po youtubera — może mieć w kieszeni własnego montażystę, kompozytora i reżysera.
Podsumowanie: Gemini idzie po wszystko
Google nie buduje jednego bota. Google buduje cały ekosystem, w którym AI ma być tak wszechobecna i użyteczna, że nawet nie zauważysz, kiedy stanie się Twoim codziennym towarzyszem.
Od mobilnego asystenta, przez okulary z AI, po systemy generujące obrazy i muzykę – Gemini to więcej niż model językowy. To platforma, która ma być przyszłością „cyfrowego towarzyszenia” użytkownikowi – osobistym technologicznym aniołem stróżem. Tylko że z logo Google.




Dodaj komentarz