Zakończyła się coroczna konferencja Google I/O i jedno jest pewne: jesteśmy w erze Gemini! Google pokazał mnóstwo innowacji AI, które mają sprawić, że sztuczna inteligencja będzie niesamowicie pomocna i dla każdego.

Świat wdraża AI
Bardziej rozwinięta inteligencja jest dostępna dla każdego, wszędzie. Świat wdraża AI szybciej niż kiedykolwiek wcześniej. Oto kilka ważnych wskaźników:
- w tym samym okresie zeszłego roku w usługach i interfejsach API, Google przetworzył 9,7 biliona tokenów miesięcznie. Teraz przetwarza ich ponad 480 bilionów – to 50-krotnie więcej;
- z Gemini korzysta ponad 7 milionów programistów, czyli 5 razy więcej niż w tym samym okresie w zeszłym roku, a wykorzystanie Gemini w Vertex AI wzrosło 40-krotnie;
- aplikacja Gemini ma teraz ponad 400 milionów aktywnych użytkowników miesięcznie. Google obserwuje duży wzrost i zaangażowanie, zwłaszcza w przypadku modeli z serii 2.5. Jeśli chodzi o osoby korzystające z modelu 2.5 Pro w aplikacji Gemini, liczba użytkowników wzrosła o 45%.
Od badań do rzeczywistości
Google przenosi najbardziej zaawansowane odkrycia badawcze, aby stworzyć najbardziej pomocną sztuczną inteligencję, która będzie:
- inteligentna: mądrzejsza, szybsza i bardziej wszechstronna;
- agentowa: gotowa podjąć działania w imieniu użytkownika;
- spersonalizowana: przydatna w rzeczywistości, która nas otacza.
Każdy z 15 produktów i usług Google, z których korzysta ponad pół miliarda użytkowników, używa teraz Gemini, natywnie multimodalnej rodziny modeli AI.
Inteligencja na wyższym poziomie
Google przesuwa granice możliwości AI:
- Gemini 2.5 Flash: 2.5 Flash to zaawansowany i najwydajniejszy model zaprojektowany z myślą o szybkości i niskich kosztach – i jest on teraz lepszy w niemal każdym wymiarze. Został udoskonalony w kluczowych wskaźnikach porównawczych dotyczących rozumowania, multimodalności, kodu i długiego kontekstu, dzięki czemu stał się jeszcze bardziej wydajny. Jest teraz domyślnym modelem.
- Deep Think (in Gemini 2.5): wersja 2.5 Pro stanie się jeszcze lepsza dzięki Deep Think – eksperymentalnemu, ulepszonemu trybowi rozumowania przeznaczonemu do wysoce złożonych obliczeń matematycznych i kodowania.
Przełomy w kreatywności:
- Veo 3 i Imagen 4: Google przedstawił najnowsze modele generatywnej AI, które stanowią znaczący przełom w tworzeniu multimediów. Veo 3, najnowocześniejszy model generowania wideo, nie tylko rozwija możliwości Veo 2, ale po raz pierwszy może również tworzyć filmy z dźwiękiem.
- Flow: stworzone przez twórców i dla twórców Flow to narzędzie AI do tworzenia filmów, które pozwala płynnie kreować klipy filmowe, sceny i historie, łącząc najbardziej zaawansowane modele Google DeepMind: Veo, Imagen i Gemini.
Przyszłość należy do agentów AI
Wyobraźmy sobie AI, która nie tylko odpowiada, ale też działa (oczywiście za zgodą użytkownika!). Agenty to systemy, które łączą inteligencję zaawansowanych modeli AI z dostępem do narzędzi, dzięki czemu mogą podejmować działania w imieniu i pod kontrolą użytkowników:
- udoskonalone zadania dzięki Project Mariner: ten system agentów może teraz wykonywać do 10 zadań jednocześnie – badania, rezerwacje, zakupy i wiele więcej (początkowo w USA);
- wyszukiwarka, która załatwia sprawy: dzięki Project Mariner można będzie kupować bilety lub wykonywać inne zadania bezpośrednio w Trybie AI (AI Mode) w wyszukiwarce (USA);
- Project Astra w wyszukiwarce: wystarczy skierować kamerę, zadać wyszukiwarce pytanie o to, co widzimy, i uzyskać interaktywne odpowiedzi na żywo (dostępne w Trybie AI w USA);
- zakupy w nowej formie: można znaleźć inspirację, wirtualnie przymierzyć stroje i pozwolić agentowi zająć się zakupami, gdy cena będzie odpowiednia – wszystko w Trybie AI.
Spersonalizowana pomoc
Aby przełożyć badania na rzeczywistość, najlepiej jest sprawić, aby były naprawdę przydatne – w rzeczywistości, która nas otacza. Pod tym względem personalizacja będzie niezwykle skuteczna. Google pracuje nad tym, aby wprowadzić te rozwiązania w życie dzięki temu, co nazywa spersonalizowanym kontekstem. Jeśli użytkownik wyrazi na to zgodę, modele Gemini mogą korzystać z odpowiednich informacji o osobistych preferencjach w aplikacjach Google w sposób prywatny, przejrzysty i w pełni pod kontrolą:
- Gemini jako uniwersalny asystent AI: Gemini Live wkrótce połączy się z Mapami, Kalendarzem, Zadaniami i Notatkami (Keep), a także zyska funkcje na żywo z Project Astra, aby zapewnić jeszcze bardziej spersonalizowaną pomoc;
- mądrzejsza wyszukiwarka z Trybem AI: użytkownik może otrzymywać sugestie dopasowane do niego;
- Deep Research & Canvas: możliwość połączenia swoich prywatnych plików z danymi publicznymi, aby uzyskać unikalne insighty i obserwowania, jak Gemini 2.5 Pro w Canvas zamienia dane pomysły w kod, aplikacje lub kreatywne treści;
- Przeglądy od AI (AI Overviews): Google wprowadza pomocne, syntetyczne odpowiedzi z Przeglądu od AI już do ponad 200 krajów i ponad 40 nowych języków!
Zachęcamy do odwiedzenia bloga globalnego, gdzie zebrane są wszystkie zaprezentowane nowości.
Obserwuj nas na Google News
Zobacz również:
- 🎥 Czy tani projektor za 1300 zł może zaskoczyć? – Test ViewSonic LX60HD z Google TV
- HONOR i Google Cloud: innowacje dzięki funkcjom AI
- Google Cloud Next ‘25: kluczowe rozwiązania w dziedzinie sztucznej inteligencji
- 🔌 Czy warto dopłacić do stacji czyszczącej? – Test pionowego odkurzacza Jigoo V700 z automatycznym opróżnianiem kurzu
- 🧭Nigdy więcej rozładowanego telefonu w podróży – test powerbanku Baseus Airpow 30000 mAh
- 🤖Zrewolucjonizuj swój trawnik! Test robota koszącego MOVA 600 – czy warto go kupić?
Źródło: Informacja prasowa: Google
Źródło zdjęć: Google


