Google Translate uruchamia funkcję tłumaczenia mowy na żywo, która trafia bezpośrednio do słuchawek użytkownika. Bez specjalnego sprzętu, bez drogich gadżetów i bez wpatrywania się w ekran telefonu.
Google od lat rozwija Tłumacza, ale do tej pory była to głównie aplikacja „do sprawdzenia znaczenia”. Dzięki nowym możliwościom sztucznej inteligencji Gemini, Google zaczyna skupiać się nie tylko na samych słowach, ale na znaczeniu całej wypowiedzi, kontekście i emocjach, które za nią stoją.
Nowa funkcja pozwala słuchać tłumaczenia mowy w czasie rzeczywistym prosto w słuchawkach. W praktyce wygląda to tak, że zakładasz słuchawki, uruchamiasz aplikację Google Translate, wybierasz opcję „Live translate” i słyszysz tłumaczenie w swoim języku.
Najważniejsze jest to, że nie potrzebujesz żadnych dedykowanych słuchawek. Google nie zamyka tej funkcji w jednym ekosystemie. Działają zwykłe modele, zarówno przewodowe, jak i bezprzewodowe. To ogromna różnica w porównaniu do wcześniejszych prób wprowadzania „inteligentnych tłumaczy”, które wymagały konkretnych urządzeń.
Kluczową rolę odgrywa tu AI Gemini, które analizuje nie tylko pojedyncze słowa, ale całe zdania. Dzięki temu tłumaczenia są bardziej naturalne, mniej dosłowne i znacznie bliższe temu, co faktycznie chciał powiedzieć rozmówca. Google podkreśla też, że system stara się zachować intonację, tempo i nacisk mówcy, co ułatwia zrozumienie sensu rozmowy. Możliwości najlepiej prezentuje to ten materiał. Oczywiście od dawna jest opcja rozmowy, dla mnie jednak wspomniana funkcja to taka wersja 2.0.
Funkcja idealna w podróży, ale nie tylko
Najbardziej oczywiste zastosowanie to podróże zagraniczne. Rozmowa z lokalnymi mieszkańcami, pytanie o drogę czy zamówienie jedzenia w restauracji przestają być stresujące. Nie trzeba zerkać w ekran, przepisywać zdań ani czytać napisów w biegu. Tłumaczenie trafia prosto do uszu, co diametralnie zmienia komfort korzystania z telefonu za granicą. Ale to rozwiązanie ma znacznie szerszy potencjał. Sprawdzi się także podczas:
- słuchania wykładów, konferencji i prezentacji w obcym języku,
- oglądania filmów i seriali bez polegania wyłącznie na napisach.
Na ten moment Google jasno zaznacza, że nowa funkcja jest w fazie beta. To oznacza, że będzie rozwijana i poprawiana na podstawie opinii użytkowników. Nie jest to jeszcze rozwiązanie dostępne globalnie.
Na start funkcja:
- działa na Androidzie,
- dostępna jest w USA, Meksyku i Indiach,
- obsługuje ponad 70 języków.
Google zapowiada, że wersja na iOS i kolejne kraje pojawią się w 2026 roku, więc będziemy musieli jeszcze poczekać.
Rozmowy w słuchawkach będą jeszcze wygodniejsze! Nadciąga przełom?
Słuchawki przestają być tylko sprzętem do muzyki i podcastów. Stają się interfejsem do komunikacji, narzędziem do pracy i podróży, a w przyszłości być może także podstawowym sposobem interakcji z AI.
Jeśli takie funkcje się upowszechnią, użytkownicy zaczną zwracać jeszcze większą uwagę na jakość mikrofonów, komfort noszenia i stabilność połączenia. Nie dlatego, że Google tego wymaga, ale dlatego, że codzienne korzystanie ze słuchawek zacznie wyglądać zupełnie inaczej.
Równolegle Google wdraża tłumaczenia nowej generacji oparte na Gemini w wyszukiwarce i aplikacji Translate, które lepiej rozumieją kontekst, idiomy i potoczne zwroty, oferując bardziej naturalne i dokładne przekłady tekstu. Rozwinięto też tryb nauki języków, dodając lepszy feedback przy ćwiczeniu mówienia, śledzenie dni nauki oraz nowe scenariusze z życia wzięte.
Na stronie mogą występować linki afiliacyjne lub reklamowe.








Dodaj komentarz