Rok temu w trakcie Meta Connect przedstawiono trzecią generację gogli Quest 3. Było to pierwsze podejście marki do technologii mixed reality, a więc próby połączenia wirtualnej i rozszerzonej rzeczywistości. Sprzęt uważam za bardzo udany, głównie z uwagi na optymalne specyfikacje, niezależny format oraz niezłą cenę. Headset jest też całkiem wygodny w użytkowaniu i generalnie atrakcyjny na tle wciąż niezbyt szerokiej (i przeważnie drogawej) konkurencji. W trakcie Meta Connect 2024 firma Marka Zuckerberga prezentuje jeszcze przystępniejszą cenowo odmianę sprzętu XR – model Quest 3S. Jednostka ta zastąpi Questy 2, które producent planuje wycofać ze sprzedaży do końca tego roku (wariant Pro zresztą też).
Co jeszcze zapowiedziano w trakcie dwudniowego eventu Meta? W tym artykule zbieram do kupy wszystkie najważniejsze informacje. Amerykański gigant opowiedział o nowych okularach Orion AR, Meta AI oraz nowych funkcjach Sztucznej Inteligencji dla okularów Ray-Ban.
Gogle Meta Quest 3S za 300$/330€
Jak sama nazwa wskazuje, najnowsza odmiana Questów celuje w bardziej budżetowy segment gogli VR. Sprzęt będzie tańszy, ale też nieco słabszy. Na szczęście w zakresie, który jest na rynku urządzeń typowo konsumenckich do zaakceptowania. Co zatem poświęcono? Jak urządzenia prezentuje się na tle drugiej i trzeciej generacji? Poniżej krótkie porównanie i najważniejsze rozwiązania dostarczone w odmianie Meta Quest 3S.
Zacznijmy od ceny. Quest 3 startują od 300$ (128 GB), ale są też dostępne w droższej wersji za 400$ (256 GB). Dla porównania, Quest 3 kosztują 500$ i posiadają 512 GB na gry i aplikacje. Będą zatem dysponować znacznie większą pamięcią. Nisza cena z pewnością pomoże Meta dotrzeć do jeszcze szerszego grona odbiorców. EDIT: podam jeszcze ceny dla Europy: Quest 3S – 330€, Quest 3 – 550€.
Cieszy obecność wielu pozostałych podzespołów na niezmienionym poziomie. Jest ten sam układ Qualcomm Snapdragon XR2 Gen2 oraz 8 GB RAM. Oznacza to, że sprzęt poradzi sobie z praktycznie wszystkimi tytułami dostępnymi na Quest 3. Nie zabraknie też kolorowego trybu pass-through – zarówno do ogólnego podglądu otoczenia, jak i aplikacji oferowanych w Rzeczywistości Rozszerzonej. Na froncie dostępne są te same dwie kamerki RGB.
W zestawie nadal będą te same kontrolery ruchu do rąk (Meta Quest Touch Plus). Będą jednak śledzone przez cztery kamerki VGA, a nie cztery czujniki IR (chyba, że coś źle zestawiam). Widzę też te same dwie diody LED do doświetlenia „kadru”. Generalnie system śledzenia ruchów rąk też jest, więc jest komplet tych samych sposobów interakcji z contentem.
Gdzie oprócz mniejszej przestrzeni na pliki doszło do kompromisów? Gogle Quest 3S nie mają tej samej optyki oraz słabszą rozdzielczość wyświetlaczy. Zamiast po 2K na oko będzie 1832 x 1920, a więc dokładnie te same właściwości co w Meta Quest 2. Również pole widzenia przypomina drugą generację urządzenia – 96 stopni horyzontalnie i 90 stopni wertykalnie (kontra 110/96 w Quest 3). Zakładam, że i odświeżanie będzie 90Hz (w mocniejszych modelach sprzed roku jest 120Hz). Optymalizacja podzespołów pozwoliła wydłużyć czas pracy do 2.5 godziny (względem 2.2h w „trójkach”).
Okulary Meta Orion AR z rozwiązaniami AI
Przewidywano, że w trakcie Meta Connect dowiemy się konkretów odnośnie okularów przeznaczony głównie do Rzeczywistości Rozszerzonej. Amerykańska marka odsłoniła projekt Orion AR, który mocno różni się od gogli Quest, czy headsetów Vision Pro od Apple. Zamiast miksować możliwości w postaci hybrydowego podejścia, Orion celuje w Augmented Reality w najczystszej postaci. Bez żadnego pass-through. Z obrazem bezpośrednio na szkle. Gadżet ten w porównaniu do zwykłych okularów wciąż wydaje się przerośnięty, ale już w zakresie, który można zaakceptować.
Meta nadal omawia bardziej prototyp niż model konsumencki, ale przekonuje, że jest on bliski ofercie masowej (w każdym razie, nie jest tylko wizją przyszłości). Orion AR to przede wszystkim pokaz możliwości R&D, a także gotowości na nową erę. Piszę o niej na blogu już od wielu lat, ostatnie przykłady zdają się przybliżać nas do jej faktycznego, bardziej mainstreamowego startu.
Orion AR proponują małe projektorki do holograficznego obrazowania. Nie sprecyzowano wszystkich specyfikacji, a przy większości bazowano na ogólnikach, więc musimy opierać się na demonstracji z Connect 2024. W jej trakcie przekazano informacje o sporych kątach pola widzenia, imersyjnych właściwościach, czy czujnikach śledzących głos, oczy, czy ręce. Tymi drogami będziemy sterować i nawigować treściami łączącymi rzeczywistość z cyfrowymi warstwami. W zestawie uwzględniono też naręczną opaskę z EMG (elektromiografia) usprawniającą kontrolę systemu. Podobne rozwiązania kojarzę z Myo Armband sprzed wielu lat.
Oczywiście wraz z pokazem hardware’u zapowiedziano też trochę opcji Meta AI dla gadżetu. Algorytmy Sztucznej Inteligencji na bazie obrazu analizowały widok i wspomagały informacjami. Od listy zakupów na bazie widzianego wnętrza lodówki, aż po przepisy dań, które można zaproponować w ramach tego co już w niej jest. Nie zabraknie obsługi połączeń telefonicznych (i video), komunikowania się przez różne serwisy, czy bardziej przestrzennych aplikacji popularnych platform. Orion AR to taki proof-of-concept. Warto na koniec dopisać, że Meta zapowiadała prace nad jednostką już w 2019 roku, a to pokazuje, jak trudnym zadaniem jest jeszcze realizacja projektu AR nawet przez giganta świata technologii.
Z tego co zauważyłem, w komplecie z okularami jest jakaś zewnętrzna jednostka obliczeniowa, która pomaga w przetwarzaniu informacji, no i odchudza samą konstrukcję Oriona. W zeszłym roku do sieci wyciekły plany realizacji okularów AR, które sugerowały 2027 rok. Meta informuje o wydaniu gadżetu „w najbliższej przyszłości”, więc nie da się przewidzieć faktycznego debiutu takiej elektroniki. Konkurencja rośnie, miniaturyzacja przyspiesza, AI wszystko dodatkowo nakręca, więc… Być może jesteśmy bliżej niż dalej.
Okulary Ray-Ban Meta z nowościami AI
Od kilku lat Meta współpracuje z marką Ray-Ban nad okularami, które oferują smart funkcje w możliwym do osiągnięcia zakresie na dany moment. Aktualnie wearable w przyjaznym dla użytkownika formacie może mniej więcej tyle, ile właśnie widzimy. Gadżet ten już od kilku generacji koncentruje się na nagrywaniu, postowaniu i prostej interakcji z treściami na portale społecznościowe. Wszystko z perspektywy użytkownika. Ray-Ban to głównie okulary przeciwsłoneczne, a więc rozwiązanie do wykorzystania w trasie. Widzę relację znajomego, które tę „zabawkę” testuje i mniej więcej porusza się właśnie w proponowanym przez Meta zakresie.
W trakcie Meta Connect 2024 nie zobaczyliśmy nowego hardware’u. Producent skupił się na rozwinięciu funkcji przez asystę modnej ostatnio AI. Aktualizacja ma po prostu podnieść użyteczność gadżetu. Komendy „Hej Meta” obejmują teraz więcej akcji. Głównie na bazie widzianego obrazu. Możemy m.in. poprosić o zapamiętanie realizacji zakupu produktu widzianego w kadrze. Kamerki ułatwią też wykonywanie połączeń na numery przez nas widziane. To proste ulepszenia, ale demonstrujące komfort wykorzystania kamerek. Wciąż tematem przewodnim tego typu rozwiązań jest kwestia bezpieczeństwa i ewentualnych, wszędobylskich sensorów skierowanych w stronę postronnych osób, ale to już kwestia do dyskusji na inny termin.
Ray-Ban Meta zyska na lepszej orientacji AI co do widzianego otoczenia. Asystent ma potrafić reagować na widziane przez kamerkę środowisko i sugerować odpowiedzi na podstawie obrazu. To idealne rozwiązanie dla osób niewidomych!
Asystent Meta w Ray-Banach ma też reagować na bardziej naturalne komendy, a więc uwolni nieco od zapamiętywania konstrukcji promptów. AI ma też radzić sobie skuteczniej z bardziej złożonymi zapytaniami, co potwierdza wdrażanie ostatnich zmian jakie docierają do modeli GPT. Udoskonaleniom poddano też tłumaczenia na żywo. Do końca roku mają działać w głównych językach: angielskim, francuskim, włoskim i hiszpańskim. Docelowo smart okulary (czy też po prostu słuchawki) będą pewnie funkcjonować jak asystentka z filmu Her, gdzie rozmowy ze Sztuczną Inteligencją prowadzone były jak ze znajomymi przez telefon.
Meta AI – w jakim kierunku zmierza?
Na koniec króciutko o nowych narzędziach Sztucznej Inteligencji firmy Marka Zuckerberga. Meta AI jest rozwijane już od jakiegoś czasu. Część funkcji była oferowana na wyłączność m.in. w okularach Ray-Ban. Teraz Meta stara się otwierać swoje rozwiązania, bo i rywale docierają z podobnymi funkcjonalnościami w swoich serwisach. Co zatem obiecano w obrębie nowej fazy rozwoju Meta AI?
You can now talk to and share photos with Meta AI, unlocking new ways to communicate with your assistant and get answers faster. Plus we’re expanding our business AIs so that more businesses can better serve their customers.https://t.co/CCMXUbBMcs
— Meta Newsroom (@MetaNewsroom) September 25, 2024
- wsparcie chatowania głosowego z asystentem będzie ogólnodostępne (do tej pory było wyłącznie za pośrednictwem okularów Ray-Ban Meta) – niestety wciąż w wybranych językach
- Meta AI pomoże dzielić się zdjęciami (no i je modyfikować poprzez tekstowe prompty – od usuwania niechcianych elementów, po wymianę tła lub ubrań)
- możliwości edycji obrazu AI dotrą do popularnych aplikacji: Instagrama, Messengera, czy WhatsAppa
- chatbot ma odpowiadać głosem znanym osób: Johna Ceny, Judi Dench, czy Kristen Bell
- twórcy rolek na IG/FB będą mogli niebawem skorzystać z obrazowania ruchu ust przy tłumaczeniach w obrębie różnych języków (pozwoli to dotrzeć do szerszej widowni, która będzie oglądała nagrania twórców internetowych przemawiających w ich natywnym języku)
- model Llama 3.2 zyskał możliwości widzenia (analizowania, opisywania treści) – multimodalność będzie oferowana szerzej, by dało się z niej korzystać komercyjnie lub do różnego rodzaju badań
źródło: Meta