Ego4D – Facebook AI poznaje świat oczami ludzi

Ego4D – Facebook AI poznaje świat oczami ludzi.

Facebook AI ogłosił rozpoczęcie projektu badawczego Ego4D, którego celem jest uczenie sztucznej inteligencji percepcji egocentrycznej, czyli opartej na treściach audiowizualnych nagranych z perspektywy pierwszej osoby.

Ego4D - Facebook AI

Firma przedstawi możliwości komercyjnego wykorzystania tej wiedzy do tworzenia rozwiązań AR/VR i robotyki, a w środowisku akademickim do rozwijania systemów AI, które będą lepiej rozumiały świat z punktu widzenia jednostki.

Większość treści audiowizualnych w Internecie stanowiących materiał szkoleniowy dla systemów wizji komputerowej (CV) przedstawia rzeczywistość z perspektywy trzecioosobowej. Tymczasem SI, która rozumie i wchodzi w interakcje ze światem z perspektywy pierwszej osoby, może zapoczątkować nową erę immersyjnych doświadczeń, w której urządzenia takie jak okulary AR czy zestawy słuchawkowe VR będą równie przydatne w codziennym życiu jak smartfony.

Reklamy

Widząc świat z perspektywy użytkownika, urządzenia będą mogły uczyć gry na bębnach, pomóc w przygotowaniu potrawy według przepisu, odnaleźć zgubione klucze, czy przywołać wspomnienia w postaci hologramów, które ożywają na oczach użytkownika. Systemy sztucznej inteligencji następnej generacji będą musiały uczyć się na podstawie zupełnie innego rodzaju danych – filmów, które pokazują świat z centrum akcji, a nie z boku.

Test Samsung Galaxy Z Fold 3 – doskonały do pracy i rozrywki

W projekcie Ego4D wzięło udział konsorcjum 13 uniwersytetów i laboratoriów z dziewięciu krajów. Dzięki wspólnym wysiłkom udało się zebrać ponad 2200 godzin nagrań z życia codziennego ponad 700 uczestników. To znacznie zwiększa skalę danych egocentrycznych publicznie dostępnych dla społeczności badawczej. Facebook sfinansował projekt poprzez dotacje naukowe dla każdego z uczestniczących uniwersytetów.

Ponadto, we współpracy z konsorcjum i Facebook Reality Labs Research (FRL Research), badacze z Facebook AI opracowali pięć wskaźników referencyjnych skupiających się na doświadczeniach wizualnych pierwszej osoby. Te wskaźniki mogą posłużyć jako podstawa do opracowania inteligentniejszych asystentów sztucznej inteligencji – takich, którzy potrafią zrozumieć i współdziałać nie tylko w świecie rzeczywistym, ale także w metaverse, gdzie rzeczywistość fizyczna, AR i VR łączą się w jednej przestrzeni.

 

Więcej informacji o projekcie Ego4D znajdą Państwo w tym artykule.

 

Dodaj komentarz

%d bloggers like this: