Sztuczna inteligencja Google’a rozumie obrazy. Interpretuje je i o nich opowiada

Najnowsze aktualizacje narzędzi Google skupiają się na ułatwieniach dostępu dla osób z problemami wzrokowymi.
Najnowsze aktualizacje narzędzi Google skupiają się na ułatwieniach dostępu dla osób z problemami wzrokowymi.
Źródło zdjęć: © Licencjodawca
Marcin Watemborski

19.05.2023 13:18

Zalogowani mogą więcej

Możesz zapisać ten artykuł na później. Znajdziesz go potem na swoim koncie użytkownika

Zastanawialiście się kiedyś, jakby to było, gdyby ze sztuczną inteligencją można było porozmawiać o fotografii? Otóż dzięki nowemu algorytmowi sztucznej inteligencji Google’a będzie to możliwe. Program "rozumie" to, co widzi i potrafi o tym opowiadać. Co więcej, odpowie również na wasze pytania.

Najnowsze aktualizacje i rozszerzenia pakietów Google’a bazują na sztucznej inteligencji. Przyjrzyjmy się szczególnie jednemu z programów, a mianowicie Google Lookout. "Obserwator" ma za zadanie analizować obrazy i o nich opowiadać. Jest to genialne ułatwienie dostępu w korzystaniu z urządzeń mobilnych dla osób niewidomych i niedowidzących z myślą, o których powstało.

Google Lookout opisuje obrazy. Można również zadać programowi pytanie głosowe, a aplikacja na nie odpowie. Na przykładzie widać pytanie o radosnego psa, co potwierdził Lookout.
Google Lookout opisuje obrazy. Można również zadać programowi pytanie głosowe, a aplikacja na nie odpowie. Na przykładzie widać pytanie o radosnego psa, co potwierdził Lookout.© Licencjodawca

Pierwsza wersja Lookouta pojawiła się w 2019 roku i już wtedy wykorzystywało algorytmy SI do tłumaczenia obrazów słowami. Zadaniem aplikacji było pomaganie osobom z zaburzeniami widzenia w codziennych czynnościach, lecz z czasem program znacznie się rozwinął. Najnowsza funkcja polega na odpowiadaniu na pytania odnośnie tego, co widzi apka.

Dalsza część artykułu pod materiałem wideo

Po zadaniu pytania dotyczącego obrazu Lookout udzieli konkretnej odpowiedzi. Mimo tego, że po wgraniu zdjęcia lub grafiki program opowie, co na nim jest, to taka informacja może być niewystarczająca. Użytkownik może zadać dodatkowe pytania, które wymagają od Lookoutu dodatkowej analizy obrazu.

To niezwykle ważne, gdy obrazy nie mają podanego tekstu alternatywnego. W 2019 r., gdy powstała pierwsza wersja Lookoutu, zaledwie 0,01% przeanalizowanych przez Google postów na Twitterze takowy tekst miało. Dzisiaj takie opisy są generowane automatycznie, lecz nie zawsze są trafne i nie są dostępne wszędzie. Sztuczna inteligencja ma rozwiązać ten problem na dobre.

Marcin Watemborski, redaktor prowadzący Fotoblogii

Komentarze (0)