Sztuczna inteligencja usunie błędy z matryc w smartfonach. W końcu ktoś na to wpadł!

Sztuczna inteligencja usunie błędy z matryc w smartfonach. W końcu ktoś na to wpadł!
Źródło zdjęć: © © Miron Nurski
Marcin Watemborski

30.03.2021 10:05, aktual.: 30.03.2021 12:05

Zalogowani mogą więcej

Możesz zapisać ten artykuł na później. Znajdziesz go potem na swoim koncie użytkownika

Kto nigdy nie widział martwych pikseli na zdjęciach ze swojego aparatu, niech pierwszy rzuci kamieniem. To normalne zjawisko, które z czasem zaczyna występować w sensorach. Tak samo jak gorące piksele. O ile w aparatach ten problem rozwiązano już dawno, to w smartfonach nie. Samsung pokazał swoją propozycję.

Zacznijmy od definicji kilku słów. Martwe piksele to pojedyncze piksele lub ich zlepki, które nie mają sygnału – innymi słowy nie wyświetlają obrazu. Na końcowym zdjęciu będą one po prostu czarne. Odwrotnością są gorące piksele. Te wyświetlają się w różnych kolorach i są na nich zablokowane – przykładowo na zdjęciu będziecie mieli świecący na zielono punkcik. Może też być on biały, niebieski, różowy, czerwony lub inny w zależności, co się zepsuło.

Powyższe problemy zostały rozwiązane przez twórców konwencjonalnych aparatów cyfrowych przez mapowanie matryc. Oznacza to, że za pośrednictwem specjalnego oprogramowania, wykrywane są problemy i cyfrowo naprawiane. Działa to tak, że algorytm nakazuje na końcowym zdjęciu zastąpić wadliwy piksel wartością z sąsiadującego i dobrze działającego piksela.

Po lewej stronie widać obraz testowy. Po prawej ten sam lecz z symulacją błędnych pikseli na matrycy w układzie Bayera przed mozaikowaniem.
Po lewej stronie widać obraz testowy. Po prawej ten sam lecz z symulacją błędnych pikseli na matrycy w układzie Bayera przed mozaikowaniem.

W przypadku zdjęć realizowanych z bardzo długimi czasami otwarcia migawki, występują artefakty w postaci różnych gorących punktów. Najprościej mówiąc – zdjęcie będzie zaszumione kolorowymi pikselami ze względu na nagrzewanie się matrycy. Jest to oczywiście najbardziej widoczne w ciemnych partiach obrazu. W konwencjonalnych aparatach usuwa się je w postprodukcji, nakładając na końcowe zdjęcie, fotografię wykonaną z takimi samymi parametrami i zakrytym obiektywem, by wyodrębnić artefakty.

Czas przejść do rozwiązań fotografii mobilnej, a właściwie obliczeniowej. Samsung postanowił wziąć się za problemy związane z niedoskonałością sensorów i błędami pikseli. Bez względu na to, czy mówimy o martwych czy gorących pikselach, sztuczna inteligencja Samsunga oparta na sieci neuronowej będzie usuwała wspomniane artefakty.

(a) - na czerwono zaznaczono brakujące piksele. (b) - mapa przedstawia potencjalnie uszkodzone piksele. (c) - wybrane piksele do korekcji na bazie algorytmu
(a) - na czerwono zaznaczono brakujące piksele. (b) - mapa przedstawia potencjalnie uszkodzone piksele. (c) - wybrane piksele do korekcji na bazie algorytmu

Według technicznego opisu producenta smartfonów, ich rozwiązanie nie będzie rozmazywało zdjęć, tylko wykrywało, w którym miejscu zdjęcia wystąpił błąd i później maskowało go. Przypomina to zautomatyzowane usuwanie zbliżone do tego, które znamy z "pędzla korygującego" w Adobe Photoshop.

Źródło artykułu:WP Fotoblogia
Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Komentarze (0)
Zobacz także