Co jest nie tak na tym zdjęciu? Przyjrzyj się uważnie
Niektóre zdjęcia wychodzą inaczej, niż byśmy chcieli. Przykładem jest ten kadr, na którym jest Prince Amukamara, znany zawodnik ligi NFL. Problem w tym, że go właściwie nie widać. Co poszło nie tak?
18.02.2022 | aktual.: 20.02.2022 17:21
Zdjęcie, które wrzucił na Twittera zawodnik jednej z drużyn footballu amerykańskiego Prince Amukamara, wzbudziło wśród ludzi niemałe kontrowersje. Jest to kadr, gdzie czarnoskóry mężczyzna jest praktycznie niewidoczny – po uważnym przyjrzeniu się widać zaledwie zarys jego postaci, jedną dłoń i zęby. Po jego prawej i lewej stronie są inni sportowcy, który mają jasną cerę.
Problem z ciemnoskórymi osobami na zdjęciach nie jest nowością. Istniał on w czasach popularności filmów światłoczułych, które były korygowane głównie pod kątem osób o jasnej karnacji. Jest również żywy w czasach fotografii cyfrowej, lecz fotografia obliczeniowa z zaimplementowanymi algorytmami sztucznej inteligencji mogłaby rozwiązać problem nierównego naświetlenia poszczególnych osób na zdjęciach.
Właśnie po wspomniane wyżej rozwiązanie sięgnęła firma Google przy premierze smartfona Pixel 6. Została wówczas przedstawiona technologia Google Real Tone, której zadaniem było zapewnienie odpowiedniej widoczności na zdjęciach ludziom o różnych kolorach skóry. Wszystko po to, by w przypadku, gdy w kadrze znajdą się osoby o jasnej i ciemnej karnacji, nie było problemu związanego ze złym oświetleniem postaci.
Problem z różnicą w ekspozycji między osobami jasno- i ciemnoskórymi polega na pomiarze światłomierza w aparacie. Bez względu na to, czy mówimy o filmie światłoczułym, czy matrycach cyfrowych, mają one swoje ograniczenia. W przypadku mierzenia ekspozycji, aparat domyślnie będzie ustawiał jasność na obiektach najjaśniejszych tak, by ich nie prześwietlić.
Building a More Equitable Camera | Google
W specyficznych warunkach, jak fotografowanie nocą z lampą błyskową osób ciemno- i jasnoskórych na jednym zdjęciu, gdzie tło jest zdominowane przez mrok, problemy z wyrównaniem ekspozycji są normalne. Jeśli nie rozwiąże ich algorytm sztucznej inteligencji bazujący na wykrywaniu twarzy i sylwetki, można je zniwelować ręcznie w postprodukcji.
Czy taki artefakt jest rasistowski? Absolutnie nie.