Ile megapikseli ma ludzkie oko?

Ile megapikseli ma ludzkie oko?

Ile megapikseli ma ludzkie oko?
Źródło zdjęć: © Źródło: youtube.com
Marcin Watemborski
10.07.2017 07:05, aktualizacja: 26.07.2022 18:26

Jako fotografowie na pewno zastanawialiście się kiedyś nad parametrami optycznymi ludzkiego oka. O ile znana jest mniej więcej ogniskowa, która wynosi ok. 43 mm (dla małego obrazka), to rozdzielczość jest bardziej skomplikowanym zagadnieniem. Wyjaśniamy wam zatem – jak to działa.

Na kanale YouTube Vsauce został zamieszczony film, który opowiada o rozdzielczości obrazu widzianego przez ludzkie oko.

Zmierzenie rozdzielczości aparatów jest w miarę proste, ale niedokładne. Po prostu zliczamy ilość pikseli na matrycy i już. Jest to potraktowane po macoszemu, bo rozdzielczość powinniśmy rozumieć troszkę inaczej. Jeśli próbowalibyśmy odnieść ilość pikseli do sposobu widzenia ludzkiego oka – byłoby to dość trudne, ponieważ nasze postrzeganie rzeczywistości znacznie różni się od tego rejestrowanego przez aparat. Jakkolwiek – można to zrobić przy zmianie kilku założeń.

Obraz
© © Vsauce / [YouTube](https://www.youtube.com/watch?v=4I5Q3UXkGd0)

Podanie parametrów w pikselach jak szerokość i wysokość obrazu pozwala nam obliczyć, ile tych malutkich punkcików zawiera końcowe zdjęcie. Dla prostego rachunku weźmy na warsztat format Full HD, czyli 1920 x 1080 pikseli. Wynikiem jest 2073600 pikseli, czyli trochę ponad 2 Mpix. Ale powróćmy do tematu – nie jest to rozdzielczość. Jest to tylko wielkość obrazu.

Obraz
© © Vsauce / [YouTube](https://www.youtube.com/watch?v=4I5Q3UXkGd0)

Rozdzielczość powinniśmy rozumieć jako zdolność do odwzorowania szczegółów w obrazie, tak jak mierzy się to w przypadku obiektywów. Ale i tutaj musimy wziąć pod uwagę dodatkowe czynniki, jak ilość światła, wielkość sensora oraz odległość obiektu od materiału światłoczułego. Matryce rejestrują 3 kanały barwne – czerwony, zielony i niebieski. Zastanówcie się, jak daleko od monitora musielibyście stanąć, by obraz wypełnił wasze całe pole widzenia, bez zauważalnej "pikselozy"? Załóżmy, że jest to jakiś punk wyjścia.

Jednak nie do końca. Aparat, przy rejestrowaniu obrazu, zapisuje całą klatkę jednocześnie – to, co widzicie na ekranie/ w wizjerze, będziecie mieli na końcowym zdjęciu. Oczy natomiast poruszają się lewo-prawo, góra-dół, więc nasze pole widzenia jest zmienne, to tak jakbyśmy widzieli kilka obrazów jednocześnie. To właśnie nazywamy wzrokiem. Wspaniałe, prawda?

Obraz
© © Vsauce / [YouTube](https://www.youtube.com/watch?v=4I5Q3UXkGd0)

Teraz ciekawa rzecz – nasz mózg selekcjonuje informacje w widzianym przez nas kadrze – czyli koncentrujemy wzrok na czymś. Przecież cały czas widzimy fragment naszego nosa, albo ramkę okularów, na które nie zwracamy w ogóle uwagi, ponieważ nie mają żadnego znaczenia. Odpowiada za to małe zapadnięcie na tyle oka – plamka żółta, która zajmuje 2 stopnie pola widzenia, czyli tyle, ile dwa złączone kciuki na wyciągniętych przed siebie ramionach.

Oprócz tego w naszym wzroku występują takie rzeczy jak martwy punkt, czyli miejsce, które jest poza zasięgiem naszego wzroku – spróbujcie zamknąć prawe oko i lewy kciuk na wyprostowanym ramieniu przesuwać tak daleko, aż zniknie – nie podążajcie przy tym za nim wzrokiem!

Obraz
© © Vsauce / [YouTube](https://www.youtube.com/watch?v=4I5Q3UXkGd0)

Ludzki mózg to skomplikowany procesor, który przetwarza obraz z obu oczu na bieżąco, więc to, co widzimy, jest końcowym, przemielonym obrazkiem, który jest wolny od wad, jak martwe punkty, nieostrości czy zbędne informacje. Tak więc wniosek jest jeden – nasze spojrzenie nie jest takie samo jak spojrzenie aparatu i nie powinniśmy ich porównywać.

Jednym z eksperymentów przeprowadzonym przez Clark Vision było zmierzenie rozdzielczości ludzkiego oka. Ich wynikiem było 576 Mpix. Oznacza to, że jeśli stanęlibyście przed ekranem tak wielkim, że wypełniłby całe wasze pole widzenia, musiałby on mieć co najmniej 576 Mpix rozdzielczości, żebyście nie zauważyli pojedynczych pikseli.

Obraz
© © Vsauce / [YouTube](https://www.youtube.com/watch?v=4I5Q3UXkGd0)

Błąd polega na tym, że jest to wynik dotyczący pola widzenia, które uwzględnia ruch gałek ocznych. Powinniśmy natomiast wziąć pod uwagę rozdzielczość pola, które pokrywa plamka żółta, ponieważ to ona odpowiada za widzenie koncentryczne, największą ostrość oraz najlepsze odwzorowanie kolorów. Pole widziane przez plamkę żółtą ma około 7 Mpix rozdzielczości, a wszystko, co ją otacza, ma około 1 Mpix. Zwróćcie uwagę na to, że kiedy coś czytamy czy patrzymy na poruszający się obiekt – ruszamy oczami, śledzimy go. To właśnie przez to, że nie jesteśmy w stanie widzieć w dobrej rozdzielczości wszystkiego, co nas otacza. Mózg nie jest aż tak fajny.

Obraz
© © Vsauce / [YouTube](https://www.youtube.com/watch?v=4I5Q3UXkGd0)

I teraz przełomowa chwila – b]Steve Jobs miał rację, ale oczywiście nie we wszystkim. Matryce Retina stosowane w MacBookach mają odpowiednią rozdzielczość ekranu dla ludzkiego oka, biorąc pod uwagę średnią odległość, w jakiej siedzimy od monitora. Projektanci Apple pamiętali, że rozdzielczość obrazu to nie megapiksele, tylko stosunek odległości do wielkości widzianego punktu.

Kolejna ciekawostka – wiedzieliście, że u ludzi nie udowodniono czegoś takiego jak "pamięć fotograficzna”? Nie ma ani jednego naukowego dowodu na to, że mózg zapamiętuje realnie widziane obrazy – inaczej każde nasze mrugnięcie zapisywałoby obraz, przydałby się nam wtedy potężny biologiczny dysk twardy.

Podsumowując cały temat – ludzie nie widzą w rozdzielczości rozumianej jak ta, znana nam z aparatów i kamer, czyli rozdzielczości cyfrowej, ani też narracyjnej. Życie to nasz film - jesteśmy głównymi bohaterami naszej własnej opowieści i na niej powinniśmy się koncentrować.

Źródło artykułu:WP Fotoblogia
Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Wybrane dla Ciebie
Komentarze (0)