Grupy dyskusyjne »
Takie tam o pikselach
Takie tam o pikselach
1 | Data: Luty 07 2012 15:07:20 |
Temat: Re: Takie tam o pikselach | |
Autor: Mariusz [mr.] |
Ponieważ narzekania na zbyt dużą ilość pikseli w nowych aparatach[...] Mam tylko wrażenie, że do mnie pijesz? ;-) Zacznijmy od końca: lubię podkoloryzowywać ten problem (bo jednak jest to problem) i zachęcam do tego innych (dlatego robisz mi wbrew Janko, nie wiem po co - czy to ta przekorna natura? ;) , by w jakikolwiek sposób dotrzeć z przekazem do szerokiej publiki, że NADMIAR PIKSELI TO ZŁO! Docelowa sytuacja, to taka, by nawet fotograficznej sierotce urabianej przez sprzedawcę: - "FULL HaDe! 24,6 MILIONA PIKSELI!..." zdarzało się bąknąć sceptycznie w sklepie: - "Oj, a czytałem, że im więcej pikseli, tym gorzej? Nie, nie kupię takiego..." :) Niech się ludzie opamiętają przy wydawaniu pieniędzy, to wreszcie dotrze to także do producentów - nie mogą grać przeciw rynkowi. A producenci stworzyli z MPix bożka dla klientów na wzór mocy głośników (kto jeszcze się na to łapie? Mnie się to kojarzy z dziecinnymi licytacjami w samochodzie którego ojca tarcza prędkościomierza kończy się na wyższej prędkości :) i niestety - to przegięcie dotyczy obecnie każdego aparatu z wyjątkiem tych do studia (bo tam problem rozwiązują najlepsze szkła, statyw, nieograniczona ilość światła i możliwość sterowania kontrastem sceny).*** Czy negatywny wpływ MPix naprawdę występuje? TAK! I można to udowodnić aż w trzech liniach dowodowych: 1. Bezduszne pomiary, np. DxO. 2. Organoleptyczna analiza sampli (oraz doświadczenia własne). 3. Eksperymenty myślowe (których trafność potwierdzają wyniki z pkt. 1 i 2). Najpierw jednak uświadommy sobie skalę problemu: ile pikseli - niezależnych fotokomórek, które trzeba obsłużyć elektrycznie producenci mieszczą NA JEDNYM MILIMETRZE KWADRATOWYM MATRYCY? (zachęcam do popatrzenia jak duży jest mm^2): - w najlepszych C i N jednocyfrowych? 14-15 tysięcy na mm^2. - w aparatach systemowych: OD 100 TYSIĘCY! - w kompaktach: OD PÓŁ MILIONA! (a tu niech jeszcze ktoś poda najbardziej wypikselowane komórki i powierzchnię ich matrycy!) A pójdźmy dalej: uświadommy sobie, że mimo tak dużej rozpiętości wszystkie opierają się w gruncie rzeczy o tę samą technologię! Jeśli do czegoś potrzebujemy zastosować mocną linę, to jakie parametry będzie mieć lina w tej samej technologii, lecz 35 razy bardziej wyżyłowana? (np. 35 razy cieńsza?) (w zasadzie powyższy wywód już zapoczątkował dowodzenie w punkcie 3., wbrew porządkowi, ale był mi potrzebny jako wprowadzenie. :)) Ad 1.: Prosta sprawa - negatywny wpływ MPix na wyniki widać nawet intuicyjnie na flashowych wykresach DxO. A jak ktoś mi opłaci dwie-trzy dniówki, to zaraz mogę z ich pomiarów wyprowadzić Solverem dwie idealne funkcje: postępu technologicznego w czasie (bo jest to konieczny materiał wstępny do skorygowania wyników), a następnie degradację jakości w funkcji zagęszczenia megapikseli na matrycy. Prawie 500 uzyskanych wyników z pomierzonych matryc oznacza BARDZO WYSOKI poziom ufności dla otrzymanych rezultatów; a ja z góry stawiam duże pieniądze w zakład, że obliczenia wykażą korelację ujemną, tzn. im więcej pikseli, tym gorsze parametry - i jeśli ktoś się nie zgadza, to zachęcam do podjęcia wyzwania! (lub niech zamilknie na wieki... :))) Nb. Taka krzywa pozwoliłaby przewidzieć spodziewane wyniki DxO dla dowolnej liczby pikseli na matrycy danego rozmiaru (oczywiście w granicach interpolacji modelu), np. ile przy dzisiejszej technologii można oczekiwać z FF i 6 MPix, albo Oly-Pena z największą gęstością kompaktową, czyli jakieś 111 MPix specjalnie dla Janka (bo ja wolę tę pierwszą. :) Wstępny materiał tu (stary link): http://www.flickr.com/photos/plrecfotocyfrowa/5714087010/in/photostream/ Ad. 2.: Analiza rzeczywistych sampli na Hi-ISO potwierdza wyniki pomiarów i eksperymentów myślowych. Dodatkowo każdy może odczuć problemy ze zbyt szybkim przepełnianiem bufora w trakcie serii (w niektórych sytuacjach parametr absolutnie kluczowy!), zbyt długim czasem zapisu na kartę, wydłużeniem czasu obróbki na kompie, dłuższej transmisji sieciowej (ach, ta obróbka w chmurze! ;) (+ koszty dla płacących od transferu) oraz mniejszej liczbie zdjęć mieszczących się na wystandaryzowanych nośnikach (np. DVD). Ad. 3.: Było już wielokrotnie, więc tylko przypomnę z pamięci garść stałych argumentów: - nieuchronna coraz grubsza kwantyzacja sygnału (stąd WIDOCZNA utrata dynamiki i tonalności na wysokich czułościach - trudno uzyskać bogatą gamę walorów mając do dyspozycji kilka bitów sygnału [dyskusja z dawnych lat: ta sama bariera, która obcina możliwości sumowania kolejnych niedoświetleń tej samej sceny]); (i NICZEGO tu nie poprawi redukcja rozdzielczości wynikowej z aparatu, bo raz utraconych danych nie można już odzyskać). - coraz gorszy odstęp sygnału od szumu; - podobny problem: im mniejsze piksele, tym większa przypadkowość ich wyników - brak jednorodności struktury uśrednianej przy dużych pikselach; - coraz większe skomplikowanie układu matrycy = coraz więcej zużywanej energii = coraz więcej ciepła (a słabsze jego odprowadzanie) = coraz więcej szumu; - zwiększona ilość danych = zwiększone zapotrzebowanie na prąd dla układów matrycy, procesora i obsługi karty = wyższa energożerność aparatu; (ostatnie argumenty znacznie przybierający na sile w bezlusterkowcach grzejących matrycę w fazie kadrowania) - teoria sitka: w danej technologii szerokość granic między pikselami jest stała - im więcej pikseli, tym mniej powierzchni światłoczułej na matrycy: Ciekawa matematyczna konieczność: skrajne 500.000 pikseli na mm^2 matrycy wymusza... (i to w najlepszym razie!) prawie półtora METRA optycznie martwych granic międzypikselowych na każdym mm^2! I to granic nieokreślonej szerokości - zależnie od aktualnych możliwości technologicznych. Wzór na minimalną długość granic dla każdej matrycy CCD/CMOS: pierwiastek^2 z (liczba pikseli na mm^2) x 2 x (powierzchnia matrycy w mm^2) Tak więc trzeba walczyć o lepszą świadomość problemu, bo gdzie te zdjęcia czarnych kotków skaczących w ciemnej piwnicy? Nie ma? Co ja pacze? ;-) Utrzymywanie liczby pikseli na najniższym poziomie przyzwoitości pozwoliłoby już w krótkim czasie przestać się martwić światłem zastanym (np. ruch w pomieszczeniach) oraz zbyt dużą dynamiką sceny (a przynajmniej te dodatkowe 3 EV znacznie złagodziłyby problem). To jest nagroda za powstrzymanie wyścigu na megapiksele. pozdrawiam /-/ Mariusz [mr.] ¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨ ladakhNAwp.pl ________________________ *** Najnowsze wykopaliska wskazują, iż już u swojego zarania matryce światłoczułe podzieliły się na dwie główne linie ewolucyjne: do reporterki i do studia (niezależni badacze podejrzewają jednak, że istnieje także trzecia, najliczniej reprezentowana linia ewolucyjna aparatów, która nie nadaje się zbyt dobrze ani do tego, ani do tamtego, a służąca wyłącznie do krojenia klienta z nadmiaru gotówki, ale żaden z producentów się do tej linii nie przyznaje. :) 2 |
Data: Luty 07 2012 15:25:05 | Temat: Re: Takie tam o pikselach | Autor: Mariusz [mr.] |
Ad. 3.: Przeciętne warunki zdjęciowe, przeciętne obiektywy, brak statywu, filtr AA i w efekcie już dziś część informacji z matrycy to są PUSTE DANE, z którymi trzeba sobie jakoś radzić na każdym etapie obróbki, transferu i zapisu sygnału, a które niczego już nie wnoszą do jakości zdjęcia. [mr.] 3 |
Data: Luty 07 2012 15:57:51 | Temat: Re: Takie tam o pikselach | Autor: Mariusz [mr.] |
- teoria sitka: w danej technologii szerokość granic między Z teorii sitka wynika również, iż każdemu przyrostowi liczby pikseli na matrycy MUSI TOWARZYSZYĆ proporcjonalnie JESZCZE WIĘKSZY spadek rozmiaru piksela. Teoretycznie istnieje bariera liczebności pikseli, przy której matryca składałaby się z samych "ślepych" granic. [mr.] |
Re: Takie tam o pikselach
Newsletter
Galerie zdjęć