Canon EF 17-40L USM f 4.0
Canon EF 50mm f/1.8 II

Canon EF 24-70 USM
Canon EF 24-105 USM

Tamron 28-75/2.8 XR Di LD
Tamron AF SP 17-50 f/2.8 XR


Tamron SP AF 11-18


Tamron SP AF 18-200
Tamron SP AF 70-200 mm f/2.8
Logowanie:Użytkownik:Hasło: Zarejestruj się - Zapomniałem hasła

Mroczne zakamarki Twojej cyfrówki - matryca CCD
2004-11-18 02:27:18

Zacznijmy od tego, co to jest CCD, ale od tej elektronicznej strony.
Ponieważ nie jest to moje źródło utrzymania, moja wiedza może mięć poważne merytoryczne luki, wiec, jeśli ktoś tu jest z tematem za pan brat, to prośże ewentualnie o szybka korektę.
Jednocześnie zapewniam, ze w wyjaśnienie tematu włożyłem więcej niz. pogapienie się w sufit, a pewne uproszczenia (nazwijmy to DALEKO idące) SA celowe, fizyka półprzewodników nie jest mi całkowicie obca, ale jak wyjedziemy tu z równaniami to się audiencja rozejdzie do domów.
Kto ma ochotę na fizykę, niech wrzuci w gogle parę zapytań typu CCD structure,
principle of operation, physics itp.
Jest dość literatury ne temat. To jest pogadanka dla humanistów.

Nie mam ochoty na wojnę z ludźmi, którzy uważają, ze wystarczy,
jak aparat nie szumi przy ISO50 i 1/1000 sekundy, wiec nie będę się wypowiadał na temat A2,
czy jakiegokolwiek aparatu w szczególności, a naskrobie sobie o CCD i temu podobnych.
Biedzie technicznie, ale jakieś wnioski powinno się dąć wyciągnąć bez słownika wyrazów obcych i przekleństw egzotycznych.
Zacznijmy od tego, co to jest CCD, ale od tej elektronicznej strony. Ponieważ nie jest to moje źródło utrzymania, moja wiedza może mięć poważne merytoryczne luki, wiec, jeśli ktoś tu jest z tematem za pan brat, to prośże ewentualnie o szybka korektę.
Jednocześnie zapewniam, ze w wyjaśnienie tematu włożyłem więcej niz. pogapienie się w sufit,
a pewne uproszczenia (nazwijmy to DALEKO idące) SA celowe,
fizyka półprzewodników nie jest mi całkowicie obca, ale jak wyjedziemy tu z równaniami to się audiencja rozejdzie do domów.
Kto ma ochotę na fizykę, niech wrzuci w gogle parę zapytań typu CCD structure,
principle of operation, physics itp.
Jest dość literatury ne temat.
To jest pogadanka dla humanistów;
Tak zgrubnie można podzielić CCD na takie, które do pracy potrzebują zewnętrznej migawki i takie, co jej nie wymagają.
W życiu pokrywa się to z podziałem na kompakty i lustrzanki.
Kompakty (z racji na celowanie na LCD) musza być wyposażone w matryce pozwalająca "nagrywać" "video", tj. pracować bez klapania migawka.
CCD to w uproszczeniu jedna wielka dioda krzemowa. Podłoże (tzw. substrat) jest typu p, wierzchnia warstwa typu n.
Na takim waflu nałożona jest cieniutka warstwa izolatora a na to... O tym dalej.
Padające na krzem światło powoduje wybijanie pojedynczych elektronów z ich orbit i tworzenie w ten sposób par dziura-elektron (ładunek dodatni i ładunek ujemny).
Gdyby ten kawałek krzemu był jednorodny, "naturalny" taka para ładunków zaraz by się z powrotem połączyła i cześć.
Jedyny efekt, to podgrzanie krzemu.
My mamy jednak dwie "warstwy", jedna z "niedoborem" ładunków dodatnich, druga - ujemnych.
W obrębie granicy tworzy się wbudowane pole elektryczne.
Takie rozbite uderzającym fotonem pary (+)(-) nie maja szansy się znowu połączyć, bo to pole "ciągnie" je w przeciwne strony.
Elektrony w kierunku powierzchni, dziury w podłoże.
Dziury nas nie interesują. Giną w czeluściach substratu, papa im mówimy i tyle.
Zbieramy elektrony. Jak już napisałem, cala struktura PN przykryta jest izolatorem?
W ten sposób uwięziliśmy elektrony - w głąb nie uciekną, bo ich stamtąd pole elektryczne wygania, w gore nie prysną, bo izolator ich nie przepuści...
Zaraz, ale na boki mogą pełzać... I będą pełzać.
W tym celu na wierzch izolatora naniesiemy elektrody.
Podłużne, wąskie paski ciągnące się przez cala szerokość sensora.
W równych odstępach. Naładujemy je dodatnio. Ładunki dodatnie i ujemne się przyciągają,
wiec teraz (ujemne) elektrony przyciągane dodatnim ładunkiem będą gromadzić się pod nimi - jak pod dachem.
Wygenerowany fotonem elektron pryśnie pod najbliższy "daszek".
Gdyby nie było tego izolatora, to elektrony dolazłyby do tych elektrod i uciekły.
Ale mamy izolator. Zaraz. Ale to nam załatwiło polowe problemu.
Elektrony nie uciekną na powierzchnie, ani w głąb, ani w gore, ani w dol.,
ale maja jeszcze swobodę w lewo i w prawo.
Pomyśl, aby paski elektrod poszatkować w małe kwadraciki niestety nie zda egzaminu,
bo jakoś trzeba moc nimi sterować, a doprowadzić prąd można tylko z brzegu sensora.
Doprowadzenia będą tak samo przyciągać ładunki, wiec sorty.
Rozwiązanie problemu to zaszyte pod powierzchnia izolatora pionowe wąskie paski domieszek,
dzielące "równinę" sensora na "rowy".
Ta aa... widzicie już "piele"?
Wcale nie takie podzielone jak by się wydawało, nie?
Podział raczej płynny i polegający na strefach oddziaływania...
OK, dość chrzanienia, żebraliśmy ładunki na kupki, teraz czas cos z nimi zrobić.
Zebralismy, czyli naświetliliśmy zdjęcie - w miejscach, gdzie było jaśniej,
więcej fotonów padło na nasz kawałek krzemu i więcej elektronów zostało naprodukowanych i teraz siedzą pod daszkiem.
Tam, gdzie było bardzo ciemno siedzi jeden, może dwa samotne i trzęsą się z zimna.
Trzeba to jakoś wydostać. Z racji na budowę sensora ładunki nie mogą się poruszyć na boki,
bo trafia na te kanały, nie mogą też spłynąć w głąb, wiec musimy je wyprowadzić z góry na dół,
wzdłuż kolumn. Jeśli rozładujemy te "daszki" przestaną one przyciągać elektrony i pozwolą im płynąc. Niestety w ten sposób rozpłyną się one "po kościach".
Aby je poprowadzić naniesiemy między każdymi dwoma podłużnymi elektrodami dwie ekstra.
Normalnie nienaładowane, więc nie wpływające na gromadzenie się ładunków.
Teraz, przy odczycie, pomogą nam wyciągnąć ładunki na zewnątrz.
Ruchem robaczkowym. Ładujemy dodatnio sąsiednie, oczko niższe elektrody względem tych,
co mieliśmy naładowane. Elektrony przyciągane są ociupinkę dalej.
Rozładowujemy "starą" elektrodę - elektrony przyciągane są tylko przez tę "nową" - przesunęły się znowu kawałek dalej. itd.
Ponieważ zawsze pomiędzy dwoma "naładowanymi" miejscami jest kawałek przerwy, elektrony zebrane w rożnych miejscach nie przemieszają się .
Na samym dole CCD czeka drugi taki dynks, tym razem przesuwający ładunki z lewa na prawo.
W ten sposób ostatecznie wypływają porcyjki elektronów piel za pixelem.
Teraz trzeba te elektrony policzyć i git.
Dla tych, którym ten opis zrobił się dziki,
tutaj jest plik powerpointa całkiem ładnie i czysto tłumaczący sprawę: www.ing.iac.es/~smt/CCD_Primer/Activity_1.ppt
Co nam z tego wynika?
1. w najlepszym wypadku dostajemy 1 elektron na 1 padający foton.
W praktyce jest gorzej, bo cześć fotonów się od krzemu odbije,
cześć zostanie pochłonięta bez generacji wolnych elektronów,
cześć będzie miała za małą energie do wybicia elektronu (światło głębsze niż czerwone zasadniczo przelatuje przez krzem bez przystanków po drodze).
Elektrony później można tylko tracić.
Nie ma żadnego manewru, który raz stracone elektrony nam "urodzi". Można "namnożyć" te,
które zostały, ale nie przywróci to informacji.
2. ilość fotonów padających na cm2 powierzchni określa,
ile maksymalnie możemy dostać elektronów.
Jest to niezależne od budowy i technologii CCD.
Przy danej ilości światła padającego na kawałek krzemu (przysłona obiektywu, ilość światła w scenie) dostaniemy MAKSYMALNIE tyle a tyle elektronów. Finito.
3. Optymalizacje technologii mogą nam dać "tylko" mniejsze straty.
Jedziemy dalej.
Teraz będzie mniej opisów.
Podstawowy sensor jak obsmarowany wyżej nie pozwala na prace bez migawki.
Trzeba go naświetlić, światło zamknąć i odczytywać.
Inaczej do przesuwanych ładunków będą cały czas dołączać nowe, generowane padającym światłem.
To się nadaje do lustrzanki, ale nie do kompakta. Trzeba sprawę ulepszyć.
Ulepszono to tak, że każdą kolumnę podzielono znowu na dwie części, jedna jest światłoczuła,
a druga przykryta paskiem metalu (nieprzezroczystym).
Po naświetleniu matrycy przesuwa się zebrane ładunki najpierw na tę ciemną stronę (tak samo, jak je przesuwaliśmy w dół), a dopiero potem robaczkowo ciągnie w dół.
W tym czasie światło może sobie dalej padać,
bo nowe ładunki nie dołącza do tych transportowanych.
Niestety, płacimy za to tym, że cześć sensora jest nieczuła na światło.
Radą na to (i nie tylko na to) są tzw. mikrosoczewki,
które łapią światło znad całego "pixela" i skupiają je na tej mniejszej światłoczułej powierzchni.
Czuła powierzchnia jest mniejsza, ale dostaje silniejsze światło,
więc strata jest w dużym stopniu skompensowana.
Dobra. A co to ma do nas?

 1. mamy więcej etapów transportu.
Więcej możliwości przecieku elektronów.
2. Rozmiar pixela...
Właśnie... co określa jak duży jest ten pixel!?
Przecież względnie sztywne granice mamy tylko po bokach...
Ano w dużej mierze rozmiar pixela wynika z siły pola i struktury domieszkowania krzemu,
to w efekcie daje jakby "dołek" energetyczny, gdzie zbierają się elektrony.
"Dołki" powinny być jednakowe, bo pixele są jednakowe w założeniu.
Niestety jak rozmiar dołka zaczynają określać relacje sił pola elektrycznego,
to nawet małe zmiany w rozmiarach i położeniu elektrod mogą nam te granice poprzesuwać.
Stąd przy zadanej dokładności procesu produkcji CCD dostaniemy jakiś,
zadany błąd rozmiarów pixela.
A jak to się ma do fotografii? Załóżmy, ze fotografujemy równomiernie białą plamę.
Każdy pixel powinien dostać taką samą ilość elektronów.
 Ponieważ niektóre pixele są większe, zbiorą ich więcej (mają więcej powierzchni na łapanie).
Po odczytaniu i zmierzeniu zostaną zinterpretowane jako JAŚNIEJSZE.
Dostaniemy na obrazie tzw. fixed pattern noise, czyli szum, który się nie zmienia w czasie.
To jest ta cześć szumu, którą można programowo skompensować prawie zawsze,
wystarczy zrobić jedną pomiarową ekspozycje idealnie równego naświetlenia i na tej podstawie obliczyć potrzebne współczynniki.
Jest to robione niejako przy okazji podczas dark frame substraction.
Tolerancje produkcji są dla jednej generacji matryc podobne,
więc im mniejszy pixel tym większy rozrzut rozmiarów.
Czyli 8MPIX będzie gorsze od 4, czy 5MPIX.
Następna sprawa to tzw. prąd ciemny, czyli te elektrony,
 które pojawiają się "znikąd" i nie maja nic wspólnego z tymi "zrobionymi" przez fotony.
 Nie da się odróżnić jednych od drugich, więc policzone będą wszystkie.
Prąd ciemny dla danej technologii można przyjąć za "stochastyczny stały", więc ilość dorzucanych elektronów ni z gruszki ni z pietruszki jest (licząc na powierzchnie) stały.
Samo w sobie nie stanowi to problemu, bo fotony też są nam dane na cm2 powierzchni,
więc bez różnicy, czy wytniemy małe, czy duże piele, S/N powinien być podobny.
Ale niestety prąd ciemny wpływa nam nie tylko z substratu, ale też przecieka przez "granice" pixela,
więc im więcej tych granic nastawiamy tym będzie gorzej.
W dodatku domieszkowanie substratu nie jest idealnie jednorodne,
drobne niejednorodności mają większą szanse się uśrednić w obrębie dużego pixela, mały zaś może sobie wyciąć akurat nieprzyjemny kawałek.
Z tego wszystkiego wychodzi nierównomierność prądu ciemnego między pixelami...
Tym razem zjawisko daje, co prawda stały rozkład szumu, ale silnie zależny od czasu naświetlania i od temperatury.
Można to redukować przez odejmowanie ciemnej klatki (tzn. po normalnym zdjęciu robimy drugie, zbierając tylko te przeciekające elektrony i korygując poprzedni pomiar).
Zasadniczo im więcej MPIX tym gorzej, bo więcej przypadkowych ładunków trafia do pixela.
Tyle o akwizycji obrazu. Teraz kwestia wydobycia elektronów już zebranych.
Każde przesunięcie ładunków "o oczko" niesie ze sobą ryzyko strat.
Jest to wyliczalne i stanowi parametr dla danej technologii.
Im więcej transferów trzeba zrobić, tym większy błąd (większy margines elektronów, które mogły wsiąknąć). Średnio na odczyt matrycy N*M pixeli trzeba N+M/2 transferów.
Dla 5MPIX potrzeba około 3 tysięcy przesunięć, dla 8MPIX potrzeba ok. 4 tysięcy.
Niby tylko 30% różnicy, ale sprawność przeniesienia trzeba podnieść DO TAKIEJ POTĘGI,
aby dostać wynikową sprawność transportu!!!
Ostatecznie docieramy do wzmacniacza/konwertera ładunek/napięcie, czyli naszego licznika elektronów.
Tu nie ma przeproś. Tu mamy z jednej strony wymóg szybkości (nie możemy czekać godziny na odczyt),
a z drugiej - dokładności. Szum na poziomie 5 elektronów to praktycznie marzenia.
Więc jeśli cela jest mniejsza, zbiera mniej elektronów, to tu jest kasa, gdzie się za to płaci.
Słowem: im większa rozdzielczość, tym mniejsze efektywne fotocele, tym większy wpływ prądu ciemnego, tym mniejsza odporność na ciepło,
tym większe grzanie własne, tym większe straty transportu, tym mniejszy użyteczny sygnał, słowem,
tym gorzej dla zdjęć.
Co robią producenci? Mają jeszcze kilka pól do manewru.
Goły CCD odbija 1/3 światła padającego prostopadle i więcej, gdy pod kątem.
Mikrosoczewki niwelują drugi człon problemu, a pokrycia antyodblaskowe z dwutlenku hafnu dają redukcje pierwszego członu, ale są upierdliwe w CCD oświetlanych od frontu.
Można zwiększać precyzje wykonania i jakość domieszkowania, ale to wszystko to MINIMALIZACJA STRAT. Z mniejszymi fotocelami zawsze dostaniemy mniej możliwych elektronów na pixel.
Wydaje się, że ze względu na dotychczasową nieskalowalność wzmacniaczy odczytu,
problemy z prądami upływu itd. optimum leży około 5MPIX na 2/3",
powyżej szumy narastają raptowniej.
To, czy szumy uwidocznią się na zdjęciu to nie tylko sprawa matrycy.
Producenci zdają sobie sprawę z gorszego S/N dla matryc 8MPIX i wszyscy (poza Sony) zaprzęgli wydajne algorytmy redukcji szumu, więc zdjęcia bywa, że nie wyglądają źle.
Ale matryca nie ma "zapasu" na cienie, na wyższe czułości, więc się można ugryźć.

Autorem publikacji jest Marek Lewandowski
Domowe metody wykonania tła fotograficznego .
Projektujemy domowe studio fotograficzne . Tło fotograficzne .
Mroczne zakamarki Twojej cyfrówki - matryca CCD
Raw, wykorzystaj technologie.Korekta balansu bieli.
Głebokie problemy z głębia ostrości .
Ilośc wiadomości: 7, aktualnie wyświetlane od 0 do 5
 Nastepne >
copyright Fotomania.pl, created by Jacek