Strona główna Fora Foto Technika fotografowania Wyostrzanie w lustrzance cyfrowej

Wyostrzanie w lustrzance cyfrowej

Technika fotografowania

Member

W kwietniowym numerze 2008 Digital Foto Video,w artykule “EXIF prawdę ci powie”,Państwo Ewa Prus i Piotr Dębek piszą na str.108 m.in…..”Sharpness – wyostrzanie.Siła,z jaką aparat wyostrza zdjęcia.Nie ma nic wspólnego z rzeczywistą ostrości,jest zabiegiem destrukcyjnym i nieodwracalnym”
W tym samym numerze DFV w artykule “Ile megapikseli ma sens ?”Pan Marcin Bójko pisze na str.123 m.in.
“…algorytmy wyostrzające w aparacie nie są tylko kwiatkiem do kożucha.Gdy wyostrzamy zdjęcia w komputerze,proces sprowadza się do podbicia kontrastu krawędzi.W aparacie cyfrowym na pierwszym etapie obróbki procesor usiłuje odzyskać dane,które stracił z powodu rozmycia obrazu i ograniczeń sensora.”
Czy nie ma tu sprzeczności między pierwszym a drugim artykułem ?Może się mylę,może żle zrozumiałem.
Bardzo proszę o wyjaśnienie.
I jeszcze jedno.W lustrzance cyfrowej Nikon D80,w menu ustawień jest:
Wyostrzanie:
– automatyczne
– 0 normalne
– -2 obniżone
– -1 nieco obniżone
– +1 wyższe
– +2 duże
Stąd moje pytanie: jakie wyostrzanie ustawiać ?

Member

Ustaw na “0 normalne”.
Moim zdaniem obojętnie gdzie wyostrzamy,to efekt jest podobny – zaczyna wyłazic ziarno na zdjęciach.
Jednak w komputerze,programy do obróbki pozwalają miec większą kontrolę nad tym procesem niż oprogramowanie w aparacie.
Teoria o odzyskiwaniu danych z powodu rozmycia obrazu wydaje się śmieszna – bo niby co miało rozmyc obraz ?Powietrze?Soczewki w obiektywie?
Jeśli nawet soczewki,to matryca rejestruje obraz już rozmyty i oprogramowanie może jedynie wyostrzyc przez podbibie kontrastu krawędzi,bo nie zna takiego samego obrazu nierozmytego z prawidłową ostrością.
Dlatego zgodzę się z pierwszą teorią,że wyostrzenie programem (w aparacie lub na komputerze) to zabieg destrukcyjny i nie mający nic wspólnego z prawdziwą ostrością.
Prawdziwa ostrośc to jedynie dobry,ostry obiektyw.

Member

Witam wnikliwego czytelnika :)
Sprzeczność w tekstach jest pozorna. Stopień wyostrzania, który możemy ustawić w menu, to nie jest to samo, co ów “pierwszy etap obróbki”. Ustaw sobie na próbę maksymalne wyostrzanie w aparacie i zrób parę zdjęć: czegoś o kontrastowych krawędziach – zobaczysz na nich obwódki, takie jak po wyostrzeniu w komputerze. Pstryknij niebo, najlepiej wieczorne – zamiast gładkiego gradientu zobaczysz ziarnistość. Zrób zdjęcie na wysokim ISO, a zobaczysz, jak wygląda wyostrzony szum (strasznie wygląda). To są właśnie efekty rzeczonego “zabiegu destrukcyjnego”. Dla jasności: jeśli zamierzasz użyć zdjęć takich jak wyszły z aparatu, robiąc z nich odbitki albo pomniejszając do sieci, wszystkie te “efekty specjalne” nie będą na tyle widoczne, żeby przeszkadzały.
Gorzej, jeśli zamierzasz korygować zdjęcia ręcznie, w komputerze. Im dalej idąca korekcja, tym bardziej niepożądane efekty wyostrzania w aparacie będą wyłazić. Na przykład jeśli zechcesz podnieść kontrast na wspomnianym wyżej wieczornym niebie, jego ziarnistość zmieni się w solidną kaszę. Dzieje się tak dlatego, że aparat wyostrza wszystko równo – to, co wymaga podkreślenia szczegółów i to, co powinno być gładkie. Gdy obrabiasz zdjęcia w programie, ostrzenie jest ostatnim etapem. Możesz go kontrolować, dbając by wyostrzone zostało tylko to, co powinno.
Co do Nikona, to nie mam z nim osobistych doświadczeń, ale na pewno nie jest tak, że aparat na jakimkolwiek ustawieniu zmiękcza zdjęcia. “Normalne” to znaczy zapewne “takie, jakie goście w Nikonie uznają za właściwe”, a nie brak wyostrzenia w ogóle. Na pewno nie ustawiałabym wyższego, a czy niższe, to już zależy od chęci do dalszej obróbki.

Member

Pani Ewo,bardzo dziękuję za wyczerpujące wyjaśnienie.Jeszcze raz wróciłem do wymienionych przeze mnie we wczorajszym poscie artykułów i moje wątpliwości zostały rozwiane.
Dziękuję także johnasowi.
Serdecznie pozdrawiam

Member

Była kiedyś w liceum taka bajka o dwóch malarzach. Jeden malował prawdziwe, drugi piękniejsze obrazy.
Wychodzi na to, że to kwestia gustu i indywidualnego wyczucia.
Ze względu na dużą ilość zdjęć i skandalicznie małą ilość czasu na obróbkę zdjęć post factum, sensownym wydaje się już w aparacie (jeśli on to zrobi z głową) lekkie podrasowanie. Jeśli mam więcej czasu na zabawę z kompem to nastawy na zero i RAW.

Member
johnas wrote:
Teoria o odzyskiwaniu danych z powodu rozmycia obrazu wydaje się śmieszna – bo niby co miało rozmyc obraz ?Powietrze?Soczewki w obiektywie?

Filtr antyaliasingowy przed matrycą. Niemal każdy aparat z marycą bayerowską taki filtr posiada (wyjątkami były stare pełnoklatkowe Kodaki i Leica M8)…

Ewa wrote:
…Gdy obrabiasz zdjęcia w programie, ostrzenie jest ostatnim etapem. Możesz go kontrolować, dbając by wyostrzone zostało tylko to, co powinno…

Chyba, że jest to dekonwulacja – wtedy powinna być pierwszym krokiem obróbki…

Member
johnas wrote:
Ustaw na “0 normalne”.
Teoria o odzyskiwaniu danych z powodu rozmycia obrazu wydaje się śmieszna – bo niby co miało rozmyc obraz ?Powietrze?Soczewki w obiektywie?

No dobrze. To wytłumaczę skrót myślowy, który stoi za tym sformułowaniem o odzyskiwaniu danych. Po pierwsze w technologii cyfrowej, nie zależnie czy to zdjęcie, czy może dźwięk z płyty cd albo MP3 mamy do czynienia z ciągłym odzyskiwaniem danych, które nawet całkiem nieźle działa, zważywszy, że płyt CD (a nawet o zgrozo MP3) da się słuchać i 99,9% populacji nie widzi w tym żadnej profanacji dźwięku.
W technologii cyfrowej dźwięk zapisywany jest na podstawie próbek sygnału branych co jakiś czas z sygnału analogowego. Te próbki zapisywane są na nośniku cyfrowym, a później na ich podstawie w odtwarzaczu (CD, komputer pokazujący obraz, DVD itp., aparat cyfrowy) odzyskuje się właściwy obraz uzupełniając dane które nie zostały zapisane w procesie próbkowania. Najłatwiej wytłumaczyć to właśnie na przykładzie aparatu cyfrowego, bo w znacznej większości matryc (wyjątek stanowi Foveon X3) każde dwa sąsiadujące ze sobą piksele rejestrują obraz o innym kolorze. Układ pikseli w linii jest RGBGRGBGR… Tak więc matryca o 10 milionach pikseli ma 5 milionów pikseli zielonych i po 2,5 miliona pikseli czerwonych i niebieskich. Ale z aparatu wychodzą zdjęcia które w każdym kanale RGB mają po pełne 10 milionów pikseli. Tak więc w czasie przetwarzania danych pobranych przez matrycę aparat odzyskuje/odgaduje informacje o wartościach koloru w 20 milionach punktów (2/3 obrazu). Robi się to za pomocą procesu zwanego interpolacją.
Teraz pozostaje pytanie jak to zrobić. Pytanie na które nie ma prostej odpowiedzi. W większości przypadków dokładny algorytm jest pilnie strzeżoną tajemnicą. Ja podam tylko dwa możliwe rozwiązania, pokazując, że za każdym razem możemy uzyskać inne wyniki.
Załóżmy, że mamy dane x1=10, x2=11, x4=2,x5=3. Szukamy danej x3. Najprostszy sposób to średnia z dwóch sąsiednich danych: czyli (x2+x4)/2, która wynosi 6,5. Taki algorytm nazywamy liniowym, bo przybliżaliśmy poszukiwaną wartość za pomocą funkcji liniowej. Zwróćmy uwagę, że skok między x2 a x4 jest ogromny, jeśli jest to zdjęcie to można spodziewać się, że znajduje się tam krawędź, ale algorytm liniowy jest bardzo zachowawczy – przybliża dane za pomocą prostej. Na obrazie zobaczymy rozmycie krawędzi. Co możemy zrobić? Ano możemy wziąć bardziej skomplikowaną funkcję, czyli na przykład funkcję kwadratową, albo sześcienną. W pierwszym przypadku do obliczeń wchodzą 3 punkty, w drugim 4.
Jeśli weźmiemy algorytm kwadratowy to interpolowana wartość dla x1, x2 i x4 wynosi 8,3 a dla x2,x4 i x5 wynosi 4,6. Jak widać w obu przypadkach algorytm lepiej oddaje rzeczywistość, czyli krawędź która prawdopodobnie była na zdjęciu. Algorytm sześcienny w tym przypadku głupieje, bo podaje wartość -6,2, co pokazuje, że akurat wielomiany wysokich stopni umiarkowanie nadają się do interpolowania funkcji, które nie są gładkie, czyli mają duże skoki (krawędzie w obrazach).
Tan przydługi już wywód zakładał tylko jeden rodzaj interpolacji – wielomianami i na dodatek tylko w jednym a nie dwóch wymiarach. W praktyce raczej stosuje się sinusy i cosinusy, choćby dlatego, że później używane są one również w algorytmie kompresji JPG.
Teraz odpowiednio stosując rodzaj interpolacji można lepiej lub gorzej przybliżać ostre skoki w sygnale (obrazie). Wachlując parametrami interpolacji (stopniem wielomianu, ilością funkcji sin(kx) itp) można lepiej lub gorzej odzyskiwać dane jakie utraciliśmy przez samą naturę próbkowania cyfrowego. Nie wiem tego na 100%, ale logiczne jest, że algorytm wyostrzania w lustrzance ingeruje w najsensowniejszym momencie – w czasie interpolacji. Choćby dlatego, że wtedy mamy najmniej danych, więc najłatwiej (najszybciej) jest przeprowadzić obliczenia. Na 100% tego nie wiem, bo oczywiście algorytmy konwersji obrazu z matrycy są tajemnicą konkretnych firm.

johnas wrote:
Jeśli nawet soczewki,to matryca rejestruje obraz już rozmyty i oprogramowanie może jedynie wyostrzyc przez podbibie kontrastu krawędzi,bo nie zna takiego samego obrazu nierozmytego z prawidłową ostrością.
Dlatego zgodzę się z pierwszą teorią,że wyostrzenie programem (w aparacie lub na komputerze) to zabieg destrukcyjny i nie mający nic wspólnego z prawdziwą ostrością.
Prawdziwa ostrośc to jedynie dobry,ostry obiektyw.

No nie do końca. Bo nawet najostrzejszy obiektyw padnie jeśli algorytm interpolujący dane jest do bani. Zresztą w czasach analogowych istniało coś takiego jak równanie zdolności rozdzielczej, które szło mniej więcej tak:
1/R=1/Rf+1/Ro
gdzie R to rozdzielczość całkowita, Ro rozdzielczość obiektywu, Rf – rozdzielczość filmu. Różne źródła podają różnie, Kodak podnosi wartości w mianowniku do kwadratu, Fuji podaje takie wartości. Przepuszczenie tego przez Exela jest wielce pouczające, bo pokazuje, że rozdzielczość układu optycznego jest wypadkową rozdzielczości wszystkich podzespołów i wcale nie jest tak, że jeśli obiektyw daje 200 lp/mm a film 100 lp/mm to rozdzielczość układu wyniesie 100 lp/mm (według Fuji 66 lp/mm, według Kodaka 89 lp/mm).

Z pewnością istnieje coś takiego w dobie cyfrowej choć jeszcze nie udało mi się dotrzeć do literatury na ten temat, a doktorzy z Politechniki Warszawskiej zajmujący się optyką na szybko nie potrafili odpowiedzieć na pytanie czy istnieje odpowiednik równania zdolności rozdzielczej dla aparatów cyfrowych i jak je jeść jeśli jest.

Member
jaad75 wrote:
johnas wrote:
Teoria o odzyskiwaniu danych z powodu rozmycia obrazu wydaje się śmieszna – bo niby co miało rozmyc obraz ?Powietrze?Soczewki w obiektywie?

Filtr antyaliasingowy przed matrycą. Niemal każdy aparat z marycą bayerowską taki filtr posiada (wyjątkami były stare pełnoklatkowe Kodaki i Leica M8)…

Ewa wrote:
…Gdy obrabiasz zdjęcia w programie, ostrzenie jest ostatnim etapem. Możesz go kontrolować, dbając by wyostrzone zostało tylko to, co powinno…

Chyba, że jest to dekonwulacja – wtedy powinna być pierwszym krokiem obróbki…

Co to jest dekonwulacja ?

Member

Dekonwulacja to składanie wielu takich samych kadrów różniących się jednak położeniem płaszczyzny ostrości,w jedno zdjęcie dla uzyskania większej głębi ostrości lub trójwymiaru.Myślę,że jaad75 to miał na myśli.

Member

A nie dekonwolucja? Najogólniej rzecz biorąc, w fotografii jest to skomplikowana jak nie wiem co metoda wyostrzania, dająca rewelacyjne efekty. Istnieją programy wykorzystujące coś takiego (na przykład Astra Image, było w programach miesiąca w maju), ale Photoshop o ile mi wiadomo do nich nie należy. Fakt, jeśli ostrzy się dekonwolucją, to na początku.

Member

Faktycznie powinno być dekonwolucja

Member

Tak, rzeczywiście, prawidłowym terminem jest dekonwolucja, dekonwulacja tyczy się czegoś innego – mój błąd…:)
A z programów, które działają z PS-em, a używają tej metody ostrzenia (lub raczej “deblurowania”), należy wymienić Focus Magic (występuje jako wersja plug-in), czy Re-focus (z pakietu plug-inów Optipix 3)… Dekonwolucja jest też jedną z dwu dostępnych metod ostrzenia w RAW Therapee.

Member

Deblurowanie to dobre określenie :))

Member

Bardzo dziękuję za wyjaśnienie.

Viewing 13 reply threads
  • You must be logged in to reply to this topic.