Oprogramowanie
Czy któryś z omawianych w numerze DFV z lipca programów do HDR ma możliwość, na etapie składnia z kilku zdjęć w zdjęcie wynikowe, decydowanie (najlepiej prostymi suwaczkami) ile informacji ze zdjęcia “ciemniejszego” oraz ze zdjęcia “jasniejszego” zostanie przeniesione do zdjęcia “środkowego” (np : 0 = nic, 7 = max tego co chce program, 10 = wszystko)
Stawiam pierwsze kroki w tej technice, do tej pory rozpietość uzykiwałem poprzez : tylko RAW, pilnuj prawej strony histogramu, wyciaganie z cieni.
Aktualnie wydaje mi się, że praca na pliku wynikowym (po złożeniu) to w dużej mierze jak lecznie zamiast zapobiegania.
Mam też rozterkę nad sensem stosowania priorytetu jasnych partii obrazu w tej technice, a tak na prawdę to w ogóle przy zapisie w RAW.
jp
PS.
Bardzo fajny artykuł, z przyjemnościa przeczytałem
Chodzi mi o większy i płynny wpływ na to ile materiału wejściowego z np. 5 plików backetingu wejdzie do dalszego tworzenia HDR np w procesie wstępnym, mniej dokładnym.
Przecież i tak czasami cofamy się, i uzyskujemy efekt skokowy, powtarzając cały proces bez jednego z plików wejściowych.
Wtedy moglibyśmy łatwo mieć oprócz zdjęcia “zwykłego” oraz “zdjęcia HDR” całą gamę pośrednich, “zwiększać” w sposób płynny dynamikę zdjęcia “głównego”.
Trochę obok.
Myślę, że trudno byłoby sensownie uzasadnić w jaki sposób zdecydowana większośc wbudowanych funkcji w np. Machinery czy też SNS-HDR Home wpływa na zwiększanie dynamiki. Tworzą się programy do obróbki daleko wybiegające poza przeznacznie zawarte w tytule, chyba niepotrzebnie.
A stworzenie efektywnie tylko bardzo dobrego obrazu HDR w każdych warunkach wejściowych jest dużym wyzwaniem.
jp
Temat HDRI to jedno wielkie nieporozumienie, i dopóki jasno nie określimy, czym tak naprawdę jest ta technika, dopóty ciężko będzie zrozumieć założenia i zasady.
Aby była jasność- HDR to plik z końcówką psd, psb, flx, atx, arti, map, ct, fps, sph i tyle, koniec.
Obrazu HDR nie można wydrukować na żadnej drukarce (rok 2012), oraz zobaczyć na żadnym monitorze w cenie poniżej 3000$.
Technologia ta powstała z myślą o filmie i stosunkowo od niedawna funkcjonuje również w fotografii. Najlepszym programem do tego jest oczywiście ISBM, lecz oczywiście Photomatix czy Ps również świetnie się nadają do pracy z HDR.
Pracę zaczynamy przeważnie od wykonania paru zdjęć z różną ekspozycją pokrywającą zakres 23EV.
Za pomocą jakiegokolwiek programu serię zdjęć łączymy w HDR, następnie zapisujemy ten obraz w formacie j/w i na tym kończymy, idziemy spać- mamy HDRa.
Rano z tego pliku trzeba wyciągnąć obraz,(w filmie taki, aby pierwszy plan pasował do tła lub na odwrót) który będzie nam potrzebny aby go pokazać. W tym celu HDRa mapujemy, można do tego użyć innego programu niż ten który użyliśmy do stworzenia HDRa. Najczęściej będzie to Photomatix lub Ps. W wyniku mapowania powstaje obraz który możemy zobaczyć i wydrukować, oraz zapisać w formacie jpg czy TIFF. HDRa oczywiście nie kasujemy, gdyż może się przydać w przyszłości aby wyciągnąć z niego inny obraz.
Bardzo często obraz wyciągnięty z HDRa jest błędnie nazywany HDR, podczas gdy jest to tylko wynik mapowania HDR.
Jak mapować. Najlepiej i najłatwiej z programem Photomatix, trochę drożej lecz wygodniej w Ps.
Szczególnie intuicyjna jest metoda w Ps. Otóż po otwarciu pliku HDR (jest to plik 32bit.z końcówką j/w) za pomocą tabletu Wacoma malujemy piórkiem ekspozycję na fotografii, a parametry ekspozycji regulujemy palcem lewej dłoni na ring kontrolerze. Efekt zaciemniania i rozjaśniania poszczególnych partii fotografii jest bardzo naturalny i robi piorunujące wrażenie na kimś kto dotychczas korzystał z zwykłych suwaków w programie.
Aby była jasność- HDR to plik z końcówką psd, psb, flx, atx, arti, map, ct, fps, sph i tyle, koniec.
Obrazu HDR nie można wydrukować na żadnej drukarce (rok 2012), oraz zobaczyć na żadnym monitorze w cenie poniżej 3000$.
Technologia ta powstała z myślą o filmie i stosunkowo od niedawna funkcjonuje również w fotografii. Najlepszym programem do tego jest oczywiście ISBM, lecz oczywiście Photomatix czy Ps również świetnie się nadają do pracy z HDR.
Pracę zaczynamy przeważnie od wykonania paru zdjęć z różną ekspozycją pokrywającą zakres 23EV.
Za pomocą jakiegokolwiek programu serię zdjęć łączymy w HDR, następnie zapisujemy ten obraz w formacie j/w i na tym kończymy, idziemy spać- mamy HDRa.
Rano z tego pliku trzeba wyciągnąć obraz,(w filmie taki, aby pierwszy plan pasował do tła lub na odwrót) który będzie nam potrzebny aby go pokazać. W tym celu HDRa mapujemy, można do tego użyć innego programu niż ten który użyliśmy do stworzenia HDRa. Najczęściej będzie to Photomatix lub Ps. W wyniku mapowania powstaje obraz który możemy zobaczyć i wydrukować, oraz zapisać w formacie jpg czy TIFF. HDRa oczywiście nie kasujemy, gdyż może się przydać w przyszłości aby wyciągnąć z niego inny obraz.
Bardzo często obraz wyciągnięty z HDRa jest błędnie nazywany HDR, podczas gdy jest to tylko wynik mapowania HDR.
Jak mapować. Najlepiej i najłatwiej z programem Photomatix, trochę drożej lecz wygodniej w Ps.
Szczególnie intuicyjna jest metoda w Ps. Otóż po otwarciu pliku HDR (jest to plik 32bit.z końcówką j/w) za pomocą tabletu Wacoma malujemy piórkiem ekspozycję na fotografii, a parametry ekspozycji regulujemy palcem lewej dłoni na ring kontrolerze. Efekt zaciemniania i rozjaśniania poszczególnych partii fotografii jest bardzo naturalny i robi piorunujące wrażenie na kimś kto dotychczas korzystał z zwykłych suwaków w programie.
Czyli :
– plik HDR to złożenie tego wszystkiego co np. w bracketingu zrobiliśmy…… i koniec
– my w programach wyciągamy z tego złożenia tyle ile chcemy i…. tam gdzie chcemy ?
Nigdy nie pracowałem na tablecie.
Czy mógłbyś bardziej szczegółowo rozpisać “malujemy ekspozycję na fotografii”, czy ma to coś wspólnego z maskami w PS ?
Czyli rano …. na ekranie mamy jakiś obraz wyjściowy i teraz wybieramy np. las pod niebem który chcemy rozjaśnić o 2 EV, czyli pobrać z pliku HDR jak ten las wygląda tam zapisany z +2EV i pokazać go na ekranie pod tym nie ruszonym niebem.
Taka idea jest ? (i zatrzęsienie problemów dodatkowych)
jp
– plik HDR to złożenie tego wszystkiego co np. w bracketingu zrobiliśmy…… i koniec
– my w programach wyciągamy z tego złożenia tyle ile chcemy i…. tam gdzie chcemy ?
Tak.
Można wykorzystać również maski, abyś dokładnie wiedział gdzie, jaką wartość ekspozycji umieściłeś na obrazie.
Nie.
Ideą HDRI jest zapis wszystkich natężeń światła. Wykonując serię zdjęć z różnymi wartościami czasu, nie zapisujemy natężeń światła, lecz poprzez zmianę wartości czasu naświetlania w aparacie symulujemy ten efekt.
Aby prawidłowo wykonać Twoją fotografię lasu, musiałbyś wykonać serię zdjęć od świtu do nocy.
W pokoju oświetlonym żarówką musiałbyś użyć ściemniacza do tej żarówki. To jest prawdziwe HDR, lecz aby na razie za bardzo nie komplikować można to symulować różnymi wartościami czasu.
I słusznie. Masz mało istotne i rozpraszające szczegóły w cieniach, lecz …żegnajcie kolory.
Czyli człowiek w roli operatora…
.exr -jest gwiazdą wśród formatów-jako jedyny format, który zdobył Oscara.
PS-Wszystkiego najlepszego.
To naprawdę bardzo fajna i prosta technologia. Niestety nigdzie nie piszą jak z tego korzystać, a opisy, które można znaleźć są niezrozumiałe i przekombinowane.
Kiedyś zrobiłem parę zdjęć na zlocie pojazdów zabytkowych. Wspólnym mianownikiem relacji miała być technika wykonania zdjęć. Postawiłem na HDR i siebie w roli operatora, a na każde zdjęcie poświęciłem dosłownie parę sekund przy komputerze, (dlatego wiele z nich wygląda bardzo niechlujne, …ale czas, czas).
http://www.foto.czecho.pl/10647-rajd-pojazdow-zabytkowych
Wiesz, photomusic
Egzamin, studentka się plącze …….
Profesor : proszę pani, człowiek inteligentny powinien się tak wyrażać, aby wszyscy go rozumieli !
Studentka : nie rozumiem, panie profesorze.
jp
Aby była jasność- HDR to plik z końcówką psd, psb, flx, atx, arti, map, ct, fps, sph i tyle, koniec.
Obrazu HDR nie można wydrukować na żadnej drukarce (rok 2012), oraz zobaczyć na żadnym monitorze w cenie poniżej 3000$.
Technologia ta powstała z myślą o filmie i stosunkowo od niedawna funkcjonuje również w fotografii. Najlepszym programem do tego jest oczywiście ISBM, lecz oczywiście Photomatix czy Ps również świetnie się nadają do pracy z HDR.
Toż to jedna wielka bzdura co piszesz.
Toż to jedna wielka bzdura co piszesz.
Ja się nie znam na historii fotografii ale tzw źródła podają, że pierwszy HDR w fotografii powstał jeszcze w czasach kiedy bracia Lumiere byli dopiero w planach.
Czyżby jednak mowa była o różnych rzeczach, bo to dość spora rozbieżność poglądów…
a dla mnie HDR to czysta zabawa w nierealny świat nie chce mi się robić bracketingu – wyciągam wszystko z jednego RAW`a, wrzucam do Photomatixa i się cieszę jak dziecko z chorych kolorów odejdzcie od tych wszystkich formułek i niech fotografia sprawia wam radość a nie spędza sen z powiek
PS
żeby wkurzyć wszystkich idealnych teoretyków i wszystkich innych dążących do nieciekawych ale idealnych kadrów to wrzucam do galerii specjalnie dla Was kilka własnych HDR`ów wkurzajcie się
Byłoby miło, jakby efekty sprawiały co najmniej tyle radości co ich produkcja, zwłaszcza postronnym widzom
Aby prawidłowo wykonać Twoją fotografię lasu, musiałbyś wykonać serię zdjęć od świtu do nocy.
W pokoju oświetlonym żarówką musiałbyś użyć ściemniacza do tej żarówki. To jest prawdziwe HDR, lecz aby na razie za bardzo nie komplikować można to symulować różnymi wartościami czasu.
Jeśli przyjmiemy taką definicję, to HDRI, czyli “prawdziwe HDR”, nie jest nikomu do niczego potrzebne, a już na pewno nie fotografom. Może fizykom od optyki do jakichś doświadczeń, ale to nie nasza działka.
To może napiszesz?
walnąłem offtopa więc może się wypowiem w stosunku do zadanego pytania…
a czy te wszystkie suwaczki w programach do hdrów (np. photomatixa) nie mają na celu właśnie regulacji owych większośći czy mniejszości? osobiście używam photomatixa i nie znam innych programów, ale wydaje mi się, że w każdym jest suwaczek podpisany siła (strenght) efektu, czy jak to mówią specjaliści tu brylujący, poprawność kadru z intensyfikacją jednego czy drugiego naświetlanego poprzez bracketing całodobowy o rozpiętości 23EV (co nie jest formą poprawną) kadru? na pewno taki suwak jest… choć pewnie na tablecie tą intensyfikację przeprowadzisz lepięj, bardziej prawidłowo i wyciągając coś z 13 godziny bracketingu…
Operatory mapowania tonów w Ps działają wyłącznie z „prawdziwymi HDR”, a Ps-tak mi się przynajmniej wydaje, jest programem foto-graficznym. Photomatix również nie pogardzi „prawdziwym HDR”.
Chętnie, lecz niech wszyscy najpierw zrozumieją to, że obraz, który powstał z „prawdziwego HDRa” nie jest HDR’em, podobnie jak obraz, który powstał z „prawdziwego RAWa” nie jest RAW’em.
Nie. Po prostu nie wiem gdzie tego szukać w Internecie.
Program, o który pytasz to Smart Image Based Lighting (Light Wave), w skrócie- sIBL, a w żargonie-ISBM.
Operatory mapowania tonów w Ps działają wyłącznie z „prawdziwymi HDR”, a Ps-tak mi się przynajmniej wydaje, jest programem foto-graficznym. Photomatix również nie pogardzi „prawdziwym HDR”.
Plączesz. Zdefiniowałeś wcześniej prawdziwy HDR jako naświetlany przy wszelkich możliwych jasnościach światła. Zacytuję jeszcze raz:
Ideą HDRI jest zapis wszystkich natężeń światła. Wykonując serię zdjęć z różnymi wartościami czasu, nie zapisujemy natężeń światła, lecz poprzez zmianę wartości czasu naświetlania w aparacie symulujemy ten efekt.
Aby prawidłowo wykonać Twoją fotografię lasu, musiałbyś wykonać serię zdjęć od świtu do nocy.
W pokoju oświetlonym żarówką musiałbyś użyć ściemniacza do tej żarówki. To jest prawdziwe HDR, lecz aby na razie za bardzo nie komplikować można to symulować różnymi wartościami czasu.
Teraz z kolei mówisz o “prawdziwym HDR” jako o pliku 32-bitowym – tak przynajmniej wynika z tego co piszesz. Na temat 23 EV i całodziennego bracketowania krajobrazu się nie wypowiadam, bo nie warto. Z fotografią to w każdym razie nie ma nic wspólnego.
Nie. Po prostu nie wiem gdzie tego szukać w Internecie.
Program, o który pytasz to Smart Image Based Lighting (Light Wave), w skrócie- sIBL, a w żargonie-ISBM.
Ach, o ten chodzi… no to znalazłam, tu jest, nawet nie schowany: http://www.hdrlabs.com/sibl/index.html
Tylko że to służy do renderowania 3D.
Reasumując: Istotnie, HDR w renderowaniu 3D oznacza zupełnie co innego niż HDR w fotografii, a HDR w filmie to jeszcze co innego. Przestań więc może mieszać, bo powstaje wrażenie, że nie masz praktycznego pojęcia o żadnej z tych dziedzin.
a czy te wszystkie suwaczki w programach do hdrów (np. photomatixa) nie mają na celu właśnie regulacji owych większośći czy mniejszości? osobiście używam photomatixa i nie znam innych programów, ale wydaje mi się, że w każdym jest suwaczek podpisany siła (strenght) efektu, czy jak to mówią specjaliści tu brylujący, poprawność kadru
I tak, i nie Różne sceny mogą wymagać innego ustawienia suwaczków dla uzyskania naturalnego efektu, natomiast owszem, programy pozwalają “pojechać” w jakieś zupełnie nierzeczywiste kolory i odjechany rozkład kontrastów, co wcale nie znaczy, że takie odjazdy są jakoś postulowane czy promowane. Programy do mapowania tonów to narzędzia – każdy robi z nimi to, co potrafi i to, co mu dyktuje jego gust. A później za to odpowiada Odjechane kolory da się uzyskać w dowolnym programie graficznym. Zabawa polega na tym, aby mieć dobry i gustowny pomysł, co się chce uzyskać, a później jeszcze umieć to uzyskać.
Magiczne działanie tabletu w PS-ie zostawmy może w okolicy braci Grimm.
Teraz z kolei mówisz o “prawdziwym HDR” jako o pliku 32-bitowym – tak przynajmniej wynika z tego co piszesz..
Plącze? Co tu jest niejasne? HDR to plik 32 bitowy. Koniec.
W oparciu o HDR.
I vice versa. Po przeczytaniu tego:
https://www.dfv.pl/tl_files/dfv/czasopismo/07_2012/tn.pdf
Opadły mi ręce.
Tak, jasne. Obrazy też lepiej malować cegłą niż pędzelkiem.
I ten Ansel Adams w stopce szczególnie wiele mówi. A więc przyjrzyjmy się bliżej, kim był.
Słowo sztuka pochodzi od niemieckiego słowa stuck, które to określało rzemiosło na najwyższym poziomie. Z czasem zaczęliśmy mieć w sztuce do czynienia z manipulacją. Wszelakiej maści sponsorzy (mecenasi sztuki) wmawiali ludziom, że coś, w co uprzednio zainwestowali sporo kapuchy, jest sztuką. Ansel również jest manipulacją, sponsor wymyślił parę chwytliwych frazesów, że „minimalne środki” itp., ale maksymalna kapucha wpompowana w promocję do dziś przynosi zamierzony efekt mecenasów-sponsorów.
Dziś powoli już ten numer nie przechodzi. W sądach mówi się już nie o sztuce, lecz o artystycznej manifestacji. Produkty Ansela nie były sztuką, a cała ideologia z nim związana, to stek frazesów wymyślonych przez jego sponsorów.
photomusic
Ja też mam inne zdanie o zagadnieniu które opisał Piotr w jednym z poprzednich numerów.
Uważam że się w tym przypadku mylił, nie do końca wiedział o czym pisze.
Tym niemniej dalej chętnie korzystam z jego rad, czytam jego artykuły.
W tych wypowiedziach i pisaniu jest logiczny i sensowny
Ludzie mogą różnić się poglądami, mieć inne zdanie, mają prawo krytykować nas itd.
My też możemy się czasami mylić …. i wtedy należy po prostu umiec powiedzieć : przepraszam
Jestem “właścicielem” tego wątku (załóżyłem go), czuję się odpowiedzialny za to co sie w nim dzieje.
Proszę, dyskutujemy o problemie a nie o walorach intelektualnych, nie obrażajmy się i nie obrażajmy innych
Przyznaję się, że też nie rozumiem do końca Twoich wypowiedzi.
Mógłbys dla mnie, może innym słownictwem, w prostszy sposób opisać raz jeszcze ?
Jestem początkującym adeptem tej techniki.
Zrobiłem bracketing np. z 5 zdjęć ….. i go złożyłem
To jest plik HDR czy też nie, bo musiałbym od 0EV do 32 (?) EV aby był plikiem HDR ?
I tak dalej,….. proszę opisz wszystko raz jeszcze , dla mnie, abym zrozumiał
jp
photomusic – pogrążasz się coraz bardziej. Technika HDRI w programach 3D poza nazwą i tym, że wykorzystuje obrazek o dużej przestrzeni tonalnej, nie ma nic wspólnego z foto. W przypadku 3D takie zdjęcie o dużej przestrzeni tonalnej jest wykorzystywane tylko do generowania realistycznego oświetlenia renderowanej sceny. Uzyskiwanie tego zdjęcia też jest raczej bardzo specyficzne (ale to, na pewno wiesz).
Rozumiem, że pisząc o użyciu w filmie miałeś na myśli własnie grafikę 3D, jeżeli nie to chętnie posłucham o używaniu na szeroką skalę HDR w filmie ))
OK.
Więc zaczynamy zabawę z HDRI, w tym celu przygotujmy materiał, który posłuży do wykonania HDRa. Idealnie było by mieć zdjęcia z wszystkimi (23EV) natężeniami światła, lecz jak się niema, co się lubi-to się lubi, co się ma, więc jeśli mamy tylko trzy zdjęcia, jedno naświetlone zgodnie zgodnie z wskazaniem światłomierza, drugie -2EV i trzecie +2EV to też będzie dobrze. Przy okazji dodam, że jeśli mamy naświetlone +1,0, -1EV to technologia HDRI również i takim materiałem nie pogardzi-owszem, rozpiętość tonalna nie będzie duża, lecz zamiast tego wyciągniemy większą ostrość, kontrast oraz znacząco zredukujemy szumy. Te trzy zdjęcia (-2,0, +2), mogą to być pliki RAW umieszczamy na pulpicie.
HDRI
Ps-
Wybieramy: Plik>Automatyzuj>Scal do HDR Pro.
Po chwili mamy podgląd-zatwierdzamy, po czym widzimy gotowego HDRa. Nie wygląda dobrze, chyba, że mamy monitor zdolny wyświetlać HDRy.
Następnie: Plik>Zapisz jako>Format-wybieramy EXR, i na pulpit.
Gratulacje-mamy na pulpicie HDRa-prawdziwego.
Photomatix-
W lewym rogu: Load Bracked Photos>W okienku, które się pokaże zaznaczamy-Show intermediary 32-bit HDR i wybieramy Rawy z pulpitu. Po chwili mamy HDRa, takiego samego jak w Ps.
Fil>Save As-wybieramy na pulpit i EXR.
Gratulacje-mamy na pulpicie HDRa-prawdziwego.
Lightroom-
Prawym klawiszem myszki i Edytuj w, wybieramy-Połącz, jako HDR-Ps, lub: Plik>Eksportuj według ustawień do…>Photomatix. Dalej j/w.
LDR
Aby jednak coś zobaczyć lub wydrukować, należy z naszego HDRa coś wyciągnąć. Takie wyciągnie nazywamy mapowaniem.
Ps-
Po uruchomieniu programu klikamy dwa razy na pustym polu, następnie wybieramy naszego HDRa (plik EXR).
W Ps służą do tego operatory, są cztery i znajdziemy je: Obraz>Dopasowania>Tonowanie HDR.W okienku, które się pokaże wybieramy: Metoda i jeden z czterech operatorów.
Na razie wybieramy jednak Obraz>Tryb>8bitów.W oknie, które się nam pokaże wybieramy Ekspozycja i Gamma i zatwierdzamy.
Teraz mamy obraz uzyskany z HDRa, który możemy zapisać, jako zwykły jpeg.
Photomatix-
File>Open, i wybieramy naszego HDRa z pulpitu. Otwiera się nam obraz, który nie wygląda najlepiej oraz mniejszy obraz-jest to podgląd tego, co zostało zapisane w HDR.
Wybieramy Tone Mapping, a następnie w lewym rogu przy Method wybieramy metodę Details Enhancer. Na razie nie bawimy się suwakami, wybieramy pierwszy lepszy preset i klikamy w lewym dolnym rogu Process.
Mamy obraz. File>Save As>Wybieramy TIFF lub jpeg.
Gotowe.
Mapowanie.
W tym miejscu powinienem po kolei (kolejność suwaków zarówno w Ps jak i w Photomatix nie jest przypadkowa) i dokładnie wyjaśnić jak używać operatory w Ps oraz do czego służą poszczególne suwaki w Photomatix , kiedy i jak ich używać. Bo pracując z obrazem trzeba myśleć CO a nie JAK to zrobić. Ale zapewne znajdziecie to w najnowszym numerze DFV.
Generalnie OK, tylko parę rzeczy wymaga sprostowania, w tym jedna istotna.
1. 23 EV – po co? Nie spotkałam się nigdy z taką rozpiętością tonalną sceny. W fotografii oznacza to, że robiąc serię zdjęć różniących się naświetleniem o 23 EV, dostaniemy parę normalnych, parę czarnych i parę białych. Po co mają być te czarne i białe, nie wiem. Ale z pewnością da się je skasować, więc straty nie ma.
2. Nie ma najmniejszej potrzeby by ładować te wszystkie pliki na Pulpit. Ale to naprawdę drobiazg.
3.
Z pewnością nie takiego samego. PS i Photomatix korzystają z różnych algorytmów scalania plików, więc wyniki nie są takie same. Ale mogą być porównywalne, więc to też drobiazg.
4. Teraz będzie ta jedna istotna kwestia. Po to mamy te 32 bity, żeby móc je swobodnie mapować bez strat jakości. Konwertowanie najpierw do 8-bitowego pliku bez przejmowania się ustawieniami, i zapisywanie tego jako TIF lub JPG, żeby potem wykonywać mapowanie na 8 bitach, nie ma najmniejszego sensu, a wręcz uniemożliwia dobre mapowanie.
Obawiam się, Januszu, że nie dowiesz się niczego rewolucyjnego.
To ja się wcisnę z pytaniem jaki to jest monitor zdolny wyświetlać HDRy? W sensie jak to rozumieć: czy taka informacja jest podawana w specyfikacji monitora? Jeśli nie to po czym rozpoznać taki monitor? Pytam szczerze, bo niedawno kupowałem monitor i nigdzie nie znalazłem takich informacji w opisach oglądanych monitorów.
Dwa pytania użytkowe początkującego adepta techniki HDR
Zrobiłem zdjęcie RAW W1, wykres jasności na obu stronach histogramu ostro wchodzi na osie
Ustawiłem bracketing na 2EV, 5 zdjęć, powtórzyłem ujęcie : mam więc -4EV, -2EV, 0EV, +2EV, +4 EV
1a. wersja symetryczna
Na -4EV oraz +4EV mam ideał, wykres dochodzi do odpowiednich osi ich nie dotykając
Czy ma sens do dalszej obróbki wprowadzać pliki -2EV oraz +2EV czy to tylko marnowanie pamięci i czasu ?
Jeśłi tak, to dlaczego ?
1b. wersja nie symetryczna
Na -4EV oraz +2EV mam ieał, wykres dochodzi do odpowiednich osi ich nie dotykając
Czy ma sens do dalszej obróbki wprowadzać pliki -2EV oraz +4 EV czy to tylko marnowanie pamięci i czasu ?
1c. wersja nadmiarowa
Na -2EV oraz +2EV mam ideał, wykres dochodzi do odpowiednich osi ich nie dotykając
Ponadto na każdym z nich (-2, +2) środek wykresu jest wyraźnie obsadzony
Czy ma sens wprowadzać do dalszej obróbki pliki 0EV ?
Jeśli tak, to dlaczego ?
Rozumiem, że jak jakis program moje X plików scalił to mam plik HDR który mogę zapisać i następnie obrabiać (mapować) w tym lub innym przystosowanym do tej funkcji programie.
Chcę uzyskac 2 pliki końcowe Y1, Y2, np. o różnych stopniach “zaciemnienia” ciemnych obszarów w stosunku do zdjęcia W1
2. Jak mam uzyskać pewność, jak to zrobić, by być pewnym że te ciemne obszary zarówno w pliku Y1 jak i Y2 są wzięte wprost z któregoś z X plików i nie “dociągane” jakąś inną metodą ?
jp
Nie, nie… to jakiś totalny nonsens. Nie wiem, czy takie istnieją (nie sądzę), nie wiem też, po co by to komuś miało być potrzebne. I absolutnie nie chodzi o cenę. Żeby wyświetlić tak duży kontrast, trzeba by użytkownikowi ślipia wypalić. Pomyśl tylko: wyświetlić na monitorze jasności od głębokiego cienia po słońce – przecież to szaleństwo jakieś.
Programy radzą sobie z wyświetlaniem 32-bitowych obrazów albo w ten sposób, że wyświetlają jednocześnie tylko kawałek (pod przesuwalną lupą), dopasowując chwilowo jego jasność do możliwości monitora (i wzroku, tak przy okazji) albo kompresują kontrast “na płask”, ściskając jasności tak, żeby mieściły się w normalnym przedziale od 0 do 255. Wygląda to fatalnie, ale widać, czy gdzieś jest np. problem z kolorowymi krawędziami. Potem się to mapuje, by wprowadzić kontrasty tam, gdzie mają być.
Na -4EV oraz +4EV mam ideał, wykres dochodzi do odpowiednich osi ich nie dotykając
Czy ma sens do dalszej obróbki wprowadzać pliki -2EV oraz +2EV czy to tylko marnowanie pamięci i czasu ?
Jeśłi tak, to dlaczego ?
Wkładasz w program wszystkie 5 plików. A dlaczego? Wystarczy im się przyjrzeć. Na tych pośrednich (+-2 EV) dobrze naświetlone są obszary, które na skrajnych (+-4) są za ciemne lub za jasne. Używając wszystkich plików, znacznie poprawiasz jakość (czystość, szczegółowość) końcowego obrazu.
Na -4EV oraz +2EV mam ieał, wykres dochodzi do odpowiednich osi ich nie dotykając
Czy ma sens do dalszej obróbki wprowadzać pliki -2EV oraz +4 EV czy to tylko marnowanie pamięci i czasu ?
-2 EV – tak, ma sens, z tego samego powodu co punkt wyżej. +4 EV nie ma sensu, no chyba, że miałeś jakieś wysokie ISO i zdjęcia są zaszumione. Wtedy na tym +4 obraz będzie czystszy, choć w dużej mierze prześwietlony, więc warto go użyć. Natomiast gdyby było odwrotnie, czyli ideał masz od -2 do +4 EV, to używanie pliku -4 EV nie ma sensu żadnego.
Na -2EV oraz +2EV mam ideał, wykres dochodzi do odpowiednich osi ich nie dotykając
Ponadto na każdym z nich (-2, +2) środek wykresu jest wyraźnie obsadzony
Czy ma sens wprowadzać do dalszej obróbki pliki 0EV ?
Jeśli tak, to dlaczego ?
Tak, ma sens. Patrz punkt 1a
Odpowiedź jest taka jak wcześniej: to tak nie działa. Najpierw powstaje plik 32-bitowy z najlepszych informacji, jakie dany program jest w stanie wyciągnąć ze zdjęć, które mu wprowadzisz. Są tam informacje i o detalach w światłach, i w cieniach. Potem z tego pliku, rozciągając i wyginając informacje, robi się zdjęcie wyglądające tak jak chcesz. Albo kilka zdjęć wyglądających jak chcesz.
Natomiast jeśli chcesz mieć pewność, że dany fragment obrazu pochodzi bezpośrednio z konkretnego pliku składowego, to jedyną możliwością osiągnięcia tego jest włożenie wszystkich tych plików jako warstw do PS-a (albo GIMP-a, wszystko jedno), dodanie do każdej z nich maski i odmalowanie na maskach odpowiednich fragmentów. DFV lipcowe s. 74-77
Dzięki, pozwól że dopytam językiem opisowym
Z tego wynika, że jeśli zdecydowałem się robić bracketing, to aby uzyskać najlepszy z możliwych efekt :
– to trzeba maksymalną liczbę zdjęć w tym bracketingu, tak gęsto ile może aparat
– tak aby na histogramie “cienie dotykały osi”, a wędrówka począktu cieni w prawo nie ma sensu
– wędrówka w lewo końca jasności na histogramie może sie przydać.
Tak ?
Pytanie 2 : istniejące programy z dostępnych plików wejściowych tworzą własna przestrzeń jasności.
Jeśli chce się tylko z plików wejściowych …. to “ręcznie” .
A jak z kolorami ?
jp
– to trzeba maksymalną liczbę zdjęć w tym bracketingu, tak gęsto ile może aparat
Nie, co 2 EV w zupełności wystarczy. Co 1 EV byłoby za gęsto – zysku nie widać.
– wędrówka w lewo końca jasności na histogramie może sie przydać.
Hmmm… jeśli ja dobrze rozumiem, co piszesz, to odwrotnie: zdjęcia za jasne mogą się ewentualnie przydać, za ciemne – są do niczego.
Jeśli chce się tylko z plików wejściowych …. to “ręcznie” .
Tak
Co z kolorami?
HDR może zawierać w sobie odzwierciedlenie sceny w zakresie 23EV.Człowiek może widzieć jednocześnie scenę o zakresie 14EV.Matryca nowego Nikona D800-rejestruje zakres tonalny sceny 14EV.Czyli aby zarejestrować scenę o zakresie tonalnym 23EV wystarczą dwa zdjęcia RAW z D800 (z powodu użytecznego zakresu-cztery) i odpowiednio więcej z tańszych aparatów.
Jeśli fotografujesz scenę o rozpiętości 12EV (poranną mgłę), wystarczy jeden RAW (dwa…) z D800.
W tym celu nie musisz robić dwudziestu trzech zdjęć, co 1EV, (czyli 1/8000s, 1/4000s, 1/2000s itd.), bo w takim przypadku rzeczywiście użyteczne będzie (w zależności od sceny) parę, a reszta tylko do kosza.
Gdybym napisał: Zaimportuj zdjęcia do…, lub: Wrzuć je do folderu automatycznego importu…, to ktoś mógłby nie zrozumieć, o co mi chodzi.
Jeśli pominiemy korektę obiektywu, którą wykonuje Ps, to są to takie same HDRy.
A gdzie ja coś takiego napisałem? Mapujemy HDRa a nie obraz który uzyskaliśmy w wyniku mapowania HDRa. Choć Ps od wersji CS5 daje możliwość użycia operatorów mapowania HDR w stosunku do obrazu 8 i 16 bit, to zawsze wychodzą z tego potworki, a zresztą nie takie jest przeznaczenie tych operatorów w stosunku do obrazu 8 i 16 bit.
Robiąc zdjęcia, przepraszam, fotografie w formacie RAW, przestań patrzeć na histogram, gdyż niema on NIC wspólnego z tym, co zostało zarejestrowane. To, co widzisz na histogramie to tylko podgląd tego, co miałbyś, gdybyś robił w jpg.
Nie, nie… to jakiś totalny nonsens. Nie wiem, czy takie istnieją (nie sądzę), nie wiem też, po co by to komuś miało być potrzebne.
Pierwszy dostępny w sprzedaży był DR37-P firmy BrightSide Inc w 2004roku.Obecnie sprzedaje te monitory Dolby, Toshiba i Canon.
http://cmc.liblo.jp/archives/587973.html
Trzeba się wyrażac precyzyjnie bo :
Sprawca wyrok dostał w zawieszeniu
… kat zrozumiał po swojemu.
Ewa
Rozważanie o sensowności dołacznia plików z bracketigu do programów HDR
Wędrowanie początku cieni na histogramie :
– jeśli jest “poza histogramem” gdzieś tam z lewej strony = to źle, brak szeczegółów w cieniach
– jeśli jest daleko, w prawo od lewej osi = to nic ( dla informacji o cieniach) nie daje.
Taki to miało miec sens.
Kolory : czy zrobienie bracketingu i obróbka w programach HDR wpływa w jakis sposób np na balans bieli w stosunku do zdjęcia W1
Photomusic
Jasne, histogram w aparacie pokazuje rozkład (i to tylko przyblizony) w pliku zapisanym jako jpg na karcie.
Ale nawet fotografując w RAW daje nam pogląd co dostaniemy po wywołaniu tego pliku. I tak, jeśli nie chcemy utracic szczegółów to od końców histogramu odejśc za daleko nie możemy.
Zgoda ?
jp
Już samo korzystanie z tej technologii daje pewność, że niema żadnego „dociągania”.
Naświetlenie cieni jako jasnych daje dobrą ich jakość – nie będą zaszumione. Dlatego czasem warto dodawać do składanki HDR-owej dodatkowy, w zasadzie zbyt jasny plik.
Na balans bieli – nie. Natomiast programy do HDR miewają tendencję do dziwnych modyfikacji kolorów, wychodzi wtedy taki grunge, niebo ma kolor spranych dżinsów itp. Ale to jest do przejścia, jeśli nie udaje się zlikwidować w samym programie, to później w PS. Nawiasem: SNS dobrze traktuje kolory, tam ten problem występuje rzadko i właściwie tylko gdy przesadzimy z kontrastami miejscowymi.
http://cmc.liblo.jp/archives/587973.html
A tak bez japońskich krzaczków, to chodzi o to:
http://en.wikipedia.org/wiki/Surface-conduction_electron-emitter_display
Czyli technologia monitorów, która była rozwijana jako alternatywa dla LCD, ale LCD wygrało, więc ta technologia zdechła. Canon zarzucił przymiarki do SED w 2010 roku, te monitory nigdy nie wyszły poza fazę prototypów i krótkich serii na jakieś specjalne zamówienia. Pozostałe zaangażowane w badania firmy, w tym Toshiba, wycofały się jeszcze wcześniej. Rzeczywiście, prototypy SED miały spory kontrast 50 000:1, ale do prezentacji 23 EV na ekranie to jeszcze im trochę brakowało.
Akurat poranna mgła ma histogram o kształcie środkowego palca, czyli jakieś 2-3 EV rozpiętości. I nie wyobrażam sobie robienia z niej HDR-a. Znaczy, żeby wyrażać się precyzyjnie: wolę sobie nie wyobrażać, jak by taki HDR wyglądał. Brrr.
Nie
A gdzie ja coś takiego napisałem?
W kawałku zatytułowanym LDR. A jeśli nie o to chodziło, to nie wiem o co.
Ewa
Czyli posumowywując część użytkową robienia bracketingu do HDR
1. EV co 2 jednostki
2. Skrajne ekspozycje : trochę prześwietlona, trochę niedoświetlona
3. Wszystkie, jakie by nie były, jako wejściowe do składania do HDR ma sens.
jp
- You must be logged in to reply to this topic.