| inviato il 29 Settembre 2015 ore 20:59
Mi sembra di capire che ognuno abbia le proprie esigenze direttamente collegate al genere fotografico che preferisce, ma che scattare in raw sia una sorta di ciambella di salvataggio per chi non ha tempo o forse voglia di regolare tutto prima dello scatto. |
| inviato il 29 Settembre 2015 ore 21:52
“ Mi sembra di capire che ognuno abbia le proprie esigenze direttamente collegate al genere fotografico che preferisce, ma che scattare in raw sia una sorta di ciambella di salvataggio per chi non ha tempo o forse voglia di regolare tutto prima dello scatto. „ O, più semplicemente, l'unico modo di ottenere il massimo dalle proprie foto. |
| inviato il 30 Settembre 2015 ore 3:16
Cosa si intende per massimo? Una resa colore che risponde a realtà o quanto simile, o a propria interpretazione ? Perchè se è la seconda, penso non ci siano problemi con nessuna macchina |
| inviato il 30 Settembre 2015 ore 5:29
Il massimo vuol dire che puoi decidere tu la direzione anche in un secondo momento o con una flessibilità che può assecondare meglio la tua creatività, con il jpeg, hai già fatto una scelta implicitamente e non si torna indietro perché quello che manca è stato gettato. @Phsystem, io scatto in raw e in manuale, iso tempi e diaframmi, non direi che non abbia voglia di regolare tutto prima dello scatto. Uso il passport x-rite per profilare e comunque ho il pannello grigio per il bilanciamento sempre dietro. A Pitti, per esempio vogliono jpeg e una estrema precisione dei colori, ma il jpeg é una necessità perché ai pp, arrivano decine di migliaia di foto da processare e anche 1 secondo di attesa per ciascuna, farebbe collassare tutto. Ma si fanno i salti mortali, é un compromesso che in azienda non puoi fare. |
| inviato il 30 Settembre 2015 ore 6:01
Se una foto è ben esposta non vi sono grandi differenze di lavorazione tra un Jpeg e un Raw. Il problema nasce quando una foto non è stata esposta bene, allora si che con il Raw si hanno più margini di lavorazione. |
| inviato il 30 Settembre 2015 ore 7:58
“ Se una foto è ben esposta non vi sono grandi differenze di lavorazione tra un Jpeg e un Raw. „ non sono grandi, ma ci sono. E la precisione del bilanciamento del bianco che ti dà il raw - per esempio - non ha nulla a che vedere con la correzione del colore di un jpg. Vi voglio vedere a correggere il colore di una serie di foto in chiesa (altro esempio) che differiscono una dall'altra, sarebbe un incubo. Con il raw una volta che ne imposti una, sincronizzi tutte le altre e il risultato è perfetto. |
| inviato il 30 Settembre 2015 ore 8:53
“ Se una foto è ben esposta non vi sono grandi differenze di lavorazione tra un Jpeg e un Raw. Il problema nasce quando una foto non è stata esposta bene, allora si che con il Raw si hanno più margini di lavorazione „ Io per i primi due anni ho usato la reflex digitale come fosse una analogica. Quindi curavo ogni dettaglio esattamente come si faceva con la pellicola compresa la regolazione del colore e ne sono stato sempre soddisfatto. Però, visto che a volte sbaglio anch'io e che ogni foto è irripetibile ho cominciato a scattare anche nel doppio formato jpeg+raw DNG. Ho precisato dng perché mi consente, nel caso debba apportare delle regolazioni, di vedere le impostazioni al momento dello scatto e valutare se modificare qualcosa. Viceversa se il file raw fosse neutro con le regolazioni azzerate non credo proprio che sprecherei dello spazio sulla scheda di memoria per salvare anche in raw. :-) |
| inviato il 30 Settembre 2015 ore 9:54
“ Io per i primi due anni ho usato la reflex digitale come fosse una analogica. Quindi curavo ogni dettaglio esattamente come si faceva con la pellicola compresa la regolazione del colore e ne sono stato sempre soddisfatto. „ ok ma la soddisfazione personale è raramente un proxy decente senza offesa, s'intende - ma ho visto gente soddisfatta delle foto fatte con l'iPhone o con una compatta... |
| inviato il 30 Settembre 2015 ore 10:01
Salve ragazzi, mi scuso per rispondere in ritardo, ma ho la giustificazione: ieri sono stato via, a comprare la mia A7R II Comincio col rassicurare tutti: io sono...io Non sono in incognito per cui il "There's someone in my head but it's not me" dei Pink Floyd nel mio caso non si applica Mi scuso se il thread ha scatenato "partiti", la mia intenzione era opposta, cioè di mettere la palla al centro su un argomento che accomuna tutti. Come saprete, il sensore a matrice Bayer è composto da una matrice (rete) di fotositi, ciascuno dei quali è dedicato a un colore, R G o B, per mezzo di un filtro su OGNI fotosito che non permette il passaggio delle frequenze diverse. Quindi per es. il fotosito con coordinate 1526x4868 potrà registrare SOLTANTO il Red o il Green o il Blue. Ok ? La tipica matrice a 16 elementi (pixel) di un sensore Bayer è la seguente (ogni lettera rappresenta un fotosito): R G R G G B G B R G R G G B G B i fini osservatori avranno notato che i fotositi verdi sono il doppio di quelli rossi e blu. È una scelta arbitraria, ma non del tutto: c'è ovviamente una ragione di fondo, e cioè che l'occhio umano è più sensibile alle lunghezze d'onda dei verdi. Cosa succede per es. se una luce blu purissima (cioè a massima saturazione) colpisce un sensore? Se il sensore è Blue, verrà impressionato; se il sensore è Green o Red, non verrà impressionato. Ovviamente questo è un caso limite, nella realtà i colori non sono mai perfettamente saturi, per cui un oggetto blu "carta da zucchero" impressionerà molto un sensore blu, meno un sensore verde, ancora meno un sensore rosso. OK? Provate ora a raffigurarvi mentalmente un sensore con migliaia di fotositi in cui sia rimasta impressionata una scena: che cosa vedreste? Vedreste una specie di mosaico, con pixel rossi, blu e neri sparsi in vario modo sulla superficie del sensore. Ecco, sia che abbiate fotografato una bellissima donna nuda, o un bidone dei rifiuti, quella sarà la vostra foto. Una specie di caos ordinato Per tradurre questo mosaico di rossi verdi e blu in una immagine, occorre applicare un algoritmo di conversione, che viene appunto detto algoritmo di DE-MOSAICIZZAZIONE. Detto molto rozzamente, questo algoritmo tradurrà quelle file di pixel rossi verdi e blu nella vostra foto, calcolando, tramite sostanzialmente un sistema di interpolazione, detta INTERPOLAZIONE BILINEARE, il colore che apparirà sulla foto. Dovrebbe essere chiaro a questo punto che il colore dipende dall'algoritmo. Faccio un esempio linguistico: Se affido una frase inglese, es. "Today the sky is beautiful because it has many different clouds" a tre traduttori diversi, otterrò probabilmente tre frasi molto simili ma non identiche, per esempio: Traduttore Uno: Oggi il cielo è bello perché ha molte nuvole diverse. Traduttore Due: Oggi il cielo è bello poiché ha molte nuvole diverse. Traduttore Tre: Oggidì il cielo è bello perché ha molte nuvole differenti. La frase inglese originale è il nostro scatto in formato RAW I traduttori uno, due e tre sono diversi algoritmi di conversione. Tutti e tre vi danno la stessa foto, ma con sfumature differenti, più o meno grandi. Chiaro? :) Il colore dei JPG della vostra macchina, non dipende dall'hardware, ma dall'algoritmo di conversione che vi è contenuto. E i colori dei raw sviluppati in Lightroom piuttosto che in Capture One sono leggermente diversi tra loro, perché gli algoritmi di conversione che i due software applicano sono diversi. In conclusione, ribadiamo: non esiste "il colore delle Canon (Nikon, Sony ecc.). Esistono diversi algoritmi di conversione, che si possono trovare dentro o fuori la macchina. Per quanto riguarda gli obiettivi: è vero, obiettivi diversi possono dare risultati cromatici diversi, ciò è in gran parte dovuto alla colorazione dei metalli degli strati antiriflesso. I produttori SERI di obiettivi (Leica, Zeiss, Schneider) infatti quando producono uns SERIE di obiettivi, prestano grandissima cura a che la resa cromatica degli stessi sia omogenea in tutti gli obiettivi della serie. Questo implica calcoli precisissimi per OGNI strato antiriflesso depositato su OGNI elemento ottico dell'obiettivo. E poi c'è qualcuno che si meraviglia che gli obiettivi Leica, Zeiss, Schneider costino così tanto. Questo è uno dei motivi TUTAVIA, le differenze cromatiche tra gli obiettivi hanno un impatto veramente minimo sulle foto quando si usa il digitale. Intanto perché oggi anche i produttori "da battaglia" come Tamron e Sigma usano alta tecnologia, per cui il gap si è molto ridotto. Poi perché le possibilità di correzione colore nel digitale sono talmente sofisticate che vi consentono praticamente tutto: se siete il tipo pignolo, basta che vi creiate col Colorchecker differenti profili per ogni obiettivo che avete già risolto il problema. Cia' ! |
| inviato il 30 Settembre 2015 ore 10:21
“ E i colori dei raw sviluppati in Lightroom piuttosto che in Capture One sono leggermente diversi tra loro, perché gli algoritmi di conversione che i due software applicano sono diversi. In conclusione, ribadiamo: non esiste "il colore delle Canon (Nikon, Sony ecc.). Esistono diversi algoritmi di conversione, che si possono trovare dentro o fuori la macchina. „ Occhio che se ti legge paco ti mostra la foto del bimbo con due diverse fotocamere canon e ti dirà "io con la 6d non fo lo stesso del foratino" e la discussione finirà in leibovitz |
| inviato il 30 Settembre 2015 ore 10:40
“ Occhio che se ti legge paco ti mostra la foto del bimbo con due diverse fotocamere canon e ti dirà "io con la 6d non fo lo stesso del foratino" e la discussione finirà in leibovitz „ Io sono nuovo del forum e non conosco gli utenti per cui non mi permetto commenti Piuttosto vorrei sottolineare un aspetto di cui si parla poco: la risoluzione del sensore in rapporto alla riproduzione cromatica. Premesso questo: - a parità di superficie di stampa - a parità di algoritmo di conversione Le fotocamere con maggiore numero di pixel registreranno più accuratamente le transizioni di tonalità, perché la risoluzione più elevata registrerà meglio le sfumature. Quindi l'argomento "non mi servono i 40-50 megapixel perché continuo a stampare 20x30" è vero solo fino a un certo punto. Lo stesso 20x30 stampato però da un file con risoluzione maggiore conterrà miglori sfumature nelle transizioni di colore. Si parla sempre di piccole differenze, però, in certi casi, come il ritratto umano, possono fare una piccola differenza. Sempre, ovviamente, a parità di stampante (e soprattutto sempre che sia una buona stampante!) |
| inviato il 30 Settembre 2015 ore 10:44
“ Quindi l'argomento "non mi servono i 40-50 megapixel perché continuo a stampare 20x30" è vero solo fino a un certo punto. Lo stesso 20x30 stampato però da un file con risoluzione maggiore conterrà miglori sfumature nelle transizioni di colore. Si parla sempre di piccole differenze, però, in certi casi, come il ritratto umano, possono fare una piccola differenza. „ Occhio che se ti legge paco ti posta le foto della mamiya da 20mpx e stampe 50x70, altro che 20x30 Paco senza offesa (sono battute), ma queste discussioni sembrano calzarti a pennello. @Orio “ Io sono nuovo del forum e non conosco gli utenti per cui non mi permetto commenti „ lo conoscerai |
| inviato il 30 Settembre 2015 ore 11:31
@Domenik: se provi a leggerlo, in thread, magari lo capisci il significato ;) Se vuoi ti passo alcuni raw e mi fai vedere come rendere "naturale" un'ombra. Non scherzo, dimmi quale vuoi. @And29: ognuno ha le proprie passioni, non ti pare? C'è chi preferisce andare al cuore dei fatti e chi preferisce restare in superficie. A te appassiona la fotografia mentre io impazzisco per le teorie, ma sicuramente sono io insieme a pochi altri l'anormale, visto che questo post e altri due simili hanno ricevuto migliaia di visite in pochi giorni. |
|

Metti la tua pubblicità su JuzaPhoto (info) |