| inviato il 07 Novembre 2025 ore 18:03
@Vincenzo è vero, ma qual'è il presupposto fisico (suggerimento: non necessariamente spaziale...)? |
| inviato il 07 Novembre 2025 ore 18:11
“ Diciamo che il 95% delle fotografie scattate in tutto il mondo in ogni epoca, non sarebbero fotografie MrGreen „ Infatti sono immagini! |
| inviato il 07 Novembre 2025 ore 18:31
“ Fai vedere al sensore una luce monocromatica „ Ripropongo la domanda che ho fatto in precedenza: la luce monocromatica che fai vedere al sensore passa attraverso un obiettivo oppure cade direttamente sul sensore? |
| inviato il 07 Novembre 2025 ore 18:36
Ma scusate Ci sono due persone qui nel forum che sono riuscite a ottenere dei risultati che Adobe (ADOBE!) si sogna, e c'è chi - non avendo fatto nulla - ha il coraggio di criticare o sindacare su questo e quello? Seriamente? C'è solo da essere felici che ci sia la possibilità di chiedere direttamente e di informarsi su cosa hanno fatto e come, invece di lamentarsi o prendere in giro. |
| inviato il 07 Novembre 2025 ore 19:04
@enrico fuoco a infinito e f/22 dà in pratica un quasi-tutto-a-fuoco da infinito ai piedi del fotografo, però f/22 comincia ad essere imbarazzante per via della diffrazione che proprio a f/22 diventa un po' invasiva. Cmq funziona se il rapporto tra f/22 e la Focale F è dell'ordine di <2 mm, per esempio F=24 e f/22 dà 24/22=~1.09 mm. Ci stiamo avvicinando alla risposta in modo molto indiretto perché la domanda vale anche per un 500mm a f/4, per esempio, non solo per un grandangolo col diaframma chiuso (500/4=125 mm, bye-bye!). |
| inviato il 07 Novembre 2025 ore 19:04
Quello fenomenale del vostro lavoro è che si potrebbe realizzare una lut a 4 dimensioni con in ingresso e uscita la terna rgb e l'illuminante. Servirebbe uno standard nuovo per i profili colore, ma sarebbe davvero geniale. |
| inviato il 07 Novembre 2025 ore 19:07
Grazie Raamiel, questo volevo sapere: la luce che produci e leggi in questi test copre uno spettro di colori più ampio di qualsiasi ColorChecker. Qui sta il vantaggio. O c'è anche dell'altro? |
| inviato il 07 Novembre 2025 ore 19:46
“ Raamiel, la spiegazione, anche se non entra giustamente nei dettagli per svariati ed ovvi motivi, e' piuttosto chiara. Una domanda semplice. Siamo proprio sicuri che la correzione in una situazione (scena) sia perfettamente efficace in qualsiasi altra? „ No, al cambiare delle condizioni di luce deve per forza cambiare anche la correzione che il profilo effettua. Per questo il sensore va modellato e profilato su più illuminanti. Il vantaggio dei profili DNG è il fatto che adesso possono contenere informazioni fino a tre illuminanti diversi. Questo non li rende automaticamente più precisi, ma più duttili. Significa che un singolo profilo può descrivere efficacemente tre condizioni di luce diverse e quello che ci sta in mezzo. Il profilo Standard che ho previsto è composto da D75-D55-LedB1; che in termini più pratici significa che copre le condizioni Cloudy, Daylight e l'illuminazione artificiale Led calda. il profilo Studio invece ha come illuminanti Flash 5500K-D50-StdA; quindi un tipico flash monotorcia, il D50 ufficiale per riproduzioni e la luce al tungsteno. Ma il sistema Spectre ci consentirà di modellare i profili su qualsiasi illuminante, sia esso standardizzato o misurato. Anche su richiesta specifica di un cliente. “ Ripropongo la domanda che ho fatto in precedenza: la luce monocromatica che fai vedere al sensore passa attraverso un obiettivo oppure cade direttamente sul sensore? „ Passa attraverso la lente. Facciamo così perché all'atto pratico ha più senso. Esiste anche la metodologia per misurare le SSF del sensore senza un tramite ottico, ma lì lo scopo è conoscere la risposta nuda e cruda del sensore per scopi di analisi particolari, non di profilazione. “ Quello fenomenale del vostro lavoro è che si potrebbe realizzare una lut a 4 dimensioni con in ingresso e uscita la terna rgb e l'illuminante. Servirebbe uno standard nuovo per i profili colore, ma sarebbe davvero geniale. „ Ci si potrebbe spingere ancora oltre e spostare la questione sugli spettri degli illuminanti. L'idea sarebbe quella di svincolarci dalla temperatura e tint a cui siamo abituati, ma piuttosto indicare al software la natura spettrale dell'illuminante. Congiuntamente alla libreria di curve SSF il software potrebbe calcolare on the fly il profilo specifico, ottenendo anche il calcolo del neutro. Quindi avresti bilanciamento del bianco e caratterizzazione in un sol colpo. Sarebbe un lavoro enorme... un concetto di software totalmente nuovo, chissà se un giorno lo realizzeremo. Il progetto Spectre ne costituirebbe la pietra angolare. “ Grazie Raamiel, questo volevo sapere: la luce che produci e leggi in questi test copre uno spettro di colori più ampio di qualsiasi ColorChecker. Qui sta il vantaggio. O c'è anche dell'altro? „ La luce monocromatica ci serve per calcolare le curve SSF. Una volta ottenute possiamo usare un target composta da quello che vogliamo, lo assembliamo con tutto quello che ci potrebbe essere utile; campioni spettrali da foreste, skintone, qualsiasi cosa. E lo possiamo esporre virtualmente su qualsiasi illuminante. In pratica è come avere sempre la macchina fotografica disponibile e scattarci nuovi target in nuove condizioni ogni volta che ti serve. |
| inviato il 07 Novembre 2025 ore 20:07
Ottimo Raamiel, ottimo. Grazie del feedback |
| inviato il 07 Novembre 2025 ore 21:21
“ La famosa fedeltà cromatica del bianco e nero... Tipico esempio della rappresentazione del reale in fotografia „ Avresti ragione se fosse nata prima la fotografia a colori, ma non è stato così! |
| inviato il 07 Novembre 2025 ore 21:53
@Perbo fra l'altro anche molti Juzini hanno aiutato Cobalt con i dati e loro hanno ringraziato! |
| inviato il 07 Novembre 2025 ore 22:13
“ Esiste un riferimento cromatico misurabile più accurato dei profili attuali usati per demosaicizzare i RAW, da Adobe e co? „ In effetti non lo so e non mi interessa. Se adopero io profili adobe la foto mi piace, ma la trovo sempre scialba. Il colore deve essere a modo mio e non perfetto. Facendo spesso foto di paesaggio, preferisco colori che si avvicinano a una pellicola come la velvia e della naturalezza e veridicità del colore me ne infischio |
| inviato il 07 Novembre 2025 ore 23:02
Vorrei spendere due parole per spiegare meglio il perché dei profili. Io capisco benissimo che la realtà oggettiva di per sé magari non è così attraente e che un fotografo poi voglia metterci la sua impronta; giustissimo. Del resto sarebbe alquanto triste essere forzati ad avere foto solo e soltanto realistiche, senza libertà artistiche. Ma allora perché i profili? Perché per arrivare alla foto pronta per la post-produzione c'è tutta una catena. E in questa catena succedono molte cose, tutte cose che accadono prima che il fotografo abbia in mano il controllo. Il processo creativo parte soltanto dopo certi specifici passaggi. La catena ideale degli eventi è la ben nota: Linearizzazione->Demosaicizzazione->WB->Caratterizzazione Ma si tratta di uno schema semplificato e ideale. Fatto sta che il fotografo ha il controllo dopo che abbiamo attraversato lo stadio di colorimetria dei profili; sempre. Se questo stadio nei primi sensori ad immagine a colori era una semplice matrice, ad oggi le cose sono dovute cambiare radicalmente. Per tenere il passo con la tecnologia sempre più avanzata dei sensori. Nello standard DNG lo stadio di colorimetria si compone di tre sezioni: ColorMatrix ForwardMatrix HueSatMap La ColorMatrix serve per l'identificazione dell'illuminante. La ForwardMatrix è la conversione colorimetrica da rgb device-dipendent a XYZ D50. La HueSatMap è una Lut, solitamente 2.5D in HSV riferito al ProPhoto, siamo già in output-space e serve per rifinire il lavoro della ForwardMatrix con le trasformazioni non lineari che sono impossibili per una matrice. Tutto bello, così è scritto in specifica ufficiale. Ma non tutto è scritto nero su bianco. Infatti occorre aggiungere dei passaggi logici ulteriori. Le ForwardMatrix per essere colorimetriche dovrebbero avere moltiplicatori negativi (e sui vecchi profili Adobe andava così), ma questi moltiplicatori negativi reagiscono male a stimoli estremi e andare a pacco è un attimo. Quindi nell'implementazione più moderna queste matrici vengono limitate; nessun moltiplicatore negativo. Ottimo, ma ciò significa che una parte importante della fase di caratterizzazione si trasferisce nello stadio successivo, le HueSatMap, che devono necessariamente tenere conto di questa compressione. Quindi devono espandere le coordinate di colore, oltre che sistemarle dove dovrebbero stare; ma se espandessero esattamente come previsto da una matrice non limitata ritorneremmo al problema iniziale. Quanto devono espandere? Con che logica? Come si organizzano questi vettori? Nella specifica ufficiale questa parte è totalmente assente. Quindi i vari profilatori tipo BasicColor o Calibrite come si regolano? Non si regolano, producono profili costituiti solo da matrici e se ne sbattono. Facile la vita così. Adobe come si è regolata? Si potrebbe riassumere così: "Comprimi tutto, strozza il gamut e ×" Vediamo lo stadio di colorimetria di un profilo Adobe recente:
 Le palline sono le posizioni di colore delle tacche di un SG, nella posizione in cui dovrebbero stare. I vettori neri sono dove vengono posizionati dopo lo stadio di colorimetria. Non si tratta di errori, perché sono troppo grandi per essere errori. Sono scostamenti voluti, un gamut compression che definire aggressivo è poco; e non lo stiamo osservando per campioni estremi, lo vediamo già nelle patch di un SG. Nello spazio più esterno la compressione è ancora più evidente. Cosa comporta tutto questo? Che l'informazione collassa. Per forza di cose. Non è soltanto un discorso di colore preciso o colore non preciso; qui sparisce proprio il colore. E non esiste tecnica di post-produzione che possa farla riapparire questa informazione persa. Nada, sparita, per sempre. Il danno è fatto a monte dei controlli utente. Questo è lo stadio di colorimetria del profilo spettrale, stessa fotocamera, stesso SG:
 E credo che l'immagine si spieghi da sola. Chiudo con una domanda retorica: Comprereste una fotocamera ultimo strillo con 60Mp e 14stop di gamma dinamica, per poi passare le foto che fa in un software che vi toglie 20 megapixel e due stop di gamma dinamica? Così.. a buffo. Sarebbe una cosa logica vanificare le capacità di un sistema che costa migliaia di euro per colpa di quel collo di bottiglia costituito da un profilo fatto a cazzum? |
Che cosa ne pensi di questo argomento?Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 256000 iscritti, c'è spazio per tutti, dal principiante al professionista. |

Metti la tua pubblicità su JuzaPhoto (info) |