JuzaPhoto utilizza cookies tecnici e cookies di terze parti per ottimizzare la navigazione e per rendere possibile il funzionamento della maggior parte delle pagine; ad esempio, è necessario l'utilizzo dei cookie per registarsi e fare il login (maggiori informazioni).

Proseguendo nella navigazione confermi di aver letto e accettato i Termini di utilizzo e Privacy e preso visione delle opzioni per la gestione dei cookie.

OK, confermo


Puoi gestire in qualsiasi momento le tue preferenze cookie dalla pagina Preferenze Cookie, raggiugibile da qualsiasi pagina del sito tramite il link a fondo pagina, o direttamente tramite da qui:

Accetta Cookie Personalizza Rifiuta Cookie
RCE Foto






Login Logout Iscriviti a JuzaPhoto!

Leica, nuove collaborazioni e performance sensori


  1. Forum
  2. »
  3. Fotocamere, Accessori e Fotoritocco
  4. » Leica, nuove collaborazioni e performanc...





avatarsenior
inviato il 12 Gennaio 2026 ore 21:09    

Buonasera amici,

ci riproviamo, nel thread precedente la discussione è degenerata da entrambe le parti (mi ci metto pure io) ed è un peccato perchè potevano arrivare spunti interessanti.

In questa sono tutti invitati se lo vorranno a dare il loro contributo.

Innanzitutto una notizia che è passata sottotraccia, Leica ha stretto una collaborazione con Capture One come SW principale di utilizzo.

leica-camera.com/it-IT/stampa/leica-camera-ag-annuncia-la-partnership-


E' interessante perchè Leica non ha mai avuto un SW proprietario, a differenza degli altri brand, questo aveva pregi e svantaggi, il pregio era quello di avere un RAW con protocolli "aperti", che potessero essere gestibili da tutti i SW e quindi non serviva aggiornare i SW ad ogni nuovo modello di fotocamera, come con gli altri brand

Lo svantaggio era quello che non esistevano profili canned sviluppati dalla casa madre (correggetemi se sbaglio).

Ora la domanda è: con questa nuova collaborazione, verranno profilati tutti i modelli in maniera differente? Ricordo che esistono già i profili standard su C1.

Ma ad es. quando Fuji ha annucniato anni fa la collaborazione con C1, sono state messe a disposizione le emulazioni originali delle varie pellicole, cosa preclusa prima della collaborazione.

Altro annuncio importante è che Leica ha abbandonato Sony come produttore terzo per i sensori delle sue fotocamere ed ha avviato una collaborazione oramai dal 2022 con l'italiana Osram.

Raamiel e Yly sono intervenuti dicendo che la separazione colorimetrica dei sensori Leica era inferiore a quella delle altre marche, diamo per buona questa informazione, io ho provato ad informarmi anche con l'aiuto dell'AI e questo è quello che è uscito:

"il fatto che i sensori Leica (in particolare della serie M) mostrino una separazione colore inferiore misurata al monocromatore è ampiamente considerato una scelta progettuale consapevole, legata a compromessi ingegneristici specifici per mantenere il "look" tipico del marchio.

Ecco le ragioni tecniche e progettuali dietro questa evidenza:

Filtro Matrice di Bayer più sottile: Per ottimizzare la nitidezza e il micro-contrasto, Leica utilizza spesso filtri colore (CFA) con pigmenti meno densi o strati più sottili. Questo permette a più luce di raggiungere i fotodiodi, migliorando la sensibilità e la resa dei dettagli, ma aumenta il cosiddetto crosstalk spettrale (sovrapposizione tra i canali rosso, verde e blu).

Transizioni Tonali Morbide: Una separazione cromatica meno netta (ovvero canali che si sovrappongono maggiormente nelle frequenze di taglio) genera transizioni di colore più graduali e organiche. Questo contribuisce a quel "rendering pastoso" o simile alla pellicola che molti utenti preferiscono rispetto alla precisione "chirurgica" e talvolta fredda dei sensori Sony o Canon.

Gestione dei raggi inclinati (M-mount): I sensori Leica M sono progettati con micro-lenti ottimizzate per ricevere la luce dagli obiettivi M, che hanno una distanza flangia molto corta. Filtri colore troppo spessi o selettivi potrebbero causare maggiori problemi di vignettatura cromatica (color shift) ai bordi dell'immagine; un filtro più permissivo aiuta a mantenere l'uniformità luminosa.

Priorità alla Luminanza: Spesso Leica sacrifica una parte della discriminazione cromatica pura per massimizzare la qualità della luminanza, come dimostrato dalla loro dedizione ai sensori Monochrom, che eliminano del tutto la separazione colore per ottenere la massima risoluzione e gamma dinamica possibile.

In conclusione, non si tratta di un limite tecnologico (considerando che Leica collabora con i principali produttori di sensori), ma della volontà di privilegiare il micro-contrasto e una resa estetica calda a scapito di una separazione colore estrema che renderebbe i file più neutri e simili alla concorrenza."


Quindi, sembrerebbe una scelta ponderata dai tecnici Leica.

Ovviamente l'AI a volte sbaglia, anche di grosso e ricordiamoci che Leica ha una storia di fail con i sensori abbastanza ricca, ricordiamoci la corrosione dei sensori kodak CCD e il problema della biforcazione di quelli della M10r.

Ma quindi, è da intendersi comunque uno svantaggio una minore separazione colorimetrica, oppure può regalare transizioni e sfumature più morbide?

Magari, chiedo ad Ivan se conosce qualcuno in leica a cui fare alcune domande di carattere tecnico (anche se sarà difficile).

In ultimo, vi linko un video di un fotografo appassionato della sua M9 con la quale fa produzione e stampa, che mette a confronto l'M9 appunto con la M11, sia a livello colorimetrico che a livello di risoluzione, aumentando il file della M9 a 60MP, guardatelo, è interessante secondo me.

Una parte del fascino dei CCD è data dai suoi profili colore che sono stati realizzati almeno 17/18 anni fa quando si tenteva a prendere come referenza le pellicole fotografiche, ecco perchè i CCD risultano più filmici, aggiungiamo poi che l'immagine risulta più organiza proprio per la matericità maggiore del file, quella specie di grana che risulta molto difficile da simulare.



Bene, lo considero un ultimo tentativo per poter discutere serenamente.

Grazie a tutti.

avatarsenior
inviato il 12 Gennaio 2026 ore 22:06    

(Ri)seguo.

avatarsenior
inviato il 12 Gennaio 2026 ore 22:21    

Apprezzo il tuo tentativo e cerco di collaborare io vorrei capire il perchè:

Se si aumenta la discriminazione cromatica pura si diminuisce la qualità della luminanza.

La discriminazione cromatica di un sensore digitale si riferisce alla capacità del sensore di distinguere e riconoscere diversi colori.

La luminanza di un sensore digitale è la quantità di flusso luminoso che il sensore può rilevare e misurare

Ora un sensore è composto dagli stessi fotodiodi, il grado di segnale che può raccogliere dipende dal numero di bit dedicati, per ogni fotodiodo il sensore da un segnale da 0 a 2 elevato i bit di profondità di colore.

In più c'è l'algoritmo di demoicizzazione che a fronte di un gruppo di fotodiodi adiacenti che per la matrice bayer dovrebbero essere minimo 1 rosso 1 blu e 2 verdi, non so quanti pixel adiacenti vengano interpolati per ricostruire il colore, assegna ad un pixel un colore rgb.

Ora quale è la legge per cui a fronte di uno stesso segnale registrato da un sensore di base uguale si possa avere luminanze e profonfità di colore diversa non la riesco ad intuire.

Le differenze o sono software oppure ci deve essere una componente fisica, potrebbero essere le microlenti, magari differente trasparenza, che ne determina resa divdrsa.

L'output numerico di un sensore Sony dovrebbe essere uguale, poi dopo interviene il software o prima vi deve essere una differenza fisica.

Stiamo parlando di fotografia digitale e numerica.

avatarsenior
inviato il 12 Gennaio 2026 ore 22:43    

Ma quindi, è da intendersi comunque uno svantaggio una minore separazione colorimetrica, oppure può regalare transizioni e sfumature più morbide?


Ci sono casi in cui si accetta di avere filtri meno spessi e discriminanti per massimizzare il rapporto segnale rumore.
Leggasi, sacrifico il colore per ridurre il rumore ad iso più elevati.
Ma nei test condotti non abbiamo rilevato nulla del genere. L'efficenza quantica della SL3 è solo di 1,36% maggiore della Z9, che però ha iso base 64.
Poi ci sono i test che misurano la facilità di trasformazione delle ssf nelle curve dell'osservatore standard, che presenteremo in forma finale quando sarà rilasciato il progetto.

Per adesso posso solo dire che i test mettono in evidenza uno svantaggio in quella specifica caratteristica, senza mostrare che ci siano vantaggi in altri campi.
Questo nuovo accordo con Osram magari cambierà del tutto le carte in tavola. Insomma staremo a vedere.

Spendo due parole in più cercando di chiarire perché tendenzialmente si cerca di massimizzare la separazione di segnale (almeno quando non ci sono esigenze di maggiore priorità).
Esiste il metamerismo di sensore e il metamerismo da osservatore.

Il metamerismo da osservatore è proprio dei nostri sensi; due spettri sono metamerici se inducono lo stesso stimolo e di conseguenza la stessa sensazione di colore.
Ora ci sono una quantità pressoché infinita di spettri che sono metamerici sull'osservatore. Questo non è un "difetto", si tratta di un limite, ma anche di una grande comodità.
Senza il metamerismo da osservatore la riproducibilità del colore sarebbe di fatto impossibile, perché a quel punto servirebbe l'esatto spettro per produrre la medesima sensazione di colore e monitor e stampanti sarebbero inservibili.

Quando si progetta un sensore si desidera avere un metamerismo quanto più simile a quello dell'osservatore standard, più ci avviciniamo e più il sensore è capace di raggiungere la condizione di Luther-Ives ed essere potenzialmente in grado di una ricostruzione perfetta dello scene-referred.
Nessun sensore ci arriva, ma i migliori ci vano piuttosto vicino.
Nel grafico che ho postato prima il punteggio di 100 è tarato proprio sull'osservatore standard; sostanzialmente sarebbe il valore ideale limite.

Un valore di 50 è molto scarso, 60 sei sulla sufficienza acchiappata per un soffio, 70 è un benino... sopra 85 è praticamente un colorimetro.

Quando si caratterizza un sensore, in un modo o nell'altro, gli si deve passare un certo numero di campioni noti.
Ognuno di questi stimoli ha una coordinata XYZ sull'osservatore e una terna rgb Device-dipendent. La tabella di associazione rgb Device-dipendent -> XYZ costituisce il campione di dati su cui viene addestrato l'algoritmo di fitting che tira fuori il profilo.

Per quanto sia numeroso il set e per quanto buono sia l'algoritmo, il metamerismo da sensore è già arrivato a far danni.
Più la separazione di segnale è scarsa e più e probabile che la corrispondenza tra quello che vede l'osservatore standard e quello che ricostruisce il profilo sia difforme.

Per questo motivo lo considero un difetto piuttosto rilevante; perché non riesco a metterci una pezza.
Non puoi risolvere nello stadio di colorimetria un problema che si presenta allo stadio di fotometria.

avatarsenior
inviato il 12 Gennaio 2026 ore 22:47    

Gainnj,

secondo me la partita si gioca al livello del CFA, dove il segnale luminoso viene scomposto.

Il punto dove l'AI può aver azeccato è proprio questo

Filtro Matrice di Bayer più sottile: Per ottimizzare la nitidezza e il micro-contrasto, Leica utilizza spesso filtri colore (CFA) con pigmenti meno densi o strati più sottili. Questo permette a più luce di raggiungere i fotodiodi, migliorando la sensibilità e la resa dei dettagli, ma aumenta il cosiddetto crosstalk spettrale (sovrapposizione tra i canali rosso, verde e blu).

Transizioni Tonali Morbide: Una separazione cromatica meno netta (ovvero canali che si sovrappongono maggiormente nelle frequenze di taglio) genera transizioni di colore più graduali e organiche. Questo contribuisce a quel "rendering pastoso" o simile alla pellicola che molti utenti preferiscono rispetto alla precisione "chirurgica" e talvolta fredda dei sensori Sony o Canon.


Sul resto invece, mi sembra che centri poco con il problema della separazione dei colori, le microlenti inclinate li hanno molti sensori, la citazione delle monochrom, poi, non ha molto senso.

Comunque guardate il video, fatemi sapere se preferite il timbro cromatico della M9 o quello della M11.

avatarsenior
inviato il 12 Gennaio 2026 ore 22:51    

seguo

avatarsenior
inviato il 12 Gennaio 2026 ore 22:52    

Ok Raamiel, grazie per essere intervenuto

Ti faccio questa domanda, quando tu dici:

Per quanto sia numeroso il set e per quanto buono sia l'algoritmo, il metamerismo da sensore è già arrivato a far danni.
Più la separazione di segnale è scarsa e più e probabile che la corrispondenza tra quello che vede l'osservatore standard e quello che ricostruisce il profilo sia difforme.


Quindi un metamerismo scarso indica una forbice più ampia tra quello che esce dal profilo, rispetto all'osservatore medio.

Questo però NON indica il colore "giusto", indica quando il profilo vada vicino ai campioni dell'osservatore medio, giusto?

avatarjunior
inviato il 12 Gennaio 2026 ore 23:01    

Non sono un tecnico ma da utente Leica sposo il risultato dell’AI.

avatarsenior
inviato il 12 Gennaio 2026 ore 23:04    

Ho guardato il video, non seguo quasi mai le recensioni video, troppo parole e pochi dati.
Io non sono in grado di valutare la a resa colore da un video.

Non capisco solo perchè in questi test non si usi una tabella colore Kodak.
Poi vorrei avere una conferma il colore che vediamo non è quello del jpeg?

Ma partendo da una foto di una matrice colore non è possibile ricostruire esattamente il timbro colore di un altra fotocamera?

avatarsenior
inviato il 12 Gennaio 2026 ore 23:08    

Se non ricordo male eravamo tutti d’accordo su un punto: anche quando il wafer di partenza è lo stesso, il sensore operativo non lo è mai, perché ogni brand interviene su filtri colore, stack ottico, microlenti, analog front-end e calibrazioni interne. È lì che nascono le differenze che incidono sul risultato finale.

Quello che ha scritto Paco va nella direzione che io intuivo: le certezze reali le hanno solo i tecnici Leica, tutti gli altri formulano ipotesi più o meno fondate.

Il vero punto di attrito, almeno per me, è stato il concetto di neutralità come obiettivo ultimo. Per alcuni la neutralità dovrebbe coincidere con il “giusto” risultato, ma per la mia cultura nessuna immagine è mai davvero neutra: ogni resa è legata a un sistema percettivo e a una cultura visiva. È vero che a certe lunghezze d’onda corrispondono certi colori, ma quei colori esistono solo dopo l’elaborazione fisiologica dell’occhio e del cervello. È dimostrato, inoltre, che uomini e animali vedono in modo diverso.

Per esperienza professionale in ambiti non fotografici ho portato esempi di come esistano vere e proprie culture del colore legate alle aree geografiche, che mettono in discussione l’idea di una verità unica. Il digitale tende a omogeneizzare tutto, ma questo non cancella le differenze di fondo.

A questo aggiungo un aspetto che viviamo tutti con gli smartphone: a ogni nuovo modello sembra che non abbia più senso investire in una fotocamera, perché tutto appare iper-nitido, contrastato, con immagini che “saltano fuori” dal monitor. Poi l’entusiasmo rientra, arriva l’analisi critica, e ci si accorge che quell’effetto non coincide con l’esperienza fotografica che molti cercano, che è meno spettacolare ma più empatica. È evidente che molti modelli fotografici moderni si stanno avvicinando a quella grammatica visiva, ma la cultura fotografica ha radici più profonde.

Se questa lettura è corretta, allora i dati di lettura del sensore Leica potrebbero non essere il frutto di un errore o di un limite tecnologico, ma di una scelta progettuale ponderata. Naturalmente tutto questo potrebbe essere smentito domani, se Leica adottasse una tecnologia con valori allineati a quelli dei competitor.

avatarsenior
inviato il 12 Gennaio 2026 ore 23:19    

@Raamiel

Posso chiederti se queste difficoltà nella profilazione le hai riscontrate in modo specifico sui modelli Leica basati sul sensore Sony da 60 megapixel, oppure se è una caratteristica che hai osservato più in generale su tutta la produzione Leica recente?

avatarsenior
inviato il 13 Gennaio 2026 ore 0:02    

@Paco

Significa che un sensore che ha un metamerismo alto alimenterà già di base l'algoritmo di fitting con dati che hanno un'incertezza di fondo. E questo si rifletterà sul profilo.

in pratica potrebbe verificarsi la condizione in cui due o più spettri collassano nella stessa coordinata rgb, ma che non sarebbero collassati nell'osservatore standard.

Questo è il dilemma.

avatarsenior
inviato il 13 Gennaio 2026 ore 0:16    

@Filo63

Per ora il nostro set di misure ha nel database solo la SL3 e la M10r, stiamo ancora espandendo il set di misure.

Sapevo che Leica non brillava sotto quell'aspetto, ma la misura mi ha sorpreso; tanto che ho ripetuto le misure due volte sulla SL3 e ben tre volte sulla M10r.

La M10r fa anche peggio, arriva solo a 57,5 nel test.
Io non sono nella testa dei progettisti che hanno realizzato quei sensori, ma mi riesce difficile pensare che sia stata una scelta calcolata. Non si capisce esattamente che cosa ci avrebbero guadagnato in contropartita.

Se si vuole una transizione morbida di sfumature, allora ottenerla in fase di colorimetria è molto più semplice che non scervellarsi per ottenere delle ssf che siano volutamente poco efficienti nella separazione.

Il concetto è che se hai informazione la puoi gestire come vuoi; ci metti una Lut e trasformi il colore come vuoi.
Il problema e quando ti manca quest'informazione. Lì non ci sono profili o Lut che possano risolvere.

avatarsenior
inviato il 13 Gennaio 2026 ore 0:50    

Precisione e piacevolezza non vanno sempre di pari passo, anzi una fotocamera più precisa é nel registrare i dati(separazione colore) più potrebbe allontarsi dal concetto di piacevolezza. La fotocamera è imbattibile nel misurare matematicamente un colore( frequenza d'onda specifica), l'occhio umano è influenzabile alla grande, per fare i colori piacioni la precisione assoluta non serve, per usi scientifici e industriali la fotocamera è precisa e non influenzabile, esempio le fotocamere satellitari hanno separazione colore estrema, ma le immagini sembrano aliene
Secondo me quel dato misurato sulle leica fa parte della "ricetta" leica del colore, dietro ci saranno studi, investimenti, personale qualificato.

avatarsenior
inviato il 13 Gennaio 2026 ore 6:47    

Seguo con interesse, grazie a tutti.

Che cosa ne pensi di questo argomento?


Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!

Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 257000 iscritti, c'è spazio per tutti, dal principiante al professionista.





banner

Metti la tua pubblicità su JuzaPhoto (info)


 ^

JuzaPhoto contiene link affiliati Amazon ed Ebay e riceve una commissione in caso di acquisto attraverso link affiliati.

Versione per smartphone - juza.ea@gmail.com - Termini di utilizzo e Privacy - Preferenze Cookie - P. IVA 01501900334 - REA 167997- PEC juzaphoto@pec.it

www.juzaphoto.com - www.autoelettrica101.it

Possa la Bellezza Essere Ovunque Attorno a Me