| inviato il 17 Luglio 2022 ore 16:36
Trovo il pensiero di Zanmar coerente con le mie impressioni di uso della a7riii e della a7riv. I file della a7riv sono più fedeli alla realtà e danno maggior senso di profondità colore. Quando si usa si sente che c'è un salto generazionale sia come sensore che come usabilità della macchina. Paradossalmente trovo più sensato passare dalla 3 alla 4 che non dalla due alla tre. |
| inviato il 17 Luglio 2022 ore 19:09
Qualche pagina addietro avevo scritto: “ Cari miei, se prima non vi mettete daccordo sul significato della parola "sensore" non arriverete mai ad una conclusione! Difatti la parte sensibile dei primi sensori era solo una frazione della superfice perchè il resto era coperto dai circuiti. Circuiti che hanno occupato spazio sempre minore fino a quando vennero spostati dietro la parte sensibile. Così negli anni la superfice sensibile è aumentata arrivando ad occupare quasi totalmente la superfice del sensore, ma ancora oggi una frazione di spazio utile è occupata dal reticolo necessario per isolare i pixel... così per cercare di recuperare anche parte dei fotoni che sarebbero andati persi colpendo il reticolo hanno posizionato sopra i pixel delle microlenti... Però anche se è vero che il "collo di bottiglia" nell'attuale tecnologia è il supporto che raccoglie i fotoni ovvero il wafer di silicio. Limite che potrà essere superato soltanto usando un nuovo supporto magari quello organico di cui si parla da anni, è anche vero che i limiti del sensore non dipendono soltanto dal wafer difatti basterebbe eliminare la matrice Bayer per moltiplicare per 4 l'attuale superfice ricevente facendo in un solo colpo un salto simile o addirittura superiore a tutti i salterelli appena descritti.... Poi c'è tutto il resto a partire dai dark frame sottratti automaticamente fino ad arrivare a sofisticati interventi AI che possono fare ancora molto! „ Vedo che ancora non vi siete messi daccordo! La differenza è importante perchè se decidiamo che il sensore è soltanto il wafer di silicio possiamo affermare che quella tecnologia è matura ed è quasi al limite. Però le cose non sono così semplici perchè la sempre più spinta miniaturizzazione oggi permette di elaborare direttamente sul sensore (nel retro) diversi processi e questa riduzione delle distanze che deve percorrere il segnale ha permesso di scegliere se diminuire la potenza utilizzata ottenendo una serie di vantaggi che non sto ad elencare o avere un segnale migliore a potenza invariata con tutte le possibili vie di mezzo.... ... per non parlare di tutto il resto a partire dalle microlenti passando per il Bayer fino ai "processori" imbedded e ai vari SW che preparano i RAW e/o gli altri formati e tutte le altre diavolerie che nessuno ci dirà mai fino a che punto sono gestite direttamente dai vari "processori" imbedded nel sensore o dai processori esterni (quelli sempre più potenti che dovrebbero gestire menù e AI) tutti elementi che hanno la loro importanza e che sicuramente hanno ancora grandi possibilità di migliorare. |
| inviato il 17 Luglio 2022 ore 19:24
Ok, però secondo me a parità di dimensioni del sensore, le differenze tra le fotocamere degli ultimi anni, come QI, gamma dinamica e resistenza agli alti iso, sono davvero minime e si notano di solito solo con un ingrandimento al 100% |
| inviato il 17 Luglio 2022 ore 19:26
Il titolo parla di qualità dell'immagine ferma da 5 anni. Quindi si parla di macchina fotografica visto che il sensore da solo non dice abbastanza. Per me i miglioramenti ci sono stati. Poi dire se è tanto o poco penso sia una cosa personale anche legata al tipo di fotografia e al modello usato. |
| inviato il 17 Luglio 2022 ore 19:31
“ Sono stati migliorati enormemente altri aspetti (es. velocità di lettura, grazie ai moderni sensori stacked), ma la qualità d'immagine, intensa come combinazione di risoluzione-gamma dinamica-alte sensibilità è rimasta pressapoco uguale (a differenza degli anni precedenti, dove ad ogni nuova generazione di fotocamere corrispondeva un significativo miglioramento di qualità d'immagine). „ mi pare che il padrone di casa qua scrive questo nelle prime righe per spiegare il senso del topic. RISOLUZIONE-GAMMA DINAMICA-ISO. Il resto come dicevo sopra e' fatto e detto per parlare e sproloquiare... aggiungo cosi' per sport... se domani esce la r18 che e' la r17 con il numero incrementale scambiato sopra saremmo sommersi da gente che giura che il miglioramento della resa e' assoluto. e lo si vede SCATTANDO, perche' gli altri non lo fanno,. |
| inviato il 17 Luglio 2022 ore 19:33
Come non c'è stato miglioramento, negli ultimi quattro mesi ho letto di prodigiosi miracoli fatti con un sensore prodotto da Sony, ditemi; a chi bisogna dar retta ? |
| inviato il 17 Luglio 2022 ore 19:44
Ulysseita ci sono fenomeni da tastiere e chi sa scattare, non possiamo far passare che quello che dicono i primi vale e non vale quello che dicono i secondi. |
| inviato il 17 Luglio 2022 ore 19:59
Big il sensore è il sensore, non è che vendono il solo strato di recettori. Il sensore si intende quello che viene venduto, che comprende per progetto: Filtro bayer Eventuale filtro aa Microlenti Fotodiodi Amplificatori Bus transistor di reset Substrato di silicone Eventuale memoria e chip (stacked) Etc.. Alcuni componenti permettono di aumentare la capacità di raccogliere i fotoni, altri dipendentemente dalla tecnologia possono evitare dispersioni (amplificatori, convertitori..) migliorando quindi la resa finale, perché possono creare interferenze e/o calore. Al momento la parte di elaborazione dell'immagine, quella che “premastica” il raw, eliminando magari una parte di chroma noise, non sta sul sensore semplicemente perché non serve, il segnale oramai è digitalizzato e non si possono perdere informazioni. Domani potrebbero inserire più elettronica per gestire algoritmi AI. In ogni caso la parte di elaborazione non fa altro che far “apparire” il file migliore, ma sono tutti processi che potrebbero essere fatti a valle da sw anche su un pc. In pratica riducono rumore ma perdendo dettagli come qualsiasi operazione di post, e direi ovviamente perché i dati raccolti sono quelli. I miglioramenti veri sono quindi quelli che possono essere fatti riprogettando il sensore, come successo per i retroilluminati, o cambiando la struttura di silicio dei fotodiodi (silicio nero ad es.), o usando materiali in grado di condurre meglio la carica elettrica per evitare dispersioni, o ridurre lo spazio tra i componenti per lo stesso motivo. Poi ci sta la capacità del bus, perché la digitalizzazione comporta la perdita di informazioni e tanto maggiore è il numero di bit tanto meno se ne perdono; purtroppo i bit come in una cpu chiedono energia…energia=calore e interferenze… Questo solo per semplificare perché la progettazione e costruzione di un sensore fotografico sta ben oltre le nostre capacità. Big anche la computazionale è spesso descritta come miracolosa, ma la realtà è che si tratta di processi che comportano dei compromessi perché sempre post produzione è….la resa iso è una cosa ben diversa. |
| inviato il 17 Luglio 2022 ore 20:09
@Mactwin Corretto! Volevo soltanto far notare che la sommatoria di tutti i componenti che hai diligentemente elencato se diversamente miscelata può ancora dare risultati visibilmente differenti anche se gli attuali wafer sono vicini al limite fisico... poi io credo che con lo spostamento all'interno del sensore di alcuni processi ci siano ancora buoni margini, ma non ho documentazione a supporto. Poi è ovvio che per ottenere un incremento significativo le opzioni sono il superamento del Bayer e/o l'uso di un nuovo supporto al posto del classico silicio |
| inviato il 18 Luglio 2022 ore 0:46
mah.. per l'ennesima volta si parla di sensori come senza mai parlare dei processori che sono quelle sciocchezze che in realtà fanno la differenza anche usando il medesimo sensore, ed ogni brand ha il proprio. |
| inviato il 18 Luglio 2022 ore 7:53
Mirko il processore fa parte del processo di elaborazione descritto sopra e come ho detto non aumenta la capacità del sensore, non migliora la qualità di immagine ma la rende solo più gradevole facendola sembrare migliore, esattamente come farebbe uno pratico con ACR o qualsiasi programma di elaborazione immagini. Da anni hanno incominciato a pre-elaborare i raw, che in origine erano veramente grezzi, eliminando ad esempio buona parte del croma; eliminando...non trasformando in dettaglio, in pratica invece di puntini colorati ci sono puntini con informazioni derivate dalla media degli adiacenti o semplicemente bianchi. La computazionale non fa altro che prendere una serie di immagini e unirle eliminando alcuni artefatti, cosa che sarebbe possibile con programmi su pc e che comunque vanno bene se stai facendo un panorama. I processori sono indispensabili invece per l'operatività, per la gestione dell'af, la capacità di gestire tanti fps, per l'esposizione, la velocità elaborativa in genere.....con la reale QI non c'entrano veramente una mazza...ZERO. Quello che il sensore è riuscito a catturare è quello e quello resta. La capacità di elaborare meglio quanto catturato ha però importanza sul file jpeg, quello sì, vero...perché permette a chi necessita del file pronto di avere un risultato migliore o peggiore, ed in quello serve la CPU (ma in realtà non la CPU quanto i programma che ci gira sopra, senza quello la CPU sarebbe solo un pezzo di silicio e metalli). Il confronto dei raw sui vari siti che mostrano le immagini dice molto poco, perché è come se si confrontassero due dng uguali elaborati da due persone diverse con diversi programmi . Magari uno ti appare migliore e meno rumoroso, ma è solo una questione di elaborazione, in realtà non cambia nulla e quando operi sui file in modo opportuno ottieni lo stesso risultato. L'analisi a laboratorio è invece già più affidabile perché indica precisamente quante informazioni ci sono, quanta dr, la corrispondenza colore, il snr, la gamma tonale, la corrispondenza iso....tutte informazioni che messe insieme ti indicano se e quanto un sensore è "effettivamente" più performante di un altro, al netto di elaborazioni di post cattura...quindi post-produzione fatta dalla cpu. Sono proprio tali dati che evidenziano come la capacità di cattura dei sensori sia oramai estremamente appianata. |
| inviato il 18 Luglio 2022 ore 8:26
"Magari uno ti appare migliore e meno rumoroso, ma è solo una questione di elaborazione" è la sensazione che anche io ho avuto guardando le immagini in illuminazione fioca a ISO 12800 su DPReview e di cui riferivo sopra quando scrivevo appunto che magari il file della A7Riii sembra leggermente più pulito di quello della Nikon Z7ii ma in compenso sembra meno inciso. Non lo avevo scritto per non sembrare pedante ma anche io penso che i confronti visivi così condotti possono essere ingannevoli mentre un calcolo matematico del SNR riassunto in un sintetico numerino è molto più chiaro sempre e comunque a patto che venga precisato se il file RAW è stato o meno 'cucinato'. Questo mi pare sia ciò che tenta di fare ad es. il sito Photonstophotos. Certo che se il raw viene cucinato i numeri a quel punto non possono dire molto e sta solo a noi guardando l'immagine risultante decidere se preferiamo più dettaglio e più rumore o il contrario. |
| inviato il 18 Luglio 2022 ore 8:31
Negli interventi precedenti sarebbe emerso che molti o almeno alcuni nell'uso pratico passando da Sony di generazione precedente a quella attuale percepiscono un significativo incremento di qualità, cosa che contraddirebbe l'assunto iniziale di Juza. Sarebbe interessante conoscere l'esperienza pratica di chi invece è passato dalla Canon 5Dmkiv alla R5 o di chi è passato dalla Nikon 850 alla Z7ii o alla Z9. |
| inviato il 18 Luglio 2022 ore 9:07
A proposito di sensori, ci sono novità/evoluzioni del sensore Sony da 100mpx che equipaggia le Fuji gfx 100 e 100s? È sul mercato da qualche anno e mi immagino che la ricerca vada avanti. |
| inviato il 18 Luglio 2022 ore 9:17
Andrea la percezione di un utente può dipendere da tanti fattori, è indubbio che tra un file da 42mpx ed uno da 61mpx ci siano delle differenze che vanno oltre l'elaborazione post cattura, sono due file diversi di due sensori diversi. I dati di laboratorio mostrano una sostanziale eguaglianza come resa una volta in stampa, mentre ovviamente a monitor il file della 7r3 mostrerà meno rumore. Le lievi differenze sono comunque qualcosa di percepibile (in minima parte) in determinate aree, dove per far un esempio, a bassi iso la 7r4 si comporterà meglio della 7r3 per dinamica, mentre ad alti si invertirà la cosa, ma alla fine si tratta di cose minime. Quindi il sensore non è migliorato? Beh....sarebbe sciocco dire ciò, in pratica hanno ottenuto una qualità praticamente identica riducendo però la dimensione dei sensel, che chiaramente ha portato ad un aumento di risoluzione. Ciò permette, quando le condizioni lo permettono, di sfruttare il maggior numero di informazioni per ottenere degli ingrandimenti. Che poi ci possano essere stati cambiamenti nella successiva gestione del colore...può essere, ma sinceramente non penso che sia nulla di non pareggiabile visto che il laboratorio riporta valori molto simili...si tratta solo di regolazioni. Le reali differenze sono invece in tutto ciò che circonda l'immagine, nelle funzionalità della macchina. |
Che cosa ne pensi di questo argomento?Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 251000 iscritti, c'è spazio per tutti, dal principiante al professionista. |

Metti la tua pubblicità su JuzaPhoto (info) |