| inviato il 30 Giugno 2020 ore 14:18
si ma non è che siamo leggerissimamente fuori tema? Dalla Leica a vapore ai televisori 8k ci passa un pianeta con tanto di orbita! |
| inviato il 30 Giugno 2020 ore 14:55
“ I 4K ed ancora più i critici (per le risorse richieste) 8K servono in sede di sensore, non di visualizzatore. „ Se per "visualizzatore" s'intende anche il monitor del computer, nell'ambito della post produzione (fotografica, grafica e, peggio ancora, video) la maggiore risoluzione serve, eccome (intendo maggiore del FHD, quindi anche 4-5K e oltre)! Ma non da oggi...almeno da una decina d'anni! Per quanto riguarda i TV, ce ne sarebbe da dire, ma andremmo troppo OT quindi mi astengo. |
| inviato il 30 Giugno 2020 ore 15:36
Caro Maserc, come ha scritto più che correttamente Valgrassi, il problema è la MTF del visualizzatore, che non consente di vedere differenze su di un monitor da 50'' tra 4K ed HD se non a distanza pari od inferiori a grosso modo 1,5 metri. Ma chi vede a 1,5 metri un televisore da 50''? ... Quasi nessuno ... Dico grosso modo 1,5 metri proprio perchè ognuno di noi ha una MTF diversa: la vista non è uguale per tutti: chi ha 10-11 decimi potrà magari andare a 1,8 metri, chi ci vede poco a 1 metro (ad esempio). Questo è un concetto spesso dimenticato, ma particolarmente in auge un tempo quando le foto si stampavano e non si vedevano a monitor e dove ottiche oggi reputate fondi di bottiglia regalavano foto perfette, come il grande e semplice (4 lenti) Zeiss Tessar che ha fatto la storia della fotografia. Questo per dire, tornando in OT, che i 40 e più MPX non servono per vedere meglio, servono per fare i CROP. E basta. Questo perchè una immagine 4K è circa 8MPX ed una HD è circa 2MPX, quindi pensate a quanto spreco c'è per ficcare i 40MPX su di uno schermo 1280X1920 di risoluzione (40MPX quando ne basterebbero 2) e quanto downscalling ci deve essere. |
| inviato il 01 Luglio 2020 ore 6:14
Leitz che propone sensori 40+ Mpx probabilmente "aiutata" da Panasonic. Che fine ha fatto la storia che 24 Mpx FF sono più che sufficienti e "difatti Leica non propone più di 24 Mpx"? Era una frescaccia. Adesso una seconda frescaccia di complemento è questa: "Leica va a caccia di "micci", possibilmente danarosi, 47 Mpx non servono". Poiché Sony è già arrivata a 61 Mpx e Fuji a 100 Mpx, che è? Contano sui "micci" a livello mondiale? Sony e Fuji non sono due "Cenci&Vetri", possibile che facciano così gran conto sui "micci"? E Phase One coi suoi 150 Mpx? Chi pontifica la risposta se l'è già data, vive circondato da "micci" e si deve adeguare. |
| inviato il 01 Luglio 2020 ore 8:11
Quindi secondo voi Leica se ne deve stare buona con 24 MXP tanto non servono, sicuramente non servono a chi ha ottiche da kit, fatte di plastica sia fuori che dentro, assemblate un tanto al braccio. Nel mio monitor le differenze le vedo e per me questo basta. |
| inviato il 01 Luglio 2020 ore 8:39
Non servono, infatti di Sony a7rx non ne vendono neanche a saldo |
| inviato il 01 Luglio 2020 ore 9:20
@Belles guarda che molti non hanno mai osservato un 47 Mpx attentamente, è per quello che sono innamorati dei 24 Mpx... Torniamo a MTF(sensore) adesso. Ogni MTF che si era riportata è una trasformata di Fourier (FT). (Ci lotto dal 1976 con le FT, fiducia!). Vantaggi tanti Mpx: - crop intensi preservando stampabilità, OK - stampe veramente grandi, OK Se uno è un altro HCB e non croppa mai e in stampa non va oltre 30x40 cm, fa bene ad accontentarsi di 24 Mpx con filtro AA (in Leica però l'AA l'avevano già tolto da tanto) Approcciamo il sensore come se fosse un filtro (ma è un rivelatore con una certa banda passante, non un filtro). Cosa filtra? La qualità della resa quando si ricorre ad alte frequenze spaziali. Un po' oscuro, no? Confrontiamo un'ottima Nikon D700 con una Sony A7R4. 12 contro 61 Mpx. Il partito del 24 Mpx è contento anche con la D700 e perché no? È una splendida FF figlia minore della rivoluzionaria Nikon D3 (ai tempi). Guardiamo sotto il cofano. La D700 ha un fotosito da 8.46 µm. Cosa filtra? Da 59 lp/mm in su. Bastano 59 lp/mm? Certamente. Ma che male fa la D700 a 59 lp/mm ad un obiettivo capace di risolvere 59 lp/mm? Gli appioppa una MTF=0.64 (0.6366 in realtà). E la R4 con un fotosito (sensel) da 3.76 µm? MTF=0.70. In soldoni: la D700 è in aliasing, la R4 no. Bisogna notare che la D700 col filtro AA va sotto a MTF=0.64, inevitabilmente (a proposito, si calcola facilmente la FT di un AA, è un inoffensivo cos...). Siamo a questo punto: 12 Mpx peggiorano il contrasto a 59 lp/mm che di per sé è già mediocre. Può darsi che la R4 tenga le 59 lp/mm visibili mentre la D700 le porta ad un livello tale che è tutto grigiastro, l'occhio non discrimina il contrasto. Che colpe ha il sensore con tanti Mpx? Nessuna. Ma se uno non capisce il digitale imputa al sensore quella che è una colpa della MTF dell'obiettivo. Lapalissiano che più crescono le lp/mm più decade la MTF(obiettivo). Ma il sensore al massimo aiuta un'ottica al limite della MTF visibile, non la pugnala mai alla schiena. Quindi: perlomeno si è chiarito l'equivoco di chi incolpa il sensore di colpe che non ha. Incidentalmente, uno monta obiettivi Leica proprio perché a 59 lp/mm ha ancora MTF rispettabili, un peccato immiserirli con pochi Mpx! E quelli che montano un super-risolvente su una 12 Mpx, mettiamo il 135/1.8 GM sulla Sony A7SII? Si è detto che il sensore è un filtro. Questi si scordano di registrare lp/mm più alte di 59 dal 135 in oggetto. Contenti loro... |
| inviato il 01 Luglio 2020 ore 9:34
Valerio lo chiedo pure a te, che qui ognuno ha il suo punto di vista. Ma maggiore risoluzione, significa anche più colori e quindi migliori sfumature? |
| inviato il 01 Luglio 2020 ore 9:48
@Massimo in teoria, ma se continui a rimpicciolire i fotositi vieni ripagato da SNR minore, quindi le famose "gradazioni di colore" diventano rumore ben spalmato. Il compianto Nasse della Zeiss citava spesso "energia". Perché? Perché dobbiamo farci guidare dalla conservazione dell'energia che fino a prova contraria vale nel nostro universo (lasciamo perdere i multiversi...). Ora, se aumenti la risoluzione degradi la qualità in quanto SNR, inutile illudersi. Il discorso apparentemente sensato che i sensori non hanno progredito negli ultimi dieci anni non sta in piedi. Infatti la tua R4 è pure afflitta da meno rumore della Nikon D3, ma a che risoluzione? Ci sono muri invalicabili, ad es. f/0.5 oppure la risoluzione max di un obiettivo controllata dalla diffrazione anche se elimini qualsiasi aberrazione. Poi c'è la luce che più è intensa e più fa rumore, ma lì il problema non esiste, perché noi non percepiamo il rumore bensì SNR. Chiedi a qualsiasi amico fotografo dove c'è più rumore e ti risponderà "nelle ombre". In realtà di rumore shot noise ce n'è molto di più nelle alte luci, solo che è bilanciato da un segnale altrettanto forte. |
| inviato il 01 Luglio 2020 ore 9:58
Rumore sì, ma colorato. E chi lo stabilisce di che colore è? È casuale? O contribuisce comunque alla resa cromatica? Per quanto aumenti il rumore, non credo che impatti più del fotosito stesso, altrimenti ad un certo punto, avremmo soltanto un certo rumore non meglio identificato, e non dettagli. |
| inviato il 01 Luglio 2020 ore 10:12
@Simone a livello di sensore croppi finché vuoi e SNR non cambia, come è ovvio. I problemi nascono quando ingrandisci il crop. Da mie prove pedestri (Sony A7R) vedi prima la perdita di risoluzione reale del rumore. In sostanza quando ingrandisci un crop aumenti artificialmente la risoluzione e allora ti aspetti anche SNR minore. Solo che questo abbattimento di SNR non lo vedi bene se sei partito da un'immagine ad alto SNR. Invece croppi e croppi e ti ritrovi con troppo pochi pixel. Tutto questo lo vedi se fotografi oggetti (caratteri, in pratica) piccoli e lontani. Poi c'è Topaz e AI, ma lasciami dire che se non ricostruisce i caratteri deve essere un'AI parecchio povera! Per questo motivo ho contestato la sparata che se croppi una FF a aps-C hai una dinamica VISIBILMENTE degradata (a livello di misura di laboratorio è lapalissiano che si perda dinamica!). Cavalletto e ISO più bassi e croppi fino a domani, altroché! |
| inviato il 01 Luglio 2020 ore 10:13
@Maserc....Secondo me dovresti pensarlo in base alle dimensioni di stampa... anche se hai teoricamente più informazioni non le vedrai se stampa è fino ad una certa dimensione (300/240 dpi ) |
| inviato il 01 Luglio 2020 ore 10:19
Uhm...allora cerchiamo di capirci. A monitor è possibile rappresentare miliardi di differenti colori. I pixel invece sono nell'ordine dei milioni. Quindi in linea teorica, ogni singolo pixel potrebbe avere un colore diverso dall'altro, giusto? La stampa riduce il numero dei colori? In teoria no, anzi mischiandosi i colori sulla carta, l'effetto dovrebbe essere ancora più marcato. |
| inviato il 01 Luglio 2020 ore 10:33
Non penso perché le goccioline hanno una dimensione fisica e cercheranno di riprodurre il colore come possono... oltre i 300 Dpi nemmeno se ti attacchi alla stampa vedresti una differenza con 600dpi .... poi come sai più ti allontani più abbassi i dpi tanto non li distingui |
| inviato il 01 Luglio 2020 ore 10:41
Non pretendo di vedere il singolo dot. Ma se parto da più sfumature nel file (in teoria 1 colore diverso per pixel), posso avere anche più sfumature in stampa. |
Che cosa ne pensi di questo argomento?Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 251000 iscritti, c'è spazio per tutti, dal principiante al professionista. |

Metti la tua pubblicità su JuzaPhoto (info) |