| inviato il 25 Giugno 2020 ore 23:29
Non conosco in profondità l'argomento ma mi viene in mente che per il rumore ci sono doverse componenti. L"ingrandimento sgrana (pixel più grandi) ma non influenza la gamma dinamica, che dipende da amplificazione (iso) e quantizzazione (bit del convertitore A/D). |
| inviato il 25 Giugno 2020 ore 23:31
fico ho scritto tutto che altro serve? |
| inviato il 25 Giugno 2020 ore 23:31
Luinge, pensa alla totalità delle informazioni nella foto intera o che resta dopo il crop, non al livello del singolo pixel |
| inviato il 25 Giugno 2020 ore 23:31
Mac, un riassunto con solo maggiore minore uguale? Ci metti un secondo |
| inviato il 25 Giugno 2020 ore 23:39
Ribadisco, si confonde la profondità colore o palette con la gamma dinamica. Mettiamola così Luinge, prendi una foto FF, recupera delle ombre tanto da da arrivare a vedere i primi artefatti, torna un pelo prima tanto da non vederne nella rappresentazione completa della foto, ora prova a fare uno zoom nella zona recuperata e vedrai che incomincerai a vedere rumore e artefatti. Ma ripeto, l'esempio di un quadrato che va da bianco e nero è semplice e chiaro, è quello che uso regolarmente in aula, più punti avrai per descrivere la sfumatura più morbida sarà, più tonalità di grigio potrai rappresentare. Il numero di grigi da poter utilizzare per quei punti è dato dalla palette, quindi se hai 100 punti ma 25 tinte...non cambierà nulla tra 25 punti e 100, se avrai 100 tinte ovviamente sì. La palette è data dai bit di profondità colore, che sono sì milioni o miliardi, ma dovete immaginarli per ogni colore. In pratica su una 8bit se si pensa al solo bianco e nero si avranno 256 toni di grigio. |
| inviato il 25 Giugno 2020 ore 23:41
L'elenco per punti non lo vuoi fare mac? |
| inviato il 25 Giugno 2020 ore 23:42
Fico come detto, a parità di focale, rimane la distanza tra piano di proiezione (pellicola o sensore) e soggetto, e l'immagine finale si presuppone riportata alla stessa dimensione per entrambe le immagini: Rumore del crop - maggiore PDC - minore Gamma dinamica - minore Palette - uguale Deformazione prospettica - uguale |
| inviato il 25 Giugno 2020 ore 23:44
|
| inviato il 25 Giugno 2020 ore 23:47
se sgrani gli occhi non hai letto il post precedente, che spiega in breve il perché. Poi ti direi vieni a fare un corso ...ma non mi permetterei mai perché sono ospite e non vengo a fare pubblicità di corsi. |
| inviato il 25 Giugno 2020 ore 23:54
Quindi mi paragoni un 270mm su ff ad un 135 su apsc....non stai facendo il crop del primo..... |
| inviato il 25 Giugno 2020 ore 23:55
Ragazzi, questo post è stimolante. E grazie a voi mi sto distraendo dal lavoro! In realtà, lo paragona ad un m4/3 non aps-c! |
| inviato il 25 Giugno 2020 ore 23:56
M4/3, parlavamo di crop 2x Hai mai pensato cosa sia un sensore più piccolo rispetto ad uno più grande? Un crop del primo |
| inviato il 25 Giugno 2020 ore 23:57
Questa informazione non era scontata. Non solo, ma se intendi paragonare un sensore m4/3 con un FF stiamo già in un ambito molto diverso. Considera che un crop da qualunque FF (tranne la 60MPixel Sony) di 2x ti porta ad avere meno pixel per rappresentare la scena. |
| inviato il 26 Giugno 2020 ore 0:00
fico perdona, se mi dici, scatto con su una FF con il 135 e lo paragono con lo stesso scatto croppato, i risultati sono quelli che ti ho elencato sopra. Se paragoni un 270mm 3.6 su FF ad un 135 1.8 su apsc la cosa diventa un pelino diversa e soprattutto dovremmo parlare di pari densità di sensore. Ipotizzando la parità di densità, per gli stessi identici motivi che ti ho spiegato precedentemente: Rumore APSC - leggermente maggiore PDC - maggiore Gamma dinamica - minore Palette - uguale Deformazione prospettica - diversa |
|

Metti la tua pubblicità su JuzaPhoto (info) |