| inviato il 18 Luglio 2025 ore 18:59
Va be ma il problema non è la risoluzione. Già con 20 mpx si ha fotosiodi minuscoli. Aumentare ancora la densità può solo peggiorare le cose. Secondo me si potrebbe lavorare su iso base 100, 14 bit ecc… non è che i miglioramenti si hanno solo aumentando la risoluzione. Anzi. |
| inviato il 18 Luglio 2025 ore 19:03
@Vincenzo Basile Stiamo parlando di filosofie diverse che hanno portato a scelte diverse, ma quasi contemporanee. Difatti i due sensori di punta di Fujifilm e OM System anche se hanno pixel pitch simile (3.04 ?m Fuji e 3.35 ?m OM System) differiscono e di parecchio se prendiamo in considerazione il readout che in casa Fujifilm è uguale a un 1/30 mentre nella OM-1 che è Stacked arriva a un 1/125. E secondo me OM System commissionando a Sony un sensore stacked oltre quattro volte più veloce di quello commissionato da Fuji ha innovato molto di più! E siccome oggi OM System ha a listino ben 3 fotocamere stacked spero che non si limiti a chiedere un aggiornamento dell'attuale stacked e/o un sensore più denso, ma che chieda a Sony di fornirgli anche un sensore Global Shutter... @Alebri78 dixit: “ sony per anni ha avuto a catalogo un m4/3 da 40mpx, mai usato „ Questa notizia mi mancava... per favore posti il link con le caratteristiche? |
| inviato il 18 Luglio 2025 ore 19:09
Sul piano velocità si, sul piano risoluzione assolutamente no, con la Fuji posso scattare in crop 1.4X in 4/3 ed avere ancora 20mpx, oltre che sfruttare l'intero sensore in modalità 4/3. Sul discorso velocità, sia Fuji che olympus sono molto molto indietro e comunque il redout della Fuji xh2s è 1/180" Copia incolla dal sito Fujifilm I filmati Open Gate 6.2K possono essere registrati internamente a 30P con colore 4:2:2 a 10 bit. Il sensore CMOS BSI a strati da 26,1 MP della X-H2S offre un'incredibile velocità di lettura fino a 1/180 sec,* che controlla in modo preciso l'effetto rolling shutter, garantendo movimenti più naturali durante la registrazione video. |
| inviato il 19 Luglio 2025 ore 10:34
“ E siccome oggi OM System ha a listino ben 3 fotocamere stacked spero che non si limiti a chiedere un aggiornamento dell'attuale stacked e/o un sensore più denso, ma che chieda a Sony di fornirgli anche un sensore Global Shutter... „ Il problema è che non accadrà mai finchè soltanto OM System ha interesse in questo sensore e manco può pagare nessuno per farlo per il fatto che non ha milioni di dollari da investire per noleggiare un reparto R&D, linea di produzione e logistica a Sony per produrre un sensore 4/3 global shutter su richiesta di OMDS (come accade per Fujifilm col X-TRANS). O Sony lo produce perchè in alcuni settori c'è domanda per un sensore global shutter con le dimensioni di un 4/3 o altrimenti nisba. |
| inviato il 19 Luglio 2025 ore 10:43
In pratica vorrebbero sfornare una macchina che si inventa la foto. A questo punto potrebbero pensare ad un robot umanoide, dotato di visori particolari e che vada a fare foto, nel bosco, nella giungla, nella palude, dietro delega del fotoamatore stravaccato sul divano. |
| inviato il 19 Luglio 2025 ore 10:52
“ In pratica vorrebbero sfornare una macchina che si inventa la foto. A questo punto potrebbero pensare ad un robot umanoide, dotato di visori particolari e che vada a fare foto, nel bosco, nella giungla, nella palude, dietro delega del fotoamatore stravaccato sul divano. „ Vorranno più usarla per superare i limiti fisici del sensore come ad esempio applicare un denoise ai JPEG (o persino ai RAW!) migliore di quello che hanno ora (già il Denoise AI della OM-1 è eccellente per i JPEG), applicare un'algoritmo di upscaling AI per poter scattare a risoluzioni maggiori senza pixel shift (così non si ha effetto mosso) o per raddoppiare la risoluzione del pixel shift, usare sempre un'algoritmo di upscaling AI ma per rendere più usabile il teleconvertitore digitale 2x che hanno molte Olympus. E magari usarlo anche per eliminare il motion blur causato dalla fusione delle immagini, raddrizzare automaticamente le immagini già nel RAW, potenziare il loro algoritmo di rivelazione dei soggetti, ecc... |
| inviato il 19 Luglio 2025 ore 11:09
Il problema di aumentare la densità del sensore è, secondo me, connaturata al fatto che le foto oramai non si stampano quasi più, e la maggior parte sono viste su video. Ora il sensore da 20 megapixel regge bene il 4K, anche considerando il crop al rapporto 16/9, ma risulta inadeguato per l'8K che prima o poi comincerà a diffondersi (a nessuno piace vedere foto sul televisore con le bande nere ai lati). Il problema si presenta anche per gli altri formati (ma è maggiore per il 4/3 che ha il rapporto più lontano dal 16:9). Se dovessi progettare un nuovo sensore io lo farei con un rapporto d'aspetto di 16:9 e con una risoluzione di circa 33 o 66 megapixel, oppure circa 45 o 90 megapixel volendo mantenere il rapporto 4/3 (salvando il parco ottiche). Se questo aumento di risoluzione si può ottenere per interpolazione (con l'AI o con altri metodi) spetta ai reparti di R&D appurarlo. |
| inviato il 19 Luglio 2025 ore 11:11
Si ok, capisco che il pixel shift per avifauna e wild sia inapplicabile, ma il pixel shift non si inventa nulla, l'AI si poiché come minimo effettuerà delle interpolazioni. A me darebbe l'impressione di avere in mano una macchina che alla farina del mio sacco ne aggiunge parecchia del suo sacco. |
| inviato il 19 Luglio 2025 ore 13:15
Tutti i sensori Bayer et simila calcocalono parti mancanti dei pixel, solo le monocromatico hanno i pixel effettivi e anche le Merrill |
| inviato il 19 Luglio 2025 ore 14:55
La demosaicizzazione, per quanto sia un'interpolazione, non la si può paragonare, secondo me, ad una interpolazione dell'AI. La prima ha un comportamento strettamente prevedibile, la seconda no in quanto potrebbe addirittura inventare. |
| inviato il 19 Luglio 2025 ore 15:07
L'upscaling si basa sempre su algoritmi, questi algoritmi analizzano i pixel circostanti per determinare il colore e la luminosità dei nuovi pixel da aggiungere, migliorando la nitidezza e riducendo la sfocatura. In pratica i pixel aggiunti vengono calcolati, il problema è quanto siano efficaci questi algoritmi, ci sono già tanti software,non inventano calcolano, come gli algoritmi di demosaicizzazione. Il problema è che si parte già da pixel mancanti calcolati dai vari software di demosaicizzazione. |
| inviato il 19 Luglio 2025 ore 15:39
Il denoise da applicare al raw (che NON è un file immagine, ma sono numeri) è da segnare!.... |
| inviato il 19 Luglio 2025 ore 17:24
Be che c'è di strano, lo fanno eccome alcune fotocamere. I segnali possono essere manipolati a qualsisi livello. Chiaramente non é che uno ci applichi pari pari gli stessi algoritmi che applicheresti sul JPEG o in un'altra parte di un ipotetico workflow di sviluppo, sono cose ad hoc ma lo fanno. Si vede chiaramente con andamenti innaturali in questo tipo di misure (e c'è anche il marker a triangolo messo da chi produce il grafico che indica proprio noise reduction). www.photonstophotos.net/Charts/PDR.htm#Nikon%20D810,Pentax%20K-1,Penta D810, k1 e k1ii hanno tutte lo stesso sensore, ma nella k1ii hanno messo un chip extra che manipola il raw in modo non disattivabile a scopo di denoise. É un'idea secondo me pessima farlo in maniera così pesante per vari motivi, ma su moltissime camere pur in maniera più blanda viene ormai fatto. |
| inviato il 19 Luglio 2025 ore 18:28
Vi ringrazio per i vostri contributi. |
| inviato il 19 Luglio 2025 ore 18:55
Alfredo credo che un sensore 16:9 non lo farà mai nessuno. Dal finto di vista delle ottiche sarebbe un suicidio. Dato che alla fine l'ottica ti produce sempre un "cerchio", lo sfruttamento migliore l'avresti con un quadrato (escluso il cerchio ovviamente). Con un 16:9 per coprire i bordi dx è sx dovresti letteralmente buttare via tantissime informazioni sulla verticale. A sto punto meglio avere un sensore quadrato che ti sfrutta alla perfezione la proiezione e poi uno se la vede in post come ritagliare |
|

Metti la tua pubblicità su JuzaPhoto (info) |