| inviato il 10 Febbraio 2021 ore 6:27
Con l'AI ed il multiraw un sensore micro 4/3 può raggiungere e anche superare le prestazioni di uno FF che non adatta la stessa tecnologia. Insomma tutte le carenze del sensore più piccolo verrebbero colmate ma una cosa rimarrebbe da “inventare” ossia il bokeh laddove si ricerca. Dovrebbero fare ottiche estremamente luminose e di qualità per questo. Odio vedere gli sfocati creati digitalmente sono quanto di più “freddo” e anonimo possa esistere. Io ritengo che anche su ff si possa implementare tale AI e a questo punto il discorso si sposta sulle medio formato full frame. Ne vedremo delle belle ma spero che le fotocamere tradizionali rimangano perché scattare con un cellulare sarebbe deprimente. Ogni tanto mi ci diverto ma sarebbe tristissimo |
| inviato il 10 Febbraio 2021 ore 7:19
Hai scritto bene. Tu lo vorresti. Io, no. Perché onestamente tutta questa qualità dagli smartphone, computazione compresa, non la vedo. Hanno un senso in ambito social, ma fuori da quel contesto... La qualità dello smartphone l'apprezzi sul suo schermo, prova a vederla su di un monitor e se ne riparla. Probabilmente a chi non è appassionato di fotografia, basterà pure, ma non mi pare che qui dentro si scatti di telefonino... |
| inviato il 10 Febbraio 2021 ore 7:20
Certo chi farà sto sensore M4/3 AI ready? Sony penso proprio di no |
| inviato il 10 Febbraio 2021 ore 8:49
Però l'incipit della discussione è, a mio avviso, errato: la complessità dei calcoli da fare (e quindi la potenza richiesta) non è legata alla dimensione fisica del sensore, ma alla dimensione in "megapixel", alla risoluzione insomma. Un sensore FF da 20 mpx è meno complicato da gestire di un piccolo sensore da smartphone da 100 mpx Quindi a che servirebbe ridurre la dimensione fisica nelle macchine fotografiche? L'unico aspetto sarebbe il minore costo (e non è poco). |
| inviato il 10 Febbraio 2021 ore 8:55
Cari miei, premesso che anche se è vero che Sony preferisce spingere sui sensori di grandi dimensioni è altrettanto vero che non può rischiare di lasciare ad altri quella fetta di mercato! E' anche vero che l'attuale sensore in uso su Oly oggi è "vecchio" esattamente come sono di colpo diventati "vecchi" quasi tutti gli altri sensori che equipaggiano le attuali fotocamere. Cosa chiaramente dimostrata sul campo dalle A9 e dalla A1. Peraltro Canon con la R5 e Sony con la A7sIII (anche Oly con la EM1X) hanno anche dimostrato che il processore può diventare più importante del sensore... se poi vogliamo parlare dei motori AF degli obiettivi che, come sta già accadendo nei telefonini, verranno presto sostituiti dalle lenti liquide molto più veloci ed economiche... |
| inviato il 10 Febbraio 2021 ore 9:05
Sta faccenda del bokeh non mi convince. Per quale motivo un sensore più piccolo produce uno sfocato diverso? Se uso la stessa focale non ho lo stesso sfocato? |
| inviato il 10 Febbraio 2021 ore 9:18
Sì ma hai una scena diversa, con angoli di campo diversi. |
| inviato il 10 Febbraio 2021 ore 9:20
No no Nikmeditato, che lo sfocato gradualmente sia enfatizzato e possa essere gestito dai sensori di misura man mano maggiore è un fatto puramente fisico, di ottica. Quindi la dimensione del sensore conta eccome. Altro discorso è che la fotografia computazionale potrà presto sopperire anche la gestione di questo aspetto intervenendo. Ha appena cominciato e già dei risultati(per quanto discutibili) ci sono. Ma anche questi non potranno che migliorare, lo sappiamo. Non fermiamoci a ciò che vediamo oggi ma occorre proiettasi sullo sviluppo enorme che avranno gli ambitii tecnologici software. Resta vero che se le volte che volessi volessi utilizzare la profondità di campo senza far intervervenire degli algoritmi ma sfruttare un puro aspetto ottico... beh sarebbe bello poterlo fare. Forse è APSC il formato ideale hai una buona gestione dell'immagine in manuale e migliore e sovrabbondante quando il segnale del sensore sarà gestito da fotografia computazionale. |
| inviato il 10 Febbraio 2021 ore 9:30
“ chi farà sto sensore M4/3 AI ready? „ Non so se hanno un lab in UK o se l'hanno commissionato a qualche produttore giappo/cinese .. ma questa sembra proprio l'embrione di quanto si sta discutendo in questo thread www.dpreview.com/news/5944088199/alice-ai-mft-camera-pre-order-campaig " The camera will use a MFT 10.7MP Dual Native ISO Multi-Aspect Ratio sensor that will be able to record C4K/4K 30p video in 17:9, 16:9 and 4:3 aspect ratios [...] The key difference between Alice and other regular cameras though is that it will use AI learning to adjust images as they are being recorded in the same way that smartphones do, to brighten shadows, to increase saturation in blue skies and to use multi-shot techniques to reduce noise and improve dynamic range. AI will also run exposure, AF and White Balance, while computational photography techniques will optimise noise and dynamic range. " |
| inviato il 10 Febbraio 2021 ore 9:33
Si, conosco bene la differnte profondità di campo dovuta all'ampiezza del sensore. Mi domandavo cosa può fare un sensore più piccolo ma con caratteristiche superiori (dovute al software) per colmare questo divario. Per quanto riguarda il rumore, per esempio, sopperisce con una migliore gammadinamica. Ovvero riesce a catturare (via software unendo svariati scatti) una maggiore quantità di luce con una superfice inferiore. Per fare lo stesso sfocato, cioè per la stessa profondità di campo, cosa potrebbe fare l'ai? |
| inviato il 10 Febbraio 2021 ore 9:33
@Squalo “ Però l'incipit della discussione è, a mio avviso, errato: la complessità dei calcoli da fare (e quindi la potenza richiesta) non è legata alla dimensione fisica del sensore, ma alla dimensione in "megapixel", alla risoluzione insomma. Un sensore FF da 20 mpx è meno complicato da gestire di un piccolo sensore da smartphone da 100 mpx Quindi a che servirebbe ridurre la dimensione fisica nelle macchine fotografiche? L'unico aspetto sarebbe il minore costo (e non è poco). „ Invece anche la dimensione dei sensori conta. Esempio tratto da articolo che ne tratta: “ La fotografia computazionale in molti casi sfrutta tecniche di photo stacking, che richiedono otturatore elettronico e grandi velocità di lettura del sensore. Per dare l'idea, se volessimo realizzare un'esposizione di, poniamo, 1/2000 di secondo con la tecnica del photo stacking in-camera di 10 fotogrammi, la fotocamera dovrebbe essere in grado di scattare dieci foto a 1/20000 di secondo nell'arco di 1/2000s. „ E infatti come mai tutta questa rivoluzione è cominciata proprio dai piccoli sensori degli smartphone? Se fosse stato lo stesso, magari su sensori grandi ma meno densi, secondo te l'industria fotografica non ne avrebbe approfittato da subito, in parallelo, per non farsi rubare quote di mercato? Si tratta di velocità operativa dei processori sui sensori di dimensioni minori e di costi. Non è poca roba. Inoltre anche dimensioni e portabilità potrebbero avantaggiarsene. E quando la fotografia computazionale sarà disponibile a costi accettabili su ipotetici sensori grandi... sui sensori più piccoli costerà ancora meno e avrà prestazioni cmq maggiori. Mi sa che non si scappa. |
| inviato il 10 Febbraio 2021 ore 9:39
“ Per fare lo stesso sfocato, cioè per la stessa profondità di campo, cosa potrebbe fare l'ai? „ Dovrebbe gestire algoritmi per modificare la parte di immagine fuori dalla zona di fuoco di modo da ricreare o enfatiazzare il fuori fuoco dove non c'è o ce n'è meno. E dovrebbe sfuocare in modo gradualmente maggiore nelle zone che gradualmente si allontanano dal punto di fuoco. Oggi si hanno risultati ancora artificiosi, non graduali, e non belli come lo sfocato di certi ottiche. Ma ci arriveranno.. altrochè se ci arriveranno. Resta il fatto che se io voglio scattare delle foto senza che la fotografia computazionale intervenga... sarebbe auspicabile da tanti fotografi poter avere un sensore che ti permetta di gestire anche il fuoco in modo ottico. Per questo penserei che APSC potrebbe essere un buon compromesso tra gestione computazionale e manuale |
| inviato il 10 Febbraio 2021 ore 9:40
“ Se fosse stato lo stesso, magari su sensori grandi ma meno densi, secondo te l'industria fotografica non ne avrebbe approfittato da subito, in parallelo, per non farsi rubare quote di mercato? „ Non credo, nulla gli avrebbe vietato di metterla nelle fotocamere compatte, che hanno sensori di dimensioni analoghe a quelli dei cellulari. Mercati inizialmente diversi, visioni diverse, economie di scala diverse .. e un gap che si è lasciato crescere e poi è divenuto incolmabile. |
| inviato il 10 Febbraio 2021 ore 9:44
“ Certo chi farà sto sensore M4/3 AI ready? Sony penso proprio di no „ Se si scorge il business dietro un prodotto... Sony non solo te lo farà di corsa (altrimenti ci penserebbe qualcun'altro) ma creerebbe anche una sua nuova linea di fotocamere che utilizzerà tale sensore che potrà essere gestito anche dalla fotografia computazionale/AI. Nell'industria alla fine funziona sempre così. Basta vendere. E se il mercato è maturo per ricevere un certo prodotto (e il mercato sta maturando perchè vede cosa può fare con uno smartphone che non fa con una fotocamera) e le tecnologie ci sono... difficile che qualcuno si faccia fregare il business (se si è in un mercato di libera concorrenza senza cartelli e accordi tra i player per la commercializzazione... ma gli smartphone hanno già rotto molti equilibri) |
Che cosa ne pensi di questo argomento?Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 242000 iscritti, c'è spazio per tutti, dal principiante al professionista. |
Metti la tua pubblicità su JuzaPhoto (info) |