RCE Foto

(i) Per navigare su JuzaPhoto, è consigliato disabilitare gli adblocker (perchè?)






Login LogoutIscriviti a JuzaPhoto!
JuzaPhoto utilizza cookies tecnici e cookies di terze parti per ottimizzare la navigazione e per rendere possibile il funzionamento della maggior parte delle pagine; ad esempio, è necessario l'utilizzo dei cookie per registarsi e fare il login (maggiori informazioni).

Proseguendo nella navigazione confermi di aver letto e accettato i Termini di utilizzo e Privacy e preso visione delle opzioni per la gestione dei cookie.

OK, confermo


Puoi gestire in qualsiasi momento le tue preferenze cookie dalla pagina Preferenze Cookie, raggiugibile da qualsiasi pagina del sito tramite il link a fondo pagina, o direttamente tramite da qui:

Accetta CookiePersonalizzaRifiuta Cookie

Fotografia Computazionale


  1. Altro
  2. »
  3. Articoli
  4. » Fotografia Computazionale


Fotografia Computazionale, testo e foto by Juza. Pubblicato il 23 Marzo 2020; 43 risposte, 12925 visite.


Vi sarà capitato di sentir parlare di "fotografia computazionale". Ma in cosa consiste esattamente, e che miglioramento può portare nelle nostre immagini?

La fotografia computazionale è un insieme di tecniche e algoritmi, anche molto diversi tra loro, che potenziano notevolmente le capacità di una fotocamera, migliorando la qualità d'immagine o espandendone le possibilità: il tutto fatto in modo automatico o semi-automatico, lasciando al fotografo l'aspetto più creativo e artistico della fotografia ma riducendo le difficoltà tecniche.

A livello più banale, si possono intendere come fotografia computazionale anche le semplici regolazioni automatiche di luci, ombre, hdr, tonalità e sharpening fatte dagli smartphone. Se siete un minimo pratici di Photoshop, questi automatismi di base vi interesseranno meno di zero, e anzi personalmente quando sento parlare di "filtri" per effetti speciali, HDR o simili ho qualche leggero attacco d'odio ;-) Ma fortunatamente, l'evoluzione della fotografia computazionale sta andando ben oltre questi "trucchetti da circo" e sta arrivando a funzionalità che verranno enormemente apprezzate anche dai fotografi.


Samsung S8+, 1/30 f/1.7, ISO 50, mano libera.



Riduzione rumore multi-fotogramma (staking)

La tecnica del photo staking può essere realizzata, perlomeno con tempi lenti, con qualsiasi fotocamera, come ho descritto nell'articolo Photo Stak vs Filtri ND. Si tratta, sostanzialmente, di scattare varie foto della stessa inquadratura e andare a sommarle per ridurre il rumore.

Con i moderni software presenti su smartphone, però, questa tecnica viene enormemente potenziata. In primis, non dovrete più mettervi a scattare manualmente 10, 20 o 30 foto RAW, scaricarle sul computer, aprirle tutte con Photoshop, ri-allinearle per compensare eventuali piccoli spostamenti e poi sommarle, operazione che richiede parecchio tempo e lavoro: tutto questo procedimento verrà fatto in modo totalmente automatico dal software, che poi restituirà un singolo RAW (o JPEG).

Questa tecnica automatica è talmente veloce da poter essere applicata addirittura agli scatti a mano libera e con tempi veloci, perlomeno su smartphone. Sommando vari fotogrammi si va a ridurre notevolmente il rumore: in altre parole, se invece di scattare una singola foto a 1/100s con ISO 200 lo smartphone scatta in rapidissima sequenza dieci foto da 1/1000s a ISO 2000 e poi le fonde assieme, il risultato sarà migliore. Questo permette di migliorare significativamente la resa agli alti ISO, una cosa particolarmente importante su sensori piccoli o molto densi.


Nokia Lumia 1020, 4 sec f/2.2, ISO 800, treppiede.



Non solo riduzione rumore

Il photo staking va però ben oltre la semplice riduzione rumore. Oltre a sommare vari fotogrammi identici per ridurre il rumore, il software può scattare anche fotogrammi con esposizione diversa per migliorare il dettaglio nelle ombre o nelle luci, o addirittura con messa a fuoco diversa per estendere o ridurre la profondità di campo.

La somma delle esposizioni diverse è l'HDR (High Dynamic Range), che spesso ha dato vita a delle vere e proprie mostruosità con situazioni di contrasto totalmente impossibili e innaturali e aloni che sembrano usciti dai peggiori film di fantascienza. Ho sempre considerato l'HDR come una cosa molto negativa - finchè non ho visto la versione di GCam. Sulla Google Camera, viene realizzato un HDR che dà risultati incredibilmente naturali: l'impressione è di vedere un'immagine 10 o 15 stop di gamma dinamica (o anche più), ma senza nessun alone o senza aperture esagerate delle ombre.

Un HDR "fatto bene" come quello di GCam permette di avere un file molto più lavorabile, con ampie possibilità di recupero sia nelle alte luci che nelle ombre, esattamente come abbiamo sulle migliori fotocamere fullframe. Potete immaginare a che livelli arriveremmo se una simile tecnica fosse applicata su un sensore FF!


Un HDR fatto bene confrontato a una mostruosità. Se anche per un solo istante vi siete chiesti "quale dei due è l'HDR fatto bene?", chiedete perdono alla vostra fotocamera.



Fotografia in notturna

Di notte ci troviamo di fronte principalmente a tre problemi: la rumorosità data dagli alti ISO, gli hot pixel dovuti al surriscaldamento del sensore in caso di lunghissime esposizioni, e la difficoltà di bilanciare eventuali zone con luce artificiale col resto dell'immagine. A queste si aggiunge anche una quarta difficoltà quando si inquadrano cieli stellati: per via della rotazione terrestre, non è possibile utilizzare tempi di scatto molto lunghi, altrimenti le stelle appariranno come una strisciata invece che come un punto (in alcuni casi può essere l'effetto voluto, cioè lo startrail: in genere però sono preferibili stelle puntiformi).

Il photo staking risolve tutte e quattro queste limitazioni. Suddividendo un'esposizione di, poniamo, cinque minuti, in 20 scatti da 15 secondi (e resettando il sensore tra uno scatto e l'altro), andiamo ad eliminare gli hot pixels e a ridurre tantissimo il rumore.

Inoltre, se facessimo una sola esposizione di cinque minuti e una volta conclusa ci accorgessimo che una zone del fotogramma è sovraesposta (magari una casa o una tenda illuminata in un bel paesaggio notturno), dovremmo rifare la foto. Col photo staking, invece, andiamo a sommare gradualmente tante esposizioni più brevi: una volta che una zona ha raggiunto la giusta luminosità, il software smette di sommare i fotogrammi in quella zona, evitando che venga sovraesposta (ma continua a sommarli nelle zone più buie, facendo una sorta di "HDR notturno" e bilanciando perfettamente l'esposizione).

Facendo alcuni scatti di prova in ambito urbano, sono rimasto veramente sorpreso nel vedere come il software di GCam è riuscito, in modo totalmente automatico, ad esporre correttamente le case illuminate dai lampioni senza sovraesporle, e al tempo stesso a recuperare il massimo dettaglio possibile dal cielo stellato.

Infine, per compensare al mosso delle stelle dovuto alla rotazione terrestre nell'arco di svariati minuti di esposizione complessiva, i software più evoluti riescono addirittura a riconoscere le stelle e andarle a riallineare tra un fotogramma e l'altro, compensando alla rotazione terrestre - senza però riallineare allo stesso modo il primo piano, che altrimenti risulterebbe mosso (dato che le stelle cambiano posizione, il primo piano no).

Tutte queste cose sarebbero veramente complicate da fare manualmente: tramite fotografia computazionale, non dobbiamo far altro che scegliere la composizione e il software farà il resto, permettendo di ottenere con lo smartphone i risultati che in passato erano possibili solo con sensori APS-C e FF abbinati a obiettivi superluminosi. (e, ancora una volta, se tutto questo fosse applicato su un sensore FF i risultati sarebbero straordinari)


Una foto scattata con la mia Sony A5100 + Samyang 12mm f/2. Un tempo un risultato del genere era possibile solo con una APS-C o FF, oggi è alla portata anche degli smartphone, a patto che abbiano un software evoluto come GCam.



Lo sfocato nei ritratti

Uno dei più grandi limiti degli smartphone è sempre stata la scarsa separazione tra soggetto e sfondo: focali corte e diaframmi poco luminosi risultano in ritratti con prospettiva esagerata e sfondo quasi sempre a fuoco. Con l'evoluzione della tecnologia, siamo arrivati ad avere sensori relativamente grandi anche su smartphone (fino a quasi 1"), abbinati a diaframmi luminosi, il che permette di avere un minimo di sfocato nello sfondo.

Inoltre, alla fotocamera grandangolare ora sono affiancate anche fotocamere tele da 50, 80 o addirittura 100 o 125mm equivalenti, che permettono di avere nei ritratti la stessa prospettiva che si avrebbe con un tele da ritratto professionale, come i classici Canon/Nikon/Sony 85mm f/1.4, 100mm f/2 e così via.

Non possiamo avere, però, lo stesso sfocato: attualmente la migliore fotocamera tele disponibile su uno smartphone, la 103mm presente sul Samsung S20 Ultra, ha un diaframma f/3.5, equivalente alla profondità di campo di... f/18 su fullframe. Magari in futuro affinando i sistemi a periscopio potremmo arrivare a tele da 100mm con diaframmi equivalenti a f/11, ma il margine di miglioramento è molto limitato a causa delle dimensioni fisiche di uno smartphone.


Nokia Lumia 1020, 1/320 f/2.2, ISO 100, mano libera. In questo caso, un soggetto molto ravvicinato ha permesso di avere uno sfocato naturale anche con smartphone, ma in molte situazioni servirà l'aiuto del software.


Come si può risolvere il problema tramite fotografia computazionale? Nelle primissime versioni, il software cercava il soggetto in primo piano, in genere riconoscendo il volto, e quindi lo "ritagliava" e sfocava lo sfondo. Risultati: abominevoli.

La tecnologia si è evoluta aggiungendo agli smartphone sensori di profondità o addirittura LIDAR, che permettono di fare un "modello 3D" del soggetto e applicare la sfocatura artificiale in modo molto più preciso e realistico. Il risultato è discreto per uso su social e foto ricordo, ma ancora tutt'altro che perfetto, e certamente farà storcere il naso ai fotografi.

Non ci siamo ancora, ma penso che in futuro sistemi di mappatura 3D sempre più precisi, abbinati a processori potentissimi e intelligenza artificiale, arriveranno alla capacità di creare uno sfocato artificiale quasi perfetto.



Intelligenza artificiale

L'intelligenza artificiale è già utilizzata nella fotografia computazionale, ma è un ambito ancora molto giovane e con un margine di crescita inimmaginabile. Le possibilità sono molteplici, come fotografo ce ne sono due che mi interessano particolarmente: l'utilizzo dell'IA nella riduzione rumore e nel miglioramento del dettaglio.


Samsung S8+, 1/60 f/1.7, ISO 64, mano libera.


Qualche tempo fa avevo pubblicato un articolo in merito, esaminando i risultati dell'AI nei software Topaz: date un'occhiata ai risultati sorprendenti nell'articolo Topaz AI, Intelligenza Artificiale

L'intelligenza artificiale, basandosi su sofisticatissimi algoritmi e su enormi librerie di immagini con cui confrontare le foto, è in grado di riconoscere i contenuti delle immagini e ottenere risultati pazzeschi in termini di riduzione rumore, correzione del mosso e miglioramento del dettaglio. Ogni nuova generazione di smartphone ha processori più potenti, in grado di fare calcoli più complessi, e ogni anno l'AI fa passi avanti. Il miglioramento "fisico" dei sensori procede ormai a minuscoli passi, e ad ogni nuova generazione si guadagna (se va bene) mezzo stop in termini di resa agli alti ISO. Con l'AI, potremmo fare un balzo in avanti di 3-4 stop, aprendo nuove possibilità creative. Potremmo riuscire a ottenere ottime immagini con obiettivi più compatti e leggeri, oppure con zoom più estremi. L'utilizzo dell'AI è come dare superpoteri alla macchina fotografica :-)



Perchè la fotografia computazionale non c'è su reflex e mirrorless?

Ci sono sia motivi tecnici (validi) che commerciali (meno validi). La maggior parte dei brand fotografici ha ancora una mentalità poco aperta e innovativa, e questo porta a un rallentamento nell'evoluzione del settore fotografico, che salvo qualche raro caso procede a piccolissimi passi e non certo con innovazioni rivoluzionarie.

Tuttavia, ci sono anche motivi tecnici legati ai sensori di "grandi" dimensioni come il fullframe o l'APS-C, per non parlare del medio formato. La fotografia computazionale in molti casi sfrutta tecniche di photo stacking, che richiedono otturatore elettronico e grandi velocità di lettura del sensore. Per dare l'idea, se volessimo realizzare un'esposizione di, poniamo, 1/2000 di secondo con la tecnica del photo stacking in-camera di 10 fotogrammi, la fotocamera dovrebbe essere in grado di scattare dieci foto a 1/20000 di secondo nell'arco di 1/2000s. Attualmente, la fotocamera fullframe con la più alta velocità di lettura sensore, la Sony A9II, arriva ad appena... 1/160 di secondo (come tempo di lettura sensore, non parlo del tempo di scatto più rapido disponibile).

La A9 è la migliore: quasi tutte le altre sul mercato sono tra 1/10 e 1/50s.

In altre parole, con gli attuali sensori fullframe e APS-C non siamo neanche lontanamente vicini alle velocità di lettura che sarebbero necessarie per poter utilizzare al meglio la fotografia computazionale; al contrario, più un sensore è piccolo più diventa facile avere un tempo di lettura rapido, e da questo punto di vista i piccoli sensori degli smartphone (che tra l'altro sono sempre stati sviluppati per l'otturatore elettronico) sono avvantaggiati.

La tecnologia va migliorando anche su FF e APS-C, ma finchè non avremo otturatore elettronico con global shutter, o rolling shutter ultra-veloci, il sensore sarà limitante, e sarà possibile usare alcune tecniche di fotografia computazionale solo con tempi di scatto piuttosto lenti (nell'ordine di qualche decimo di secondo). Inoltre, sarebbero necessari dei processori in-camera molto più potenti di quelli attuali, al livello degli Snapdragon utilizzati sugli smartphone.


Samsung S8+, 1/90 f/1.7, ISO 50, mano libera.



Conclusione

La fotografia computazionale non è una magica soluzione a tutti i problemi, ma è uno strumento che amplia notevolmente le nostre possibilità, ed è un campo ancora molto giovane e in rapida evoluzione: quello che possiamo fare ora è già molto di più di quello che permettevano i software un paio di anni fa, e quello che potremo fare tra cinque o dieci anni sarà enormemente superiore alle nostre attuali possibilità.

Come tutti gli strumenti, non va nè demonizzato nè esaltato oltre misura; sta a noi come fotografi imparare a conoscerne le potenzialità (e limiti) e sfruttarlo in modo creativo.



Risposte e commenti


Che cosa ne pensi di questo articolo?


Vuoi dire la tua, fare domande all'autore o semplicemente fare i complimenti per un articolo che ti ha colpito particolarmente? Per partecipare iscriviti a JuzaPhoto, è semplice e gratuito!

Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti, partecipare alle discussioni e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 241000 iscritti, c'è spazio per tutti, dal principiante al professionista.





avatarjunior
inviato il 23 Marzo 2020 ore 12:52

Ottimo articolo ! Da principiante pensavo che la non implementazione nelle nuove reflex o mirrorless della fotografia computazionale fosse dovuta solo alla “ mentalità poco aperta e innovativa” dei maggiori brand.
Grazie per la spiegazione ;-)

avatarsupporter
inviato il 23 Marzo 2020 ore 12:53

Quindi in estrema sintesi, x quello che riguarda il futuro a medio termine, piccolo è bello. Parlo del sensore ovviamente. Al contrario di quanto si è pensato fino ad un po' di tempo fa. Impareremo a cambiare opinione circa la dimensione del sensore.

avataradmin
inviato il 23 Marzo 2020 ore 12:57

Quindi in estrema sintesi, x quello che riguarda il futuro a medio termine, piccolo è bello. Parlo del sensore ovviamente.


Dipende, io penso che su reflex e mirrorless sia un bene continuare a puntare su fullframe e APS-C, alcune tecniche di fotografia computazionale potrebbero comunque essere applicate anche con gli attuali sensori (HDR multi scatto, photo staking su esposizioni medie e lunghe).

Per il resto ci vorrebbe una grande spinta verso l'abbandono dell'otturatore fisico. La Sony A9 è un passo nella giusta direzione, ma è un modello del 2017 e da allora sono stati fatti zero miglioramenti in termini di velocità di lettura sensore (anche la A9 II è uguale alla A9 come sensore).

avatarsenior
inviato il 23 Marzo 2020 ore 12:58

Io ho voluto provare il galaxy s10plus ma a parte la fotocamera grandangolare..non ho visto grandi differenze di qualità dagli smartphone precedenti..forse il vero salto sarà col galaxy s20..vedremo..

avatarsupporter
inviato il 23 Marzo 2020 ore 13:22

Carissimo Juza, la mia era una considerazione molto sintetica. Il punto è che proprio non riesco a vedere un futuro x le macchine fotografiche. Stanno diventando anacronistiche. L'unico settore nel quale possono ancora essere vincenti riguarda sport ed avifauna. Uno dei problemi riguarda le dimensioni degli obiettivi x ff, grossi e pesanti, di fatto annullano l'eventuale vantaggio dei corpi ml. Saluti Pier Sorriso

avatarjunior
inviato il 23 Marzo 2020 ore 13:46

...però mi salta subito all'occhio il fatto che una fotocamera (specialistica) particolamente costosa, non riesca ad essere "computazionalmente" valida tanto quando (se non di più) uno smartphone (generalista), a livello tecnologico tutti e due i mondi dovrebbero poter attingere alle stesse moderne tenologie: circuiti, memorie, processori, per realizzare queste attività computazionali in-camera. I Mpx sono gli stessi da leggere, grande o piccolo che sia il sensore.
Si tratta dunque di mera pigrizia innovativa?

avatarsupporter
inviato il 23 Marzo 2020 ore 13:50

Io credo che ci siano tantissimi professionisti che non aspettano altro che questa tecnologia venga inserita stabilmente in tutte le fotocamere. Immagino per esempio i fotografi di matrimoni, che non possono applicare riduzioni del rumore selettivamente su ogni fotografia, ma si trovano spesso a dover fotografare in ambienti con illuminazione difficile. Mi è capitato spesso di sentire lamentele sul fatto che oramai gli smartphone restituiscano un file più pulito con HDR già pronto con un click. Ovviamente loro per necessità lavorative hanno bisogno di file più grandi da poter anche stampare a pieno formato all'occorrenza. Ma per lo più gli scatti del matrimonio restano in piccoli formati. E credo che questi processori con questi algoritmi porterebbero loro via un bel pó di lavoro da fare. Ovviamente per file di grandi dimensioni restò convinto che un bel lavoro manuale sul frame sia ancora il metodo più accurato.

avatarjunior
inviato il 23 Marzo 2020 ore 14:04

Bell'articolo grazie molto interessante

avatarjunior
inviato il 23 Marzo 2020 ore 14:25

SUPER Articolo complimenti!

avatarjunior
inviato il 23 Marzo 2020 ore 14:28

Grazie mille

avatarsenior
inviato il 23 Marzo 2020 ore 14:47

C'è da riflettere per un pezzo di quarantena. Ottimo.

avatarsupporter
inviato il 23 Marzo 2020 ore 14:50

Bella sintesi!
In attesa che queste tecniche diventino disponibili "in camera", qualche possibilità si intravede nelle fotocamere che possono installare Magic Lantern (es. Dual Iso). Purtroppo le limitazioni sono ancora tante perché il modello di foto camera é quello ottocentesco.
Prima o poi i produttori di fotocamere dovranno aprire le porte ad applicazioni e sensori per misurazione (come nei cellulari che sono farciti di questi sensori). Allora ci sarà la seconda fase della rivoluzione digitale, non sono nella elaborazione d'immagine (da cui deriva la fotografia computazionale), ma anche per una maggiore integrazione tra dispositivo e ambiente. In realtà, basterebbe che ci fosse una veloce connessione tra fotocamere tradizionali e smartphone, non quella penosa che c'è ora per il trasferimento di foto. Avrebbe, infatti, molto più senso delegare tutte le funzioni elaborative di alto livello al dispositivo che è già un computer (lo smartphone) , invece di sperare che venga messo un "mezzo smartphone" dentro una fotocamera.

avatarjunior
inviato il 23 Marzo 2020 ore 14:58

Domanda da ignorante quale sono a livello tecnico:
perché allora non si prende un buon sensore per smartphone lo si mette nel corpo di una compatta con una lente zoom di buona qualità, otturatore elottronico e software stile gcam così da ovviare a problemi di focale e diaframma e lunghezza focale?


avataradmin
inviato il 23 Marzo 2020 ore 15:08

perché allora non si prende un buon sensore per smartphone lo si mette nel corpo di una compatta con una lente zoom di buona qualità, otturatore elottronico e software stile gcam così da ovviare a problemi di focale e diaframma e lunghezza focale?


Come hardware, le compatte di fascia alta sono già così (sensore attorno a 1" e zoom di qualità, non troppo spinti)... ma manca il software.

Google è davvero molto avanti da questo punto di vista, e non è facile eguagliarlo (senza contare che i brand fotografici non ci provano neanche...)

avatarjunior
inviato il 23 Marzo 2020 ore 15:13

Infatti è quello che intendevo, il problema è che forse non lo si vuole fare, per ovvie ragioni economiche.... Il problema del elaborazione del software sarebbe il problema minore, basterebbe acquistarlo direttamente da google e adattarlo come si fa per le varie gcam su dispositivi non pixel...





 ^

JuzaPhoto contiene link affiliati Amazon ed Ebay e riceve una commissione in caso di acquisto attraverso link affiliati.

Versione per smartphone - juza.ea@gmail.com - Termini di utilizzo e Privacy - Preferenze Cookie - P. IVA 01501900334 - REA 167997- PEC juzaphoto@pec.it

www.juzaphoto.com - www.autoelettrica101.it

Possa la Bellezza Essere Ovunque Attorno a Me