JuzaPhoto utilizza cookies tecnici e cookies di terze parti per ottimizzare la navigazione e per rendere possibile il funzionamento della maggior parte delle pagine; ad esempio, è necessario l'utilizzo dei cookie per registarsi e fare il login (maggiori informazioni).
Proseguendo nella navigazione confermi di aver letto e accettato i Termini di utilizzo e Privacy e preso visione delle opzioni per la gestione dei cookie.
Puoi gestire in qualsiasi momento le tue preferenze cookie dalla pagina Preferenze Cookie, raggiugibile da qualsiasi pagina del sito tramite il link a fondo pagina, o direttamente tramite da qui:
è uscito da qualche mese, ma lo scopro solo ora... questi ragazzi sono riusciti a sviluppare un metodo per migliorare incredibilmente la resa delle foto fatte con smarphone, aumentando la gamma dinamica e individuando la pdc... per cui riescono a simulare lo sfocato in modo assolutamente realistico. Guardate il video, ne vale la pena:
Fantastico. E finchè non potrò provarlo di persona sulle mie foto non ci credo neanche per scherzo - stesso discorso dell'Image Super Resolution sempre di Google.
Molto interessante come risultati. Per chi è interessato ad approfondire un po' su un altro canale (suppongo dello stesso ricercatore, anche se non capisco perché ne abbia usato uno diverso per l'ultimo video) c'è un talk che spiega più nel dettaglio alcune cose di base (indipendenti dal denoise che viene evidenziato nel video più recente). Se ho “capito giusto” il funzionamento mi fa pensare che siamo un po' distanti per principio da un uso “per le nostre foto” (anche se il video linkato da Perbo è successivo di un paio di anni):
Speriamo solo non finisca come con le Lytro (ma ben venga in generale tutta la ricerca su queste possibilità).
Mi incuriosisce molto il fatto che faccia continuamente “dondolare” l'immagine. Con n immagini calcola un modello “3d” della scena e poi lo usa per generare dei ray tracing real-time a cui applica le informazioni di “materiale” che ha ottenuto dalle foto. Il tutto sembrerà reale, perché i modelli e le “textures” derivano dalla realtà.
Il cambio di focus, il bokeh, etc. sono tutti derivato dal rendering del modello “simil-3d”.
Il limite, attualmente, sembra la risoluzione e un po' di plasticosità qua e là, come si vede nel primo video, oltre, ovviamente a non poter funzionare in scene all'aperto con oggetti che si muovono (foglie, acqua, etc..) e con gli esseri umani. Con quelli ci accorgeremmo istantaneamente del trucchetto.
Comunque interessante, ottima idea per la realtà aumentata in condizioni di bassa luce.
speriamo che qualcosa del genere arrivi prima o poi anche sui nostri dispositivi!
Che cosa ne pensi di questo argomento?
Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 251000 iscritti, c'è spazio per tutti, dal principiante al professionista.