JuzaPhoto utilizza cookies tecnici e cookies di terze parti per ottimizzare la navigazione e per rendere possibile il funzionamento della maggior parte delle pagine; ad esempio, è necessario l'utilizzo dei cookie per registarsi e fare il login (maggiori informazioni).
Proseguendo nella navigazione confermi di aver letto e accettato i Termini di utilizzo e Privacy e preso visione delle opzioni per la gestione dei cookie.
Puoi gestire in qualsiasi momento le tue preferenze cookie dalla pagina Preferenze Cookie, raggiugibile da qualsiasi pagina del sito tramite il link a fondo pagina, o direttamente tramite da qui:
Non hai capito la mia perplessità. Nella prima foto tutto è a fuoco e ovviamente Gcam è funzionale. I cellulari hanno lenti F 1,7 e iperfocali a 60cm. Con aps-c quella pdc la ottieni a circa f11 invalidando i guadagni snr del sensore più grande e applicando gcam probabilmente il risultati sarebbero simili tra loro. Alla stessa luminosità, entrambi a f1,7 c' è il guadagno di avere un sensore più grande. Ma come farebbe Gcam a recuperare il soggetto in movimento da tanti scatti in cui solo in uno il soggetto è bene fuoco? Su sensori piccoli è fantastica.
“ La fotografia è uno di quei settori dove l'AI fa più danni che altro, perchè non è matematica. Non si tratta di vedere un pedone e frenare con la macchina che si calcolano i metri ed il tempo di frenata.
La fotografia è totalmente un'altra cosa, così come lo è arredare una casa. Vi piacerebbe avere un'applicazione che inserendo la planimetria della vostra casa vi dice come arredarla?
A me no. Il programma potrà pure sapere dove inserire un bagno ma non sarà mai vicino a quello che può fare il rapporto umano con un architetto che ti segue. „
permettimi di dissentire: da questo punto di vista, al momento siamo a livello dei 286 di 30 anni fa. Ma tra non molto sarà possibile avere architetti "digitali" che ti consiglieranno come arredare casa, e quali prodotti mettere. Perché no? Amazon ha già in canna i suggerimenti su come vestirsi coordinati e state meglio in base all'occasione, non appena alexa avrà una webcam integrata. E immagino avrete visto tutti la demo di google duplex:
riguardo la fotografia, le macchine fotografiche sono talmente piene di matematica da far spavento, oggi. Figuriamoci tra qualche anno.
Sisi Perbo. Ma un professionista online sono il primo a sostenerlo. Pensa che il mio sito di servizi è sviluppato per rendere l'acquisto dei cataloghi completamente online.
E sarà anche bello avere un "architetto digitale" (anche se poi l'architetto che ti segue fisicamente i lavori a casa e con il cantiere vale più di ogni altra cosa).
La mia osservazione era solo che un AI non potrá mai arredarci casa con una planimetria. Anzi, a livello di fattibilità sarà anche possibile, ma è questo quello che cerchiamo? Era solo un termine di paragone che ho usato per far capire come anche nella fotografia un AI può fare più male che bene nell'immagine digitale. Poi concordo con te che la fotografia sia piena di matematica. Anche solo l'esposizione è il calcolo matematico di qualcosa. Ma un conto è un sistema a rilevamento a scene scene ed AI, un altro è il calcolo matematico da esposimetro.
A casa ho un robottino che durante la settimana mi pulisce casa. Lui calcola la mappa e le traiettorie, l'AI funziona alla grande. Ma è un percorso matematico, si interrompe davanti ad un qualcosa tramite un sensore, non deve inventarsi scene che non esistono
Questa cosa del multiscatto per come è implementata è davvero portentosa, sono d'accordo con Made che dovrebbero portarla a questo livello anche sulle fotocamere, ad esempio la a9 scatta in raw con otturatore elettronico (velocissimo) a 20fps, quindi si potrebbero combinare 10 o più scatti acquisiti senza le vibrazioni indotte dallo specchio e dall'otturatore in un raw o un dng dalle potenzialità infinite...ma ancora nada.
user117231
inviato il 12 Maggio 2018 ore 20:51
A che scopo ? Diventerebbe troppo facile scattare foto tecnicamente buone.. si finirà per perdere il senso del manico.
user92328
inviato il 12 Maggio 2018 ore 22:08
Felix, il manico sarà sempre indispensabile e serve nella scelta del soggetto....... senza manico non si canta messa...!!
Il multiscatto è "prevedibile" di quanto migliori SNR, ossia sqrt(n), dove n è il numero di scatti. E' quello che fanno TAC e RM. In fotografia il problema è che il segnale S non è "ingessato" come in altri sistemi di acquisizione ed è il movimento la turbativa. Cmq se raffiche velocissime e sovrapposizioni vengono "aiutate" da SW all'altezza si può dire che il segnale S sia sommato linearmente quasi al 100%. E' quello che scrive Master di Gcam, meglio di Sony OGGI.
I metodi AI non sono concettualmente limitati come quelli a multiscatto. In chimica analitica strumentale le reti neurali sono utili con "training set" di migliaia di spettri. Questo è il limite della AI: il training set, non i risultati ottenibili.
Il vero problema in fotografia è che il read noise del sensore continuerà a migliorare, lo shot noise della luce no, perché è intrinseco nella SORGENTE.
Il multiscatto (signal averaging) è utile al massimo quando il rumore lo fa il SENSORE, non la SORGENTE. Quindi dal multiscatto ci si aspetta il meglio quando SNR iniziale è basso. Sono fatti arcinoti agli addetti ai lavori
Ciao @Valgrassi. Spero che tu possa rispondere alle mie domande. Se la Gcam riesce ad allineare più scatti in maniera intelligente anche se all' interno della scena il soggetto si muove come può essere utile su sensori grandi che produrrebbero vari scatti col soggetto fuori fuoco a causa della pdc ridotta e il soggetto in movimento? Non è solo un sistema che supera i limiti di tempo grazie all' allineamento? Non è limitante quando il movimento lo si vuole riprendere (panning, lunghesposizioni ecc...)? Perchè così a me dà l' impressione di essere uno stabilizzatore intelligente evoluto che su aps-c e FF può diventare una funzione da utilizzare all' occorrenza (a mano libera) e solo in certi casi (tutto a fuoco), anzichè essere utile quasi sempre e comunque come su un cellulare.
“ I metodi AI non sono concettualmente limitati come quelli a multiscatto. In chimica analitica strumentale le reti neurali sono utili con "training set" di migliaia di spettri. Questo è il limite della AI: il training set, non i risultati ottenibili. „
Come giustamente hai scritto "non sono concettualmente limitati". Ma nella pratica sono limitatissimi in molti casi e fanno acqua ovunque. Un AI fotografica come quella che vorrebbero sviluppare dovrebbe fare le foto dell'intero mondo. Dovrebbe avere nel database tutte le persone del mondo in tutte le situazioni al mondo per essere concretamente valido, ed il livello di fattibilità è pari a quello che ha un Elefante di arrampicarsi su un albero
In memoria dovrebbe avere ogni centimetro quadrato del mondo sviluppato su ogni oggetto/persona che lo occupa. Non solo, la ricostruzione sarebbe comunque limitata anche in quella circostanza.
Uscendo quindi dalla teoria della cosa che la reputo un esercizio di stile anche parlarne, e discutendo di fattibilità e fruibilità trovo che la GCam sia il discorso percorribile (e già funzionale) attualmente possibile.
Non solo non deve ricostruire nulla, ma porta vantaggi di ogni genere.
“ Ciao @Valgrassi. Spero che tu possa rispondere alle mie domande. Se la Gcam riesce ad allineare più scatti in maniera intelligente anche se all' interno della scena il soggetto si muove come può essere utile su sensori grandi che produrrebbero vari scatti col soggetto fuori fuoco a causa della pdc ridotta e il soggetto in movimento? Non è solo un sistema che supera i limiti di tempo grazie all' allineamento? Non è limitante quando il movimento lo si vuole riprendere (panning, lunghesposizioni ecc...)? Perchè così a me dà l' impressione di essere uno stabilizzatore intelligente evoluto che su aps-c e FF può diventare una funzione da utilizzare all' occorrenza (a mano libera) e solo in certi casi (tutto a fuoco), anzichè essere utile quasi sempre e comunque come su un cellulare. „
Alessandro ti fai troppe domande secondo me. E' un sistema che neanche è arrivato fuori da "Android" e già stai pensando a come funzionerebbe sulle fotocamere E' come se inviti a cena Naomi Campbell e prima ancora di ricevere la sua risposta ti metti a casa a cucinare pensando al menù ed al vino da mettere a tavola
Se anche ci fossero dei limiti (ma non credo) sarebbe sempre un plus infinito averlo piuttosto che non averlo, ma è prematuro parlarne in ogni contesto fino a che non vedrà la luce.
Attualmente se si volesse "sognare" sarebbe più facile pensare ad un sensore più grande da applicare su smartphone (cosa del tutto fattibile, il limite è solo la richiesta di mercato). La prima azienda che lo fa uscire se girasse su Snapdragon ci si potrebbe montare GCam e fruirne liberamente.
user117231
inviato il 13 Maggio 2018 ore 12:45
Made, sicuramente mi sbaglio ma non è che sei uno prolisso e che gli piace tanto chiaccherare ?
“ E' un sistema che neanche è arrivato fuori da "Android" „
Questa è un'affermazione forte. Il principio di unire più scatti ha più di qualche anno. Probabilmente Google, con GCam ha perfezionato l'algoritmo in modo che sia efficiente, ma nulla vieta di applicare off camera (o off-smartphone) gli stessi principi, e io oggi c'ho provato. Di seguito una foto fatta a 12.800 iso, f2.8, 1/100 di secondo:
Questa è stata estratta da una piccola clip girata con le stesse condizioni di luce e poi elaborata con PS:
Entrambe hanno un minimo di pp, in particolare sulla prima ho applicato un minimo di riduzione del rumore, sulla seconda un po' di sharpening, ma ovviamente c'ho perso veramente molto poco tempo.
A mio pare la prima ha più dettaglio, ma anche più rumore. La seconda ha 0 rumore, ma si perde del dettaglio, probabilmente a causa di un non perfetto allineamento dei fotogrammi.
Sarebbe interessante sapere se esiste un software di pp, specializzato, semplice, veloce, smart, che estrae i fotogrammi da una clip, li allinea, li unisce e crea un TIFF, magari sfruttando anche tecniche di AI .
“ I metodi AI non sono concettualmente limitati come quelli a multiscatto. In chimica analitica strumentale le reti neurali sono utili con "training set" di migliaia di spettri. Questo è il limite della AI: il training set, non i risultati ottenibili. „
Il problema è che Made in Italy non sa nemmeno di cosa sta parlando nel caso specifico ma crede di aver capito tutto (oltre a giudicare un progetto di ricerca basandosi su conoscenze pari a zero) e penso che lo avrai potuto tranquillamente constatare dalle boiate che scrive quando parla di AI.
@Ale.c
“ Questa è un'affermazione forte. Il principio di unire più scatti ha più di qualche anno. Probabilmente Google, con GCam ha perfezionato l'algoritmo in modo che sia efficiente „
Lui è il tipico fanboy, ormai è evidente.
Che cosa ne pensi di questo argomento?
Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 251000 iscritti, c'è spazio per tutti, dal principiante al professionista.