RCE Foto

(i) Per navigare su JuzaPhoto, è consigliato disabilitare gli adblocker (perchè?)






Login LogoutIscriviti a JuzaPhoto!
JuzaPhoto utilizza cookies tecnici e cookies di terze parti per ottimizzare la navigazione e per rendere possibile il funzionamento della maggior parte delle pagine; ad esempio, è necessario l'utilizzo dei cookie per registarsi e fare il login (maggiori informazioni).

Proseguendo nella navigazione confermi di aver letto e accettato i Termini di utilizzo e Privacy e preso visione delle opzioni per la gestione dei cookie.

OK, confermo


Puoi gestire in qualsiasi momento le tue preferenze cookie dalla pagina Preferenze Cookie, raggiugibile da qualsiasi pagina del sito tramite il link a fondo pagina, o direttamente tramite da qui:

Accetta CookiePersonalizzaRifiuta Cookie

Alti iso e Intelligenza Artificiale, risultati impressionanti


  1. Forum
  2. »
  3. Fotocamere, Accessori e Fotoritocco
  4. » Alti iso e Intelligenza Artificiale, risultati impressionanti





avatarjunior
inviato il 13 Maggio 2018 ore 13:37

Sarebbe interessante sapere se esiste un software di pp, specializzato, semplice, veloce, smart, che estrae i fotogrammi da una clip, li allinea, li unisce e crea un TIFF, magari sfruttando anche tecniche di AI


ci stanno i programmi di stacking planetario che sono abbastanza precisi ma son vecchi e l'automazione è veramente poca

avatarsenior
inviato il 13 Maggio 2018 ore 14:07

Il problema è che Made in Italy non sa nemmeno di cosa sta parlando nel caso specifico ma crede di aver capito tutto (oltre a giudicare un progetto di ricerca basandosi su conoscenze pari a zero) e penso che lo avrai potuto tranquillamente constatare dalle boiate che scrive quando parla di AI.


Per fortuna che ci sarai te che risolverai il problema.
Sono sicuro che riuscirai a fare in modo tale che tutte le scene sul pianeta diventino utilizzabili da un AI.
Ho capito perfettamente come funziona il programma, ed ha necessità di registrare scene, miliardi di scene.
Se poi intendi andare a fotografare tutto l'oceano marino sott'acqua in multi esposizione per registrare scene, o se intendi andare sulla luna o su Marte a registrare ogni pixel presente per insegnare all'AI come comportarsi fai pure.

A questo punto comincio a domandarmi anche io se hai minimamente presente del database infinito che necessiterebbe un sistema del genere per funzionare per non renderlo un "esercizio di stile".

Hai mai provato a parlare con Cortana? Con Siri? Con Google Assistant?
Oltre il "che tempo fa" e "mi porti da zona X a zona Y" o "imposta la sveglia" non vai.

Si ok, negli anni hanno inserito centinaia di migliaia di discussioni tipo, ma ancora oggi nonostante gli ingenti investimenti ed i miliardi investiti ancora non si riesce ad avere uno stralcio di conversazione con un AI.

L'AI fotografica è ancora più complicata di un "Siri" perchè non necessita solo di una battitura per essere "educata".
Necessita di scatti a doppia/tripla esposizione di tutti quei posti possibili dove dovrebbe trovarsi.

Sono io a non capire come funziona o tu credi un pò troppo in un qualcosa che non può esistere?
Credi che un Siri domani mattina sostituisca le sedute di uno Psicologo quando gli dici "mia moglie mi ha lasciato come mi comporto?"

E' una benedetta intelligenza AI, risponde a comandi prestabiliti, non potrà mai imparare tutto neanche se investissero tutti i soldi della galassia. E se concettualmente come ha scritto Valgrassi gli si può insegnare di tutto, nella pratica (quella concreta) non potrà mai farlo.

E con la fotografia ancora peggio!

Lui è il tipico fanboy, ormai è evidente.


Eeeek!!!
Fan di cosa?
Di un Software? Spero che sia uno scherzo Eeeek!!!

avatarsenior
inviato il 13 Maggio 2018 ore 14:18

@Ale.c infatti per situazioni statiche non è niente di nuovo. Anche l' allineamento intelligente con riconscimento di pixel in movimento è niente di nuovo, software per astrofotografia già lo fanno. Per la praticità e la velocità di esecuzione è sbalorditivo sui cellulari. A me lascia perplessa l' applicazione quando la scena non è "tutta a fuoco" ed è chiaro che sia così in avifauna ad esempio e quando il movimento deve essere ripreso, il che limiterebbe la sua applicazione a sensori grandi e ad una manciata di situazioni. Che i costruttori non riescano a capire e sviluppare anche da soli quella cosa non ci credo. Che possa funzionare bene di default su un sensore più grande come su un cellulare ci credo poco. Mi aspetto una funzione avanzata escludibile su ml, aps-c e FF come è stato in passato il sensazionalismo dell' hdr.

avatarsenior
inviato il 13 Maggio 2018 ore 14:22

Hai mai provato a parlare con Cortana? Con Siri? Con Google Assistant?
Oltre il "che tempo fa" e "mi porti da zona X a zona Y" o "imposta la sveglia" non vai.


dai però, forse tra un decennio ai e androidi saranno un minimo decenti


avatarsenior
inviato il 13 Maggio 2018 ore 14:29

Ho capito perfettamente come funziona il programma, ed ha necessità di registrare scene, miliardi di scene.


Perdonami, non ti offendere, ma no, non hai capito proprio nulla. L'AI emula l'intelligenza umana. Una AI ha bisogno di training come ce ne ha bisogno un essere umano. Così come tu non hai bisogno di vedere (imparare) tutti i cani sul pianeta per intuire che un animale a 4 zampe è un cane, distinguendolo da un gatto o da altro, così un'AI non ha bisogno di avere immagini di tutto l'oceano sottomarino sott'acqua in multi esposizione.

avatarsenior
inviato il 13 Maggio 2018 ore 14:37

Perdonami, non ti offendere, ma no, non hai capito proprio nulla. L'AI emula l'intelligenza umana. Una AI ha bisogno di training come ce ne ha bisogno un essere umano. Così come tu non hai bisogno di vedere (imparare) tutti i cani sul pianeta per intuire che un animale a 4 zampe è un cane, distinguendolo da un gatto o da altro, così un'AI non ha bisogno di avere immagini di tutto l'oceano sottomarino sott'acqua in multi esposizione.


Ale perdonami ma evidentemente non ci capiamo.
Ultimamente sto usando un cellulare con AI fotografica e ho capito bene cosa vuol dire "AI" e "rilevamento scene".

Significa che se stai scattando un parco, lui capisce "verdura".
E se anche capisce che è "parco" non sa che ad esempio c'è una persona in quel parco, se quindi applica una post produzione "parco" non andrà bene per la persona fisica che è nello stesso posto.
E se c'è un sole forte e lui contrasta non capisce che il sole è forte.
E se fotografo una persona al mare lui rileva "mare" ma non sa che la mia intenzione non è fotografare il mare ma magari il bagnino, o il castello fatto dai bambini o almeno altre 19 miliardi di situazioni dove sta benedetta AI non può capire quello che stiamo facendo, e fa errori su errori e finisce per farti buttare tutti gli scatti, tanto che per me si può tenere solo disattivata.

Per questo l'AI anche tra 100 anni sarà sempre limitata e non potrà mai capirci, non può comprendere scene, pure se ce ne metti mezzo milione perchè le variabili di ogni scena sono infinite.


avatarsenior
inviato il 13 Maggio 2018 ore 14:38

Alessandro, il mio esperimento ha una cospicua parte fuori fuoco ed è stata fatta con una ff, quindi nessuno di questi due aspetti a mio modo di vedere costituiscono un impedimento. Sono d'accordo invece sul fatto che la tecnica non è applicabile con soggetti in movimento, in quanto il numero di frame utili all'elaborazione si riducono tanto più quanto più è rapido il movimento. Concordo anche sul fatto che il grande valore aggiunto di GCam è la qualità del risultato che ottiene in tempi così brevi.

avatarsenior
inviato il 13 Maggio 2018 ore 14:51

Made, gli esempi che hai portato sono pertinenti se si parla di AI, non lo sono nello specifico contesto che, ricordo, è “alti iso e ai...”. Ad ogni modo, se tu deleghi a qualcun altro, che sia una un essere umano o una intelligenza artificiale, la scelta di alcuni parametri (esposizione, fuoco, pp, ecc.) può capitare che l'intelligenza compia delle scelte non perfettamente in linea con le tue aspettative. Succede anche se deleghi al tuo assistente l'esecuzione di un servizio fotografico senza che prima lo istruisci a dovere, e succede non perché la sua intelligenza non è abbastanza acuta, ma piuttosto perché compie delle scelte basate sul proprio “io”, sulla sua (in)esperienza.

avatarsenior
inviato il 13 Maggio 2018 ore 14:55

L' AI è un concetto molto generico, alla base c' è l' intelligenza umana degli sviluppatori. Per me l' AI per il rumore digitale studia l' introduzione di rumore generato dal sensore in condizioni di scarsa luce e simula il processo inverso, elimina ciò che è stato introdotto dal sensore e lo ricostruisce dalle poche informazioni utili che ha (riconoscendole). Una banca dati di probali scatti di un fotografo mi sembra fantascienza ad oggi. Così, per ragionare, tanto avranno anche loro dei segreti.

avatarsenior
inviato il 13 Maggio 2018 ore 15:01

Made, gli esempi che hai portato sono pertinenti se si parla di AI, non lo sono nello specifico contesto che, ricordo, è “alti iso e ai...”. Ad ogni modo, se tu deleghi a qualcun altro, che sia una un essere umano o una intelligenza artificiale, la scelta di alcuni parametri (esposizione, fuoco, pp, ecc.) può capitare che l'intelligenza compia delle scelte non perfettamente in linea con le tue aspettative. Succede anche se deleghi al tuo assistente l'esecuzione di un servizio fotografico senza che prima lo istruisci a dovere, e succede non perché la sua intelligenza non è abbastanza acuta, ma piuttosto perché compie delle scelte basate sul proprio “io”, sulla sua (in)esperienza.


Ale.c il mio pensiero è molto semplice e sono sicuro che non è assurdo.
Il rumore cancella via dettaglio e zone intere, vediamo se riusciamo a capirci.

forums.oneplus.com/attachments/low-light-op5t-hdr-jpg.632226/

In questa classica scena puoi notare come il rumore cancelli gran parte della foto.
Ora, tu puoi istruire anche a perfezione un'AI nel "capire" quale è il rumore e rimuoverlo dalla scena (anche questa cosa per me è infattibile ma sarebbe stata decisamente più intelligente) ma una volta che l'hai istruita ti rimangono dei buchi vuoti dove l'AI dovrà ricostruire quello che è stato cancellato e che non è mai stato registrato.

Se prendi le persiane, ammesso che l'AI ti rimuova tutto il rumore poi come mi ridisegni?
Te le inventi? Cioè cerchiamo di rimanere un pò concreti.

Le ricostruisci solo se hai fatto una doppia esposizione come nell'example del video, altrimenti le tapparelle non te le inventi e non esisterà mai un'AI sufficientemente intelligente da farti questo

forums.oneplus.com/attachments/low-light-op5t-gcam-hdr-jpg.632227/

Poi se tu credi che un'AI possa riuscire a capire la scena senza averla mai registrata in doppia esposizione (esatto, perchè non possiamo fotografare l'intero mondo come database) e ricrearla dal nulla dopo aver tolto il rumore, ben venga.
Viviamo di idee diverse, ci sta.

L'AI emula l'intelligenza umana


L'AI tenta di emulare, se la emulasse non staremmo qui a discuterne :-P

avatarsenior
inviato il 13 Maggio 2018 ore 15:40

@Ale.c il tuo esperimento ha un soggetto statico. Quello che intendevo è di provare a fare una raffica mentre sposti la posizione del dove (puoi anche usare il treppiede). Gcam da quegli scatti è in grado di riconoscere i pixel e rimettere il dove nella stessa posizione (vedi la foto che ha messo Made in Italy dell' uomo che corre in acqua), il vero vantaggio è lì, come i software di allineamento intelligente ma è rapidissimo e in tempo reale. In scene statiche non ha senso qualitativo ma solo praticità (si fa già). Virtualmente sono in grado di alzare il tempo utile di posa. Come si fa con uno stacking. Il problema è che il deodorante con FF sarà a fuoco in una sola posizione e non c' è inseguimento af che tenga. Su un cellulare il movimento non ha problemi di fuoco e il soggetto si muove all' interno della pdc. Se per funzionare occorre avere tutto a fuoco su FF in condizioni di scarsa luce è una cane che si morde la coda perchè bisogna chiudere il diaframma. Al contrario sarebbe in grado di fare uno stacking immediato in tempo reale (che figata), potessi provarlo col cellualare lo farei, solo per metterlo alla prova.

avatarjunior
inviato il 13 Maggio 2018 ore 15:47

Perdonami, non ti offendere, ma no, non hai capito proprio nulla.


@Ale.c guarda, Made in Italy con la frase " ho capito perfettamente " ha già fatto ampiamente intendere la sua propensione (pari a zero) nel mettere anche soltanto minimamente in dubbio il fatto che forse dovrebbe rivedere le sue convinzioni basate su presupposti totalmente errati e conoscenze tecniche comprensibilmente nulle. Evidentemente, visto che ai suoi occhi stiamo dicendo noi boiate e lui invece ha capito tutto, non vuole nemmeno aprire Wikipedia (non dico tanto eh, mica pretendo che tutti abbiano studiato su queste cose) per leggere almeno la pagina relativa all' apprendimento supervisionato e capire quindi il motivo per cui in quel filmato vengono dati in pasto all'AI doppie esposizioni e cosa questo dovrebbe servire all'AI stessa. Noooo, invece preferisce rimanere convinto che un algoritmo di AI applicato in questo contesto debba capire che c'è una tapparella e conoscere come è fatta (anzi conoscere le tapparelle di tutto il mondo, da tutte le angolazioni possibilmente) per ricostruirla, manco fosse un render con Cinema 4D, dopo aver rimosso gli artefatti introdotti dal rumore.

avatarsenior
inviato il 13 Maggio 2018 ore 15:54

NRK sei tu che non intendi, sei ostinato.

Se faccio la foto ad un mio parente ad alti ISO e la foto me la devi ricostruire con AI, che fai le cambi il naso e ne prendi uno dal database? le cambi gli occhi? Ma si tanto sono simili!

Ma stiamo scherzando?

L'unico modo che hai per ricostruire quel naso o quegli occhi è avere quella persona nel database e fotografarla in 3D per avere le varie sfaccettature di quel viso.

Cosa facciamo un database di tutte le persone al mondo e ogni anno gli facciamo rinnovare le foto su come ingrassano o invecchiano?

Oppure mi stai dicendo che l'AI è talmente intelligente da capire che hai un neo sul viso dopo che non è stato registrato?

Ma di cosa stiamo parlando?

Al mio cane che facciamo, gli mettiamo il muso più piccolo perché "dovrebbe andare bene?"
Ah no ma basta avere un solo cane nel database!
Il mio Chiwuaua domani nella ricostruzione gli mettiamo un bel musetto da Pitbull tanto è circa la stessa cosa.

Ora finché si scherza ok, ma tu veramente credi che una tecnologia possa ricostruire quello che non è stato memorizzato dal sensore?

Tanta stima.

avatarsenior
inviato il 13 Maggio 2018 ore 16:00

@Made in Italy sono d' accordo sul miglior approccio nella cattura piuttosto che nella ricostruzione. Però in ambito della sicurezza è un po' che tramite AI ricostruiscono un volto da una piccola manciata di pixel in maniera strabiliante. Tornando alla fotografia Gcam qualche limite potrebbe averlo (spero di sbagliarmi) e l' AI potrebbe sopperire alle sue mancanze. Alla fine loro lavorano e noi possiamo provare, scegliere e utilizzare. Aspettiamo e proviamo tutto.

avatarsenior
inviato il 13 Maggio 2018 ore 16:18

Per fedeltà del dettaglio non c' è AI che tenga, l' esempio dei cani espime bene e in maniera divertente il concetto. Ma quanto peso dare a queste considerazioni dipende dagli enormi passi fatti dall' AI e dall' immagine di partenza. Google+ ha ridotto la definizione delle foto al 25% e non si vede, la ricostruzione è ineccepibile.

Che cosa ne pensi di questo argomento?


Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!

Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 243000 iscritti, c'è spazio per tutti, dal principiante al professionista.






Metti la tua pubblicità su JuzaPhoto (info)


 ^

JuzaPhoto contiene link affiliati Amazon ed Ebay e riceve una commissione in caso di acquisto attraverso link affiliati.

Versione per smartphone - juza.ea@gmail.com - Termini di utilizzo e Privacy - Preferenze Cookie - P. IVA 01501900334 - REA 167997- PEC juzaphoto@pec.it

www.juzaphoto.com - www.autoelettrica101.it

Possa la Bellezza Essere Ovunque Attorno a Me