RCE Foto

(i) Per navigare su JuzaPhoto, è consigliato disabilitare gli adblocker (perchè?)






Login LogoutIscriviti a JuzaPhoto!
JuzaPhoto utilizza cookies tecnici e cookies di terze parti per ottimizzare la navigazione e per rendere possibile il funzionamento della maggior parte delle pagine; ad esempio, è necessario l'utilizzo dei cookie per registarsi e fare il login (maggiori informazioni).

Proseguendo nella navigazione confermi di aver letto e accettato i Termini di utilizzo e Privacy e preso visione delle opzioni per la gestione dei cookie.

OK, confermo


Puoi gestire in qualsiasi momento le tue preferenze cookie dalla pagina Preferenze Cookie, raggiugibile da qualsiasi pagina del sito tramite il link a fondo pagina, o direttamente tramite da qui:

Accetta CookiePersonalizzaRifiuta Cookie

Secondo voi questa foto è vera?


  1. Forum
  2. »
  3. Computer, Schermi, Tecnologia
  4. » Secondo voi questa foto è vera?





avatarsenior
inviato il 16 Marzo 2023 ore 16:03

Cioe' si parte dal presupposto che ogni particolare fuori fuoco in qualche misura venga registrato sui pixel di una certa zona. Con regressioni quadratiche ed altri metodi matematici e' possibile individuare su quali pixel sarebbe registrato se fosse a fuoco, permettendo cosi di eliminare la sua presenza sui pixel in cui e' apparso per difetto di messa a fuoco.
L'obiettivo finale dello studio e' fare un sistema ottico che non abbia piu' bisogno di lenti, ne di messa a fuoco.







Ok Salt, la cosa è molto interessante, e lo dico davvero, però adesso diciamocelo chiaramente: tutto questo può ancora chiamarsi fotografia?

avatarjunior
inviato il 16 Marzo 2023 ore 16:36

La luce di per se non scrive nulla da nessuna parte. La luce provoca delle variazioni chimiche o fisiche su supporti predisposti, ma senza una procedura sucessiva noi non siamo in grado di vedere questi effetti. Se dopo averla esposta srotoli la pellicola vedi forse qualcosa? In tutti i casi serve una procedura sucessiva per rendere visibile l'azione della luce sul supporto sia che sia chimico che elettronico, senza non otteniamo nulla.

Questa procedura è cambiata molte volte in passato e cambierà ancora in futuro col mutare ed il procedere della tecnica. Se l'azione iniziale parte dal raccoglire l'informazione luminosa riflessa dal soggetto che vogliamo riprendere non è la tecnica che usiamo per rivelarla a determinare che sia o non sia una fotografia.

avatarsenior
inviato il 16 Marzo 2023 ore 16:37

E' la cosa più sensata che ho letto ultimamente

avatarsenior
inviato il 16 Marzo 2023 ore 17:14

Ok Salt, la cosa è molto interessante, e lo dico davvero, però adesso diciamocelo chiaramente: tutto questo può ancora chiamarsi fotografia?


beh e' ovvio che sia fotografia. Stai raccogliendo un fascio di luce e con questo impressioni un negativo o illumini un sensore.

nel caso abituale il fascio di luce viene messo a fuoco su un piano e le differenze di intensita'/frequenza determinano il segnale con cui, con una certa precisione, ricostruisci l'immagine.
Nel caso da me citato anche se l'immagine e' fuori fuoco, viene trattata ugualmente e l'informazione viene "calcolata" per ricavare per "deduzione" i profili sfocati. rendendo poi l'immagine a fuoco.

E' un po' come se tu scattassi ogni ora una foto di un germoglio che cresce. Disponendo di tutte le fotografie potresti per esempio ricavare per "deduzione" le fotografie allo scadere della mezz'ora.
Certamente non sarebbero fotografie REALI. Ma sarebbero le immagini che meglio APPROSSIMANO le immagini reali.

user198779
avatar
inviato il 16 Marzo 2023 ore 17:25

Faggio

"La luce di per se non scrive nulla da nessuna parte. La luce provoca delle variazioni chimiche o fisiche su supporti predisposti, ma senza una procedura sucessiva noi non siamo in grado di vedere questi effetti. Se dopo averla esposta srotoli la pellicola vedi forse qualcosa? In tutti i casi serve una procedura sucessiva per rendere visibile l'azione della luce sul supporto sia che sia chimico che elettronico, senza non otteniamo nulla.

Questa procedura è cambiata molte volte in passato e cambierà ancora in futuro col mutare ed il procedere della tecnica. Se l'azione iniziale parte dal raccoglire l'informazione luminosa riflessa dal soggetto che vogliamo riprendere non è la tecnica che usiamo per rivelarla a determinare che sia o non sia una fotografia."

Elementare Watson ;-)


avatarsenior
inviato il 16 Marzo 2023 ore 17:28

Questa é la risposta di Samsung al quesito relativo a una luna molto dettagliata:

“Quando un utente scatta una foto della Luna, la tecnologia di ottimizzazione della scena basata sull'AI riconosce la Luna come oggetto principale e scatta più fotogrammi per la composizione di più frame, dopodiché l'AI migliora i dettagli della qualità dell'immagine e dei colori. Non applica alcuna sovrapposizione di immagini alla foto”.

www.wired.it/article/foto-luna-samsung-galaxy-s23-ultra-zoom/?brand=wi

avatarjunior
inviato il 16 Marzo 2023 ore 22:23

Cerco di capire quei dettagli una IA da dove li può estrapolare se non da una immagine di campione.

Se guardo il medesimo soggetto ( nello caso la Luna ) specifici particolari li vedo ( e sottolineo li vedo) solo con particolari apparecchi. Il sensore (il mio occhio) è sempre il medesimo. Si è ridotta fievolmente la sensibilità ma il potere risolutivo e il medesimo. Faccio una deduzione logica . Se quello che ho "scansionato e salvato" nel mio hard-disc biologico con una lente da 150mm non sono mai riuscito nemmeno di fantasia a "registrarlo", anche soltanto in aree limitare se pur fugacemente, con un mezzo di minore diametro ( esempio lente da 70mm) forse un motivo ci sarà??? Pur nell'eventualità ipotetica di non accettare i principi fisici riconosciuti ed accettati univocamente come effettivi almeno la regola di San Tommaso la dovrò tenere in conto. Di mio non mi baso su una osservazione fugace di un paio di minuti col binocolo giocattolo. Ma da più di 30 anni di osservazione dagli strumenti più disparati.
E tra un occhio ben allenato ed un sensore poco ci passa.
Idem per il "processore e HD annesso"

Faccio fatica a capire come si possa essere fuorviati così facilmente da slogan di marketing rispetto a semplici regole matematiche.

Che la chiamino Simulazione.

Lungi dall'essere polemico ma quello che propinano preferirei che venisse chiamato con un nome più rispondente a verità rispetto al dire di riuscire a fare una fotografia con quel dato mezzo.
Se mi dicessero " ehi tu!!! Hai la possibilità di ottenere una simulazione la più accurata possibile rispetto alla realtà col dato software ed IA annessa basata su algoritmi e database" potrei anche trovare la proposta interessante.

Sarebbero più genuini e potrebbero forse stuzzicare la mia curiosità.

Nel caso contrario passo e rimango fedele a ciò che per mia esperienza reputo più vicina alla realtà per come la percepisco.

E poi divento sospettoso ponendomi un semplice domanda.
Ma se realmente è il mezzo che lo fa sarebbe in grado di farlo senza una sim al suo interno ed una connessione alla rete?

Sono onesto e ammetto di non averci mai nemmeno provato.

Il telefono lo uso per comunicare spendendoci il meno possibile. Se li devo spendere preferisco farlo il kg di vetro e sono sicuro del risultato. Almeno in visuale visto che a fare foto so di mio che faccio caxxre.







avatarsenior
inviato il 17 Marzo 2023 ore 6:57

Non ho mai fotografato la luna col cellulare ma nel mio ultimo viaggio in islanda, grazie ai telefoni e la possibilità di scattare lunghe esposizioni,abbiamo più volte fotografato L'Aurora boreale.
Ovviamente con cavalletto, obiettivo luminoso e 1600/2000 iso la foto è migliore, ma tutti,con un buon telefono, possono scattare ottime foto senza portarsi dietro 15kg di zaino.

avatarsenior
inviato il 17 Marzo 2023 ore 7:13

Forse non avete mai visto un proRAW fatto da un iphone 14, ha più dinamica di una FF o bene o male al pari.

In giro ne trovate qualcuno da scaricare

Alla fine è il motivo per cui il mercato si sta contraendo

avatarsenior
inviato il 17 Marzo 2023 ore 8:25

beh partiamo dal fatto che un cellulare puo' scattare una buona foto del cielo stellato.
Non e' questo il punto.

Il punto e' che e' possibile raffinare una misura grezza e renderla piu' precisa, partendo da un gruppo di misure reali e "ricavando" il valore "vero" per deduzione.


Per esempio. Devo misurare con precisione il livello di acqua in una vasca ma l'acqua e' agitata da onde.
Facendo una sola misura otterro' un valore VERO che non corrisponde pero al livello dell'acqua (perche' l'onda ha falsato la misura). In pratica e' cio che fa il sensore.. registra UNO scatto in un determinato momento.

Facendo piu' misure otterro' alcuni valori VERI ma errati che, mediati, avvicineranno il valore CALCOLATO alla misura REALE del livello. Cioe' la misura calcolata e' piu precisa e rappresenta meglio il livello dei valori misurati.


Facendo piu' misure in momenti noti ed inserendo quindi la variabile tempo nel calcolo del livello, possiamo per esempio individuare dei fenomeni ondulatori prevedibili (le onde) e CALCOLARE l'influenza di queste onde sulla misura di livello, neutralizzando l'errore. In questo caso il valore trovato sara' un valore assolutamente teorico. Non corrispondera' a nessun valore misurato MA... sara' il valore che piu' approssima il valore vero del livello.


avatarjunior
inviato il 17 Marzo 2023 ore 10:02

@Salt

È quello che fa lo stalking. Raffiche di fotogrammi analizzati ponendo punti specifici di riferimento su un singolo fotogramma di campione e fusione tramite specifici algoritmi che riconoscono specifiche aree non distorte in ogni singolo fotogramma utile per ottenere una sola immagine ben definita. Parti comunque da immagini con dettaglio sufficiente. Ma lo si fa da un decennio e più. Non mi pare questa grande novità.

avatarsenior
inviato il 17 Marzo 2023 ore 10:03

I cellulari per aumentare la gamma dinamica e definizione sommano più scatti ma questo si è sempre fatto anche in paesaggio con l'HDR e il focus stacking non ci vedo nulla di scandaloso.

Senza contare che PER ME è il risultato che conta, la scena sembra quella reale? allora la foto è riuscita

Avete mai provato questo software?
www.topazlabs.com/sharpen-ai
Io ce l'ho ed ho salvato anche foto molto mosse

Per questo sono convinto che OM System si sia ormai fumata la sua ultima carta, ha sbandierato la fotografia compatuzionale nella OM-1 ma non ha fatto altro che fare un restyle di quello che erano le Olympus e ci scommetterei ( da come stanno andando le cose ) che spremono quel che resta e poi vendono a qualche produttore di cellulari ( se ci riescono ) perchè nel frattempo saranno andati ben oltre

Sono già stati annunciati annunciati o forse addirittura usciti i primi telefono con sensore 1" e con i diaframmi regolabili

Quello che non potranno aere se non simulando è la PDC

avatarsenior
inviato il 17 Marzo 2023 ore 10:04

Bene ora la ho sul cellulare e se funziona bene ben venga
Si potrà sfruttare di più e meglio

Sono già annunciati o forse addirittura usciti i primi telefono con sensore 1" e con i diaframmi regolabili

purtroppo pare solo per l'asia perchè in europa dovrebbero essere venduti a prezzi troppo alti e avrebbero vendite troppo basse

avatarsenior
inviato il 17 Marzo 2023 ore 10:08

Qui potete scaricare un ProRAW del 14 PRO ( che possiedo )
Di solito folio editor lo aprono completamente sotto esposto
Provate ad aprire le ombre e vi accorgerete che i colori / saturazione ci sono

www.dropbox.com/s/kl764411n9jxr5c/iPhone14Pro_ProRAW48MP.DNG?dl=1

fonte ( è a metà articolo )
www.austinmann.com/trek/iphone-14-pro-camera-review-scotland/

avatarsenior
inviato il 17 Marzo 2023 ore 12:40

Facendo piu' misure otterro' alcuni valori VERI ma errati che, mediati, avvicineranno il valore CALCOLATO alla misura REALE del livello. Cioe' la misura calcolata e' piu precisa e rappresenta meglio il livello dei valori misurati.

Più o meno quello che l'occhio umano fa da millenni, ma senza che ce ne accorgiamo.
Quando ci sembra di fissare un punto, in realtà il nostro occhio esegue una quantità di velocissimi microspostamenti; questi servono sia per aumentare la pdc (quanti possono dire di vedere davvero sfocature ai lati del soggetto principale del proprio sguardo?), sia per chiudere luci e aprire ombre (giusto per usare un linguaggio più conosciuto a chi lavora in PP); poi il cervello elabora il tutto altrettanto velocemente.
Ovvio che milioni di anni di evoluzione abbiano portato a risultati superiori a quelli attualmente ottenibili con ottiche e AI, ma il divario si sta riducendo.
L'unico vero problema è che questo sminuisce la preparazione e l'abilità tecnica dei fotografi tradizionali, ma dovremo abituarci a dare valore ad altre doti di chi sta dietro il mirino dell'oggetto tecnologico con cui scatteremo foto in futuro.

Che cosa ne pensi di questo argomento?


Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!

Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 241000 iscritti, c'è spazio per tutti, dal principiante al professionista.






Metti la tua pubblicità su JuzaPhoto (info)


 ^

JuzaPhoto contiene link affiliati Amazon ed Ebay e riceve una commissione in caso di acquisto attraverso link affiliati.

Versione per smartphone - juza.ea@gmail.com - Termini di utilizzo e Privacy - Preferenze Cookie - P. IVA 01501900334 - REA 167997- PEC juzaphoto@pec.it

www.juzaphoto.com - www.autoelettrica101.it

Possa la Bellezza Essere Ovunque Attorno a Me