| inviato il 29 Ottobre 2024 ore 18:34
fa anche un bel ritaglio |
| inviato il 29 Ottobre 2024 ore 18:36
Comunque siamo anche noi. Vogliamo gli obiettivi ultraluminosi, leggeri, con zoom fantascientifici e poi..... non vogliamo la correzione software? Signori tutto non è possibile e qualcuno ne approfitta e arronza anche se potrebbe produrre un obiettivo eccellente come il 43 f2 anche senza correzione.... tanto poi il prezzo lo metto sempre alto perchè io sono leitz e voi un ca.zzo |
| inviato il 29 Ottobre 2024 ore 18:46
“ beh personalmente con questo soggetto preferisco senza correzione @Catand „ Lavorando con i RAW, spesso la disattivo - magari cercando di tagliare gli angoli neri. “ fa anche un bel ritaglio „ Perché è un 14 mm DOPO la correzione; in realtà la lente copre un angolo molto più ampio, anche se poi agli angoli finisce fuori dal sensore (gli "angoli neri" che dicevo prima). |
| inviato il 29 Ottobre 2024 ore 19:16
Per questo prima chiedevo se poteva parlarsi ancora di interpolazione se il SW invece di inventare dati e informazioni di pixel “non noti” procedeva semplicemente allo spostamento di informazioni “note” di pixel acquisiti dal sensore, secondo uno schema che di fatto eliminava la distorsione |
| inviato il 29 Ottobre 2024 ore 19:38
Sì, certo che si tratta di interpolazione. Se il sw deve prendere il contenuto di un pixel e "spostarlo" (termine assolutamente improprio, ma adeguiamoci al linguaggio) in una posizione più periferica, poi dovrà anche riempire il vuoto lasciato dal pixel "spostato". Ed è quindi chiaro che molti pixel dovranno essere inventati dal sw, che applicherà un algoritmo di interpolazione (ne esistono diversi, dai più semplici ai più complessi) per determinarne il contenuto. |
| inviato il 29 Ottobre 2024 ore 19:43
Si il termine “spostare” è improprio…comunque il senso l'hai colto; non capisco però perché se l angolo di campo catturato è più ampio è così sicuro che si generi uno spazio vuoto da riempire col ricampionamento. Il sw potrebbe benissimo in teoria cambiare la posizione ad un determinato numero di pixel secondo uno schema dato lasciando gli spazi vuoti alle estremità da ritagliare… no? O comunque la misura del ricampionamento effettivo potrebbe esser estremamente più ridotta di quanto sembri dall area interessata |
| inviato il 29 Ottobre 2024 ore 19:56
Supponiamo di avere una macchina da 20 MP su cavalletto davanti al classico muro di mattonelle. Abbiamo due fissi di ugual focale, uno otticamente perfetto e l'altro progettato prevedendo una massiccia correzione sw. Mettiamo che l'obiettivo perfetto inquadri 150 mattonelle. La stessa foto fatta con l'altro obiettivo mostrerà, DOPO la correzione, le stesse 150 mattonelle, ma se togli la correzione vedi che in realtà il sensore ne aveva immortalate, diciamo, 180. Quelle 30 mattonelle in più sono però andate ad occupare spazio prezioso sul sensore, o, per dirla diversamente, le 150 mattonelle "buone" hanno occupato MENO dei 20 MP totali del sensore. Questi pixel saranno poi riposizionati dal sw sulla griglia dei 20 MP in modo da raddrizzare l'immagine, ma a questo punto è intuitivo che, mentre la prima foto aveva potuto contare sull'intero sensore, la seconda ne ha sprecato una parte. Ovviamente il prodotto finito sarà di 20 MP, ma quei 20 MP non potranno essere tutti "veri" bensì in parte inventati (interpolati) dal sw. |
| inviato il 29 Ottobre 2024 ore 20:07
Facciamo un esempio, con una situazione che non è così infrequente. Scatto una foto a un gruppo di persone, applico la correzione della distorsione sul file raw, e vedo che il volto di una persona si deforma, ad esempio allargandosi. Per ottenere l'immagine finale, non posso semplicemente ordinare in modo diverso i pixel dell'immagine di partenza, per rappresentare il volto di quella persona: essendo "più largo", dovrò generare delle informazioni che nel file di partenza non erano presenti. A questo si aggiunge la questione del ritaglio del file effettuato dalla correzione della distorsione, che comporta una ulteriore interpolazione, se si esporta il file alla risoluzione di partenza. |
| inviato il 29 Ottobre 2024 ore 20:18
Anche secondo me fa una cosa identica al “fluidifica” di Photoshop, non si inventa niente ma si limita a spostare i pixel verso il centro, oltretutto lavorando sulla porzione meno importante del fotogramma. Ad ogni modo possiamo chiamarlo come vi pare, la domanda importante è: crea artefatti tali per cui si vede palesemente l'accrocco, oppure lavora così bene che ci si può anche passar sopra? Ad oggi, dopo 800k foto scattate negli ultimi quattro anni, posso dire che io voto la seconda. Se vi capita sistematicamente pubblicate pure qui le foto incriminate, che sarò ben contento di darci un occhiata. |
| inviato il 29 Ottobre 2024 ore 20:21
Va anche però osservata una questione. In fase di progettazione i tecnici possono cercare di correggere, otticamente, dei difetti che via software sono particolarmente ostici da gestire, per poi lasciare alla parte software delle problematiche meno critiche: rimangono sempre le limitazioni discusse in precedenza, per la parte software, ma non è come correggere solo via software la distorsione di un fish-eye. Detto questo, molto sta a quale sia il punto di equilibrio scelto della casa, che può non essere accettabile per tutti. |
| inviato il 29 Ottobre 2024 ore 21:42
“ Ed è quindi chiaro che molti pixel dovranno essere inventati dal sw, che applicherà un algoritmo di interpolazione (ne esistono diversi, dai più semplici ai più complessi) per determinarne il contenuto. „ Creatio ex nihilo ?O semplice scopiazzatura? |
| inviato il 29 Ottobre 2024 ore 23:08
La "scopiazzatura" del vicino più prossimo è l'algoritmo più rudimentale di tutti, credo nessuno lo usi più da anni |
| inviato il 30 Ottobre 2024 ore 8:24
“ Per questo prima chiedevo se poteva parlarsi ancora di interpolazione se il SW invece di inventare dati e informazioni di pixel “non noti” procedeva semplicemente allo spostamento di informazioni “note” di pixel acquisiti dal sensore, secondo uno schema che di fatto eliminava la distorsione „ è quello che penso anche io, riposto una mia considerazione che avevo fatto diverse pagine fa: “ "Non sono un informatico e non conosco come nel dettaglio le immagini vengono "adattate" via interpolazione, però so solo questo: Un monitor 4k (e non tutti lo usano) ha bisogno grossomodo di 8,2 mp, un sensore attuale parte grossomodo da ben 24mp (4 volte tanto) e può arrivare ad oltre 60 (quasi 8 volte tanto). In pratica io ho a dsposizione una esuberanza di pixel enorme, ne consegue che una correzione della distorsione incide poco o nulla. Sostanzialmente la conseguente riduzionee di qualità della mia immagine è di fatto nulla......... " „ cioè è più probabile che questo aggiustamento avvenga attraverso ingrandimenti parziali (ma sempre al di sotto del 100x100) della nostra immagine, sarebbe davvero illogico che si inventassero dei nuovi pixel quando, oggi come oggi, ne abbiamo a iosa. Diverso sarebbe se usassi un sensore da 5mp su un monitor 4k, allora sì che devo creare dei pixel nuovi mediante interpolazione, infatti se voglio coprire tutto lo schermo vado ad una dimensione maggiore del 100x100 (cioè dei pixel a mia disposizione). |
user259808 | inviato il 30 Ottobre 2024 ore 9:15
“ In pratica io ho a dsposizione una esuberanza di pixel enorme, ne consegue che una correzione della distorsione incide poco o nulla. Sostanzialmente la conseguente riduzionee di qualità della mia immagine è di fatto nulla „ Cerchiamo di capirci. Immagina di avere un'immagine distorta con una linea retta sul bordo che è curva: diciamo che tra la parte in alto e quella al centro c'è una differenza di 0,5 cm sul tuo monitor. Sai quanti pixel ci sono su tutta l'altezza della foto? Che vuol dire che hai un'esuberanza di pixel? Non hai alcuna esuberanza. Per raddrizzare devi in parte comprimere e in parte stirare: devi eliminare e aggiungere nuovi pixel alla bisogna. In soldoni è così che lavora l'algoritmo. E' chiaro che un po' di qualità la perdi. |
| inviato il 30 Ottobre 2024 ore 10:13
“ E' chiaro che un po' di qualità la perdi. „ certo, ma solo se guardo al 100x100 la mia immagine posso forse apprezzare quella perdita. A monitor (quindi ad un ridimensionamento al 4k o full HD), a mio vedere, ritengo che non ci sia sostanzialmente perdita. |
Che cosa ne pensi di questo argomento?Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 253000 iscritti, c'è spazio per tutti, dal principiante al professionista. |

Metti la tua pubblicità su JuzaPhoto (info) |