| inviato il 04 Giugno 2024 ore 8:57
"..bisognerebbe poter scindere lo sharpening nelle due direzioni, radiale e tangenziale,.." L'astigmatismo (= nel nostro caso astigmatismo obliquo o dei raggi obliqui che dir si voglia) è la più comune causa di bordi mosci, e l'idea tua è eccellente, bravo a pensarci, io non ci avevo pensato. Oltretutto l'idea è molto logica, non fa una grinza, sarebbe l'"olio santo" per la ripresa dei bordi. Ma ad oggi, che io sappia, nessun software permette di fare quel lavoro lì con uno strumento elaborato dalla Casa ed io, con Photoshop, non vedo come si potrebbe fare, io non lo vedo possibile, ma magari qualcun altro ce la potrebbe fare. Comunque, Adobe ha la mia massima stima, non solo sono bravissimi, ma e soprattutto danno seguito alle richieste dei fotografi, i vari software li fanno come li richiedono i fotografi. Io gli ho scritto, in passato un paio di volte, sul loro forum di Adobe Photoshop e Camera RAW, e ci ho sempre ricevuto risposte valide, da loro direttamente o da altri utenti. .....perché non poni la questione a loro, sul loro Forum di Adobe Photoshop? Oggi con l'AI non dovrebbe essere difficile fare un analizzatore dell'immagine, trovare l'astigmatismo e correggerlo, tutto in automatico. Prova qui, sul loro Forum ufficaile, bastano due righe, il problema è di facile descrizione in inglese (.......se non lo conosci usa il traduttore di Google o lo metti qui, te lo traduco io e glielo mandi tu, è un'ottima idea tua): community.adobe.com/t5/photoshop-ecosystem/ct-p/ct-photoshop?page=1&so Io farei riferimento anche ad Eric Chan, che girino la questione a lui. Alla peggio nessuno ti risponde, ma rispondono sempre, |
| inviato il 04 Giugno 2024 ore 9:02
"..una foto come i pioppi nella golena allagata è molto meglio farla con il 16-35 f4 o con il Sigma 12-24 Art.." Verissimo, parole sacrosante. Ma......dipende anche dalle distanze tra te ed il soggetto: nel caso mio, con quelle ottiche e per fare quell'inquadratura, sarei dovuto entrare in acqua! Recuperare di software le beghe di ottica, operativamente, è sempre estremamente comodo. |
| inviato il 04 Giugno 2024 ore 9:09
“ .....perché non poni la questione a loro, sul loro Forum di Adobe Photoshop? „ Non sono un utilizzatore di Photoshop, se vuoi porre tu la questione ed attribuirti la paternità fai pure. Se per il suggerimento ti regalano una licenza (dubito fortemente), confido nella tua correttezza. |
| inviato il 04 Giugno 2024 ore 9:29
Post molto interessante, grazie Alessandro. Seguo. |
| inviato il 04 Giugno 2024 ore 9:35
Io ho pensato di fare quello scatto con i grandangoli perché dalle mie parti, nelle golene di Po e di Panaro, zone che conosco palmo a palmo perché ci passo spesso nelle uscite ciclistiche, ci sono molte rampe che scendono e scatto da quelle. Ovvio che quando mi trovo senza rampe ... beh, 70-200 oppure 28-300. "Avec le caz" (francesismo ... cultura!!) che scendo in acqua per scattare! |
| inviato il 04 Giugno 2024 ore 9:45
“ "Avec le caz" „ questa è poesia |
| inviato il 04 Giugno 2024 ore 9:54
“ questa è poesia „ Sono un "artista a tutto tondo" io, mica come voi che fate solo fotografia! |
| inviato il 04 Giugno 2024 ore 9:58
".....se vuoi porre tu la questione..." Ok lo faccio io, e se mi danno un milione di euro mi cancello dal Forum e non mi sentirai mai più. A parte gli scherzi, se non brevetti una idea, o almeno, se non copri con brevetto l'idea, ma almeno depositi un modello di utilità, visto che potrebbe utilizzare tecnologie altrui, nessuno ti dà nulla. Gli scrivo in questi giorni e poi posto qui il riferimento, io sono abbonato ad Adobe da tempo. |
| inviato il 04 Giugno 2024 ore 10:15
Ho seguito il 3D e: L'immagine di partenza è un RAW quindi ha tutte le informazioni necessarie per uno sviluppo ottimo/buono/decente a seconda di come si è saputo misurare la luce in quella determinata situazione. Per deduzione logica quindi se non si è ricostruita l'immagine con l'AI, le informazioni nel raw c'erano a riguardo della risoluzione dell'immagine. Ora le mie domanda sono: Siamo sicuri che la scarsa qualità dell'immagine di partenza sia data solo dalla diffrazione e dalla qualità degli obiettivi? Oppure dipende anche da una sovraesposizione, che ha generato una mancanza di contrasto? Inoltre il software ha veramente corretto la diffrazione o ha corretto il contrasto sia generale che sui bordi creando apparente risoluzione, ma in realtà essere solo maggior gestione del contrasto? Chiedo a chi ne sa di più perché è una bella discussione e mi piacerebbe prendere in esame tutte le possibili variabili del caso. Grazie. |
| inviato il 04 Giugno 2024 ore 10:21
Penso che oggi giorno,i software, la potenza di calcolo hardware,possono benissimo mettere in secondo piano sensore e ottica, l'esempio più lampante è lo smartphone. |
| inviato il 04 Giugno 2024 ore 12:59
1) "Siamo sicuri che la scarsa qualità dell'immagine di partenza sia data solo dalla diffrazione e dalla qualità degli obiettivi?" 2) "Oppure dipende anche da una sovraesposizione, che ha generato una mancanza di contrasto?" 3) Inoltre il software ha veramente corretto la diffrazione o ha corretto il contrasto sia generale che sui bordi creando apparente risoluzione, ma in realtà essere solo maggior gestione del contrasto? Le domande, a mio avviso, sono giustamente diverse perché le cause di perdita di qualità sono diverse. Io mi scuso, ma per rispondere in modo abbastanza esaustivo a quelle domande, bisogna spendere un po' di tempo e di parole. 1) La diffrazione visibile in immagine ci può essere oppure no, e se c'è, la si toglie al meglio possibile, come ho fatto io con quel RAW. Ma anche se la diffrazione visibile in immagine non c'è, l'immagine è sempre e comunque degradata da: - aberrazioni ottiche presenti nell'ottica - dalla vignettatura introdotta dall'ottica - dalla distorsione geometrica dell'ottica - dalle aberrazioni introdotte dal Filtro passa basso della fotocamera - dall'operazione di creazione del Pixel della fotocamera (dal campionamento del segnale analogico del sensore, ossia dal convertitore analogico – digitale del segnale analogico del sensore) Tutte quelle aberrazioni e problemi lì si correggono praticamente sempre bene con il Convertitore di RAW, che converte un file dati in un file immagine. La fotocamera ha un'elettronica che fa, ma solo in parte, quel lavoro lì (= scatto in Jpeg), ma è sempre e comunque meglio utilizzare un Convertitore di RAW esterno, più potente come capacità di calcolo ed infinitamente più performante coi suoi vari strumenti (= Adobe Camera RAW nel suo Pannello Dettagli e Correzione Ottica, modulo ottico e correzione manuale dell'AC etc). 2) L'esposizione impatta sempre sulla qualità d'immagine, ma non a livello di problemi di ottica (= introduzione di artefatti e/o alterazione dei colori, non li introduce) ma bensì sulle caratteristiche luminose, cromatiche e di contrasto del RAW, ossia porta degli errori sui componenti fondamentali (= vettori) dell'immagine, luminosità contrasto e colori. Gli strumenti per correggere le due diverse tipologie di perdita di qualità d'immagine sono dunque sempre e comunque diversi, per l'1) si va ad operare sul Pixel e sulla distribuzione della luminosità e ripresa della geometria dell'immagine, mentre per il 2) si opera, sempre sul RAW, operando sui vettori fondamentali dell'immagine, luminosità, contrasto e colore. 3) Il software usato ha corretto, almeno in larga parte, la diffrazione (= ricostruisce l'immagine con convoluzioni iterative, sia in Adobe Camera RAW che in Adobe Photoshop, io a Camera RAW e Photoshop gli ho fatto usare quelle), e poi ho ottimizzato tutta l'immagine come luminosità e contrasto e non ho usato le Maschere di Nitidezza, perché secondo me in quell'immagine non ce ne era bisogno, l'ottica, nella sua pochezza, fornisce immagine molto uniforme come nitidezza. |
| inviato il 04 Giugno 2024 ore 14:23
@Alessandro Pollastrini da quello che hai scritto qui sopra sembra che gli attuali obiettivi siano dei culi di bottiglia e i sensori registrano approssimativamente la realtà. In sostanza la questione non è così complicata come descritta. Visto che la qualità assoluta non esiste, quello che si persegue è una qualità in funzione dell'uso che si farà dopo dell'immagine. Quindi visto che le ottiche anche se riviste nella loro ingegneria come qualità sono sostanzialmente da 40 anni sempre uguali a seconda della loro categoria di qualità dichiarata, (questo vale anche per quando c'era la pellicola perché i limiti li si conoscevano già allora) Gli obiettivi si dividono in varie categorie più o meno performanti e quindi più o meno costose, poi esistono delle variazioni specifiche che ovviamente sono dettate dal costruttore sia delle ottiche che delle fotocamere. Per quanto riguarda le correzioni ottiche le si fanno tranquillamente con ogni software per sviluppare un RAW, così come le sue aberrazioni cromatiche. Per chi produce solo ottiche vengono forniti dati sufficienti a costruire ottime alternative sempre se rispettando i dettami ricevuti. Per quanto riguarda quindi queste correzioni nello sviluppo dei RAW esistono file che se non in possesso si possono scaricare automaticamente da ogni software per sviluppo di un RAW. Detto questo tutti problemi sopra citati per l'uso che si fa oggi delle immagini sia stampa che visione su schermo spariscono con due click. Alla fine i sensori mettono nel RAW tutte le informazioni necessarie per poter avere il massimo della qualità ottenibile da una corretta esposizione del sensore alla luce. A livello tecnologico lo standard qualitativo in funzione dell'uso delle nostre immagini è sufficiente ed in alcuni casi anche troppo. Per quanto riguarda la post produzione, ci sono almeno 10 strade per arrivare ad un traguardo desiderato sempre in base alle informazioni che abbiamo nel file che andremo a lavorare. Quale strada usare è in parte dovuta ad esperienza e in gran parte dovuta alla perdita di informazioni ad ogni passaggio che si esegue. Nel caso in questione a questo 3D si tratta di gestione delle zone tonali e di gestione dei contrasti. Visto che si parla di contrasto, di luminosità e di colore, il gestire queste tre voci in post-Produzione bisogna sapere che la mappatura esatta di un colore nel gamut sia della stampa che dei monitor la si può avere solo nel metodo colore LAB il quale gestisce nei canali A e B il colore mentre nel canale L gestisce la luminosità. In sostanza il colore non viene alterato dalla luminosità. Mentre nel metodo RGB ogni variazione di luminosità/contrasto altera irreparabilmente il colore. Ne consegue che gli artefatti presenti nelle immagini finali sono dovuti a esagerazione nei vari passaggi. Ogni software di gestione del RAW e ogni software di gestione delle immagini per la post-produzione ha adottato tecniche più o meno distruttive del file di partenza. Ecco perché in tanti preferiscono DXO o Luminar o Lightroom perché hanno al loro interno una gestione più semplice ed intuitiva rispetto a programmi come Photoshop o Affinity Photo che sono più specifici per la gestione dell'immagine verso la grafica e meno verso la fotografia. Per concludere il poema, non servono visioni drastiche, basta raccontare le cose come stanno. Sono problematiche complesse, ma non drammatiche e sono risolvibili molto più facilmente e senza sapere tutto di tutto, ma basterebbe sapere le cose essenziali. |
| inviato il 04 Giugno 2024 ore 14:24
@ Rolubich Visto che qualsiasi aberrazione e/o problema, nel flusso di fotoritocco, va tolto il prima possibile, ho contattato il Team di Adobe Camera RAW sulla possibile implementazione di uno strumento per recuperare la nitidezza ai bordi, recuperando l'Astigmatismo sulle due componenti, qui: community.adobe.com/t5/camera-raw/ct-p/ct-camera-raw?page=1&sort=lates Vediamo se e che cosa rispondono. Io ho firmato a nome mio, altrimenti ci sta che non rispondano, ed il mio Nick Name su Adobe, da anni, è "Lucca man" (io sono di Lucca). |
| inviato il 04 Giugno 2024 ore 15:04
"..spariscono con due click." Prova un po' a fare un'immagine nitida e naturale come ho fatto io, con il RAW scaricabile alla prima pagina di questa discussione, e vedi un po' se ce la fai in due click: prova un po'? Se ce la fai, postala qui con link scaricabile a pieno formato e spiega accuratamente come hai fatto, come ho fatto io. |
| inviato il 04 Giugno 2024 ore 15:06
Altro argomento: qualcuno fa la ripresa della nitidezza, aumentando il micro contrasto dell'ottica? E...... come? E' possibile farlo, ed io lo faccio, ma vorrei anche esperienza altrui. Grazie. |
|

Metti la tua pubblicità su JuzaPhoto (info) |