| inviato il 16 Ottobre 2023 ore 12:39
Se la priorità è il progetto fotografico qualunque strumento necessario è lecito sia analogico che digitale. Se faccio riproduzione di opere d'arte o documentazione scientifica l'obiettivo è la fedeltà Se voglio fare una fotografia la priorità è quello che voglio comunicare L'AI è in ambedue i casi uno strumento potentissimo in alcuni settori maturo in altri ancora prototipale Mettere regole oltre che anacronistico è non etico |
| inviato il 16 Ottobre 2023 ore 12:40
@Arci +1 .... ed è pure un ottimo alimento. |
| inviato il 16 Ottobre 2023 ore 13:16
Obbligare i fotografi a dichiarare il tipo di post... Tutto questo nasce da quelli che invidiano i like nelle foto post prodotte ... Non le mie....non ho tutti sti like.. Però per me è solo questione pura di invidia.. Quelli che gli piace fotografare vanno per la loro strada beati...non gli importa niente di ste minchiate...che postproducano oppure no.. |
| inviato il 16 Ottobre 2023 ore 13:18
L'unico disturbo che mi creerebbe é puramente tecnico, se mi guardo una galleria di foto per farmi un'idea di una lente e mi trovo scritto f8 e vedo lo sfuocato finto da f1.2 confonde un po' le acque |
| inviato il 16 Ottobre 2023 ore 13:24
Ho provato su molte foto questa nuova funzinalità Lens Blur, in occasione di uno shooting a una coppia di amici. Ho scattato col Sony 50 f/1.2, quindi partivo già da un'ottima base. Quello che mi ha impressionato di più è la mappa di profondità creata in automatico: l'accuratezza è davvero impressionante, così come la gradualità dello sfocato che viene applicato. L'effetto, al primo colpo d'occhio (osservandolo sulla foto intera) è eccezionale, però in tutte le foto, osservando a piena risoluzione i dettagli fini (in particolare, capelli), si vedeva sempre il "ritaglio" del soggetto. Se fossero state foto destinate a social e altri usi a bassa risoluzione potevano anche andare bene; per uso "professionale" alla fine non lo considero ancora utilizzabile, perlomeno "senza aggiustamenti": l'ho invece sfruttato facendo due copie delle immagini, una con effetto Lens Blur e una senza, e quindi applicandolo selettivamente via layer mask (e in modo molto moderato) su alcune zone dell'immagine dove volevo ammorbidire il già ottimo bokeh del 50 F1.2. Se applicato in maniera molto esagerata, o su foto dove lo sfondo è completamente a fuoco, il risultato mi sembra invece abbastana pacchiano. In ogni caso lo definirei uno strumento interessante, da non abusare ma neppure da demonizzare. |
| inviato il 16 Ottobre 2023 ore 13:35
Infatti mi chiedo come sia la resa se usato di fino. Cioè se faccio un ritratto col 14mm chiuso a f5.6 sul 4/3 e cerco di simulare chissà che sfuocato mi aspetto un risultato brutto. Ma se lo usassi per ammorbidire un po' un ritratto fatto con una focale e quindi una prospettiva adatte ma un obiettivo non luminosissimo ? Per recuperare uno stop di diaframma, simulare un'obiettivo più luminoso di uno stop massimo 2, diciamo così. Come si comporta ? Secondo me la sua utilità può essere questa, ammorbidire uno sfuocato già presente. |
| inviato il 16 Ottobre 2023 ore 13:40
Sul miglioramento dello strumento non ci metterei la mano sul fuoco, fino ad un paio di mesi fa (ultima volta che ho controllato) Adobe aveva "in arrivo" da anni dei neural filters che sembravano imminenti fin dalla presentazione, ma é come se li avesse del tutto abbandonati. In questo caso mi sento un po' più ottimista vista l'enfasi che pongono sulla "ia" però ecco, non ci giurerei. Potrebbero anche concentrarsi sul miglioramento di pochi strumenti dopo averne presentati diversi. |
| inviato il 16 Ottobre 2023 ore 14:14
Se vogliono fare concorrenza agli smartphones (Ehh si, proprio cosi) dovranno sviluppare la tecnologia. Poi se lo fa la concorrenza... Quante lenti f/1.2 vengono vendute al mondo? Non credo un'esagerazione. |
| inviato il 16 Ottobre 2023 ore 14:30
Realizzo servizi fotografici senza olio di palma e senza glutine. |
| inviato il 16 Ottobre 2023 ore 14:52
Io senza nitrati.... |
| inviato il 17 Ottobre 2023 ore 7:05
“ L'effetto, al primo colpo d'occhio (osservandolo sulla foto intera) è eccezionale, però in tutte le foto, osservando a piena risoluzione i dettagli fini (in particolare, capelli), si vedeva sempre il "ritaglio" del soggetto. „ Concordo in pieno ma la cosa mi stupisce. Siamo nel 2024 ormai e i software di scontornamento e ritagli fanno miracoli. Lo stesso ritaglio del soggetto in LR maschera meglio. Possibile che per realizzare una mappa di fuoco che, onestamente, è un più a cui si sarebbe fatto a meno, non ha no implementato un processo di scontornamento più efficace?! Solite robe buttate lì a caso per vedere cosa ne pensa la gente... |
| inviato il 17 Ottobre 2023 ore 7:45
Provato con qualche foto, confermo che subito sembra ben fatto poi se guardi i dettagli ai bordi noti che si è rosicchiato dei dettagli. C'è una regolazione ma non ho ben capito come usarla. Per adesso mi sembra molto acerbo. Sarebbe utile poterlo usare con le maschere di lightroom, selezionando il soggetto o lo sfondo. |
| inviato il 17 Ottobre 2023 ore 8:03
@Wazer, data l'enfasi che adesso c'è sull'IA e sulla contiguità tecnologica con le reti neurali, potrebbero aver semplicemente cambiato nome ai filtri neurali. Molte aziende pur di scrivere AI sulle brochure si inventano la qualunque. Alla fine l'unica area generativa che hanno implementato è il riempimento, che guarda caso si fa via web e non in locale, data la quantità di potenza richiesta per avere prestazioni vagamente accettabili. Ti dico di più (anche se onestamente non ho studiato ancora a fondo il discorso, quindi ci sta che sia confutato) mi dà l'idea che se si prende un algoritmo AI e una serie di dati, il risultato dovrebbe essere leggermente differente ad ogni chiamata dell' algoritmo (vedi riempimento, prova per credere). Nel caso di denoise e di depth field, invece, il risultato dovrebbe essere deterministico, altrimenti potrei applicare più volte e scegliere quello che a me piace di più, o quello più preciso. Mi fanno l'idea di reti pre-trainate, bene, che fanno il loro lavoro. |
| inviato il 17 Ottobre 2023 ore 8:16
L'output può essere deterministico o meno dipende da come é implementato l'algoritmo. Anche un workflow intrinsecamente non deterministico perché passa dalla generazione di numeri (pseudo)causali, una volta impacchettato e fornito in un software chiuso può essere reso apparentemente deterministico fissando il seme del generatore di numeri casuali (e non solo apparentemente, a tutti gli effetti lo é dal punto di vista dell'utente che non ha accesso al codice e non può modificare il seme random). Quindi a priori é molto difficile determinare che tipo di approccio é stato usato basandosi solo su questo aspetto. |
| inviato il 17 Ottobre 2023 ore 9:25
Ho visto dei video di un fotografo super del passato, che da autentico fenomeno gestiva alla grandissima l'ampia profondità di campo e i colori stupendi, tutto a pellicola! Alla fine è molto più semplice ridurre al massimo la profondità di campo per ridurre gli errori, quando anche le macchine aiutano alla corretta messa a fuoco! Credo che le mirrorless e le super risoluzioni che portano a super Crop, stiano portando tutti lontano dalla pura fotografia, per non parlare dei cellulari… È anche vero che molto spesso, i grandi fotografi della storia, abbiano costruito le loro fotografie più iconiche e alla fine, il sunto è sempre nell'emozione che un'immagine, un'opera, sia capace di generare! L'AI è parte della nostra vita e lo sarà sempre di più… sta a noi accettarla e conviverci nel modo migliore possibile! |
Che cosa ne pensi di questo argomento?Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 252000 iscritti, c'è spazio per tutti, dal principiante al professionista. |

Metti la tua pubblicità su JuzaPhoto (info) |