RCE Foto

(i) Per navigare su JuzaPhoto, è consigliato disabilitare gli adblocker (perchè?)






Login LogoutIscriviti a JuzaPhoto!
JuzaPhoto utilizza cookies tecnici e cookies di terze parti per ottimizzare la navigazione e per rendere possibile il funzionamento della maggior parte delle pagine; ad esempio, è necessario l'utilizzo dei cookie per registarsi e fare il login (maggiori informazioni).

Proseguendo nella navigazione confermi di aver letto e accettato i Termini di utilizzo e Privacy e preso visione delle opzioni per la gestione dei cookie.

OK, confermo


Puoi gestire in qualsiasi momento le tue preferenze cookie dalla pagina Preferenze Cookie, raggiugibile da qualsiasi pagina del sito tramite il link a fondo pagina, o direttamente tramite da qui:

Accetta CookiePersonalizzaRifiuta Cookie

Riempimento/modifica con IA su Photoshop


  1. Forum
  2. »
  3. Computer, Schermi, Tecnologia
  4. » Riempimento/modifica con IA su Photoshop





avatarjunior
inviato il 25 Maggio 2023 ore 19:02

Buonasera, che ne pensate dell'ultima novità (per ora presente nella versione Beta di Photoshop) riguardo alla modifica delle immagini?
Praticamente è una versione 100x del pennello correttivo (o di qualsiasi sistema di rimozione di elementi dalle foto).
Basta selezionare cosa vogliamo togliere e l'IA ricrea l'immagine togliendo quell'elemento.
Già ora funziona bene, immagino tra un po' di sviluppo cosa potrà fare.

Allo stesso tempo si può per esempio selezionare il cielo e dire "inserisci una nuvola" e lui metterà la nuvola.

Vi lascio un video esplicativo con un tot di esempi:

Parliamone se vi va. Pensate che sia l'ennesima mazzata "all'arte fotografica" o semplicemente uno strumento utile?

avatarsenior
inviato il 25 Maggio 2023 ore 21:33

Come tutte le cose penso dipenda dall'uso o abuso dello strumento, certo è impressionante. Per alcune cose semplifica molto il lavoro.

avatarsenior
inviato il 25 Maggio 2023 ore 21:36

Qualche anno fa mi avrebbe fatto risparmiare ore nella sostituzione di parti di giardino, di cespugli o di alberi secchi.
Credo che lavorativamente parlando sia molto utile per alcune tipologie di utilizzo... Steremo a vedere

avatarsenior
inviato il 26 Maggio 2023 ore 1:26

seguo

avatarsenior
inviato il 26 Maggio 2023 ore 11:53

Si, hanno messo il modulo beta di firefly in Photoshop, era scritto sin dall'inizio della beta di firefly.

Se fino a ieri la “non autenticità formale” degli interventi massivi AI nelle foto dei fotografi di questo forum erano tollerate, anzi, incentivate con oltre 45 pagine di discussioni sul denoise AI, da donami dovremo tutti aggiornare nuovamente il vocabolario etico per decidere che chiedere di rimuovere un cespuglio o una piuma di uccello all AI sia giusto o meno, piuttosto che usare il timbro tampone.

Senza ironia, abbiamo raccolto così tanta statistica in poco più di due mesi da poter fare proiezioni.

Comincia ad esservi la necessità di aggiornare il regolamento secondo me, una spunta sotto le foto che dica che in PP non sono stati usati algoritmi generativi e/o attingenti da database esterni.

L'unica forma di falsificazione tangibile dovrebbe essere il timbro tampone.

avatarsenior
inviato il 26 Maggio 2023 ore 13:14

Per chi è interessato allo sviluppo di strumenti analoghi ma in ambito per-soruce esiste un plugin free per implementare StableDiffusion in photoshop e poter richiamare il prompt di SD dentro photoshop, con una dinamica simile a quella dei video di Firefly.
inpainting, outpaintig ecc, fa tutto.


avatarsupporter
inviato il 29 Maggio 2023 ore 14:17

Scusate se posso una domanda velocissima,quando apro acr vedo 6 opzioni sulla destra in alto ,come scattato,flash,diurno,tungsteno,ecc...se io uso una di queste opzioni a parte a come scattato tecnicamente si perdono informazioni o é la stessa cosa?sempre sono originali?tecnicamente dico e non filosoficamente

avatarsenior
inviato il 29 Maggio 2023 ore 17:00

strumento incredibile, se ci sono queste feature già ora, immaginatevi tra 2-5 anni...
qui un altro esempio notevole, secondo me:

twitter.com/coffeevectors/status/1661543152967118848

tra l'altro, le immagini di partenza sono generate con Midjourney.

avatarsupporter
inviato il 29 Maggio 2023 ore 18:45

Anche io sto facendo delle prove con il generative fill.
Ad esempio:
- per l'allargamento del frame, negli scatti troppo stretti, è ottimo. Sto, infatti, pensando di fare un giro su tutte le mie foto migliori e revisionare le inquadrature perfezionandole.
- Nel cambio dell'abbigliamento è come giocare con le bambole: si può mettere un'armatura o un tuxedo al soggetto in pochi secondi. Fa ancora un po' schifo quando deve ricostruire le mani, ma questo è un problema noto nelle AI generative. Però, giocando con la selezione, si può lasciargli generare le braccia, ottenendo posizioni diverse dall'originale e molto naturali. Questo aspetto mi ha sorpreso.
- Notevole anche la generazione di superfici d'acqua riflettenti: genera riflessi coerenti con le fonti di luce ambientali.
- Nella sostituzione dei visi la qualità è incostante, ma diamo tempo al tempo. In ballo c'è l'anonimizzazione a basso costo, con la fine dei problemi delle liberatorie quando non è essenziale (o addirittura problematica) l'identità del soggetto.
- Noto qualche problema nella risoluzione delle parti innestate che non è sempre coerente quella dell'immagine di contesto. Forse perché il data set di addestramento usato da Adobe non è immenso e ha contenuti di qualità eterogenea.

Ci sono anche molti casi in cui i risultati fanno schifo, sia perché non obbedisce al prompt, sia perché non hanno senso nel contesto dell'immagine. B isogna ricordare che è solo una beta della prima versione e le segnalazioni di cosa non funziona serviranno - si spera - a migliorare i risultati.
E' una tecnologia che evolve ad una velocità impressionante ed evolve in fretta anche il rapporto con gli umani che imparano a usarla.
Facendo pratica,infatti, appare subito evidente che sia necessario "il mestiere", ossia imparare o scoprire le procedure migliori per guidare la generazione dei contenuti. Mi riferisco a quali immagini si prestano (non tutte), a come fare la selezione dell'area di fill, ai prompt più interessanti da usare, al percorso iterativo di perfezionamento. Un esempio ne è proprio il tweet postato da Perbo.
Sta proprio nascendo un nuovo lavoro, estremamente creativo e altrettanto tecnico come quello della fotografia tradizionale. In entrambi l'occhio fotografico ha il medesimo e importante peso.
Anzi, prevedo che succederà come per il bianco e nero, ossia che si scatteranno le foto previsualizzando il successivo lavoro di integrazione artificiale. (scripta manent ).
Forse l'AI è arrivata appena in tempo per evitarmi l'inutile spesa di una mirrorless. Con lo smartphone + AI si possono (o si protranno a breve) produrre immagini che avrebbero rischiesto molto tempo e denaro con metodi tradizionali.




Tempo di realizzazione con il GenFill: 5 minuti in tutto partendo da una foto ovviamente. Quale è quella originale? ;-)

avatarsupporter
inviato il 29 Maggio 2023 ore 20:13

La seconda,la prima ha le mani lunghe

avatarsenior
inviato il 29 Maggio 2023 ore 20:38

Tempo di realizzazione con il GenFill: 5 minuti in tutto partendo da una foto ovviamente. Quale è quella originale? ;-)


notevolissimi i risultati! io direi la terza, a naso e senza immagini a risoluzione più alta. Funzionano bene tutte, cmq, soprattutto se l'utilizzo è "mordi e fuggi", cioè dove uno non va con il lentino a controllare.

avatarjunior
inviato il 29 Maggio 2023 ore 20:50

Anch'io direi la terza, mi pare che il muro dove è appoggiata la ragazza presenta meno artefatti.
Comunque notevole! Eeeek!!!

avatarsupporter
inviato il 29 Maggio 2023 ore 21:11

Bravi...quasi.
Quelle a sinistra e al centro sono le più rigenerate.
Però anche quella a destra non è proprio come l'originale.

Quella di sinistra ha le mani non uguali...maledette mani, le sbaglia sempre!
Fra l'altro, ha il braccio del tutto inventato, ma a mio parere quel braccio è molto naturale come postura e la mano è simile a quella della modella che, nell'originale ha il braccio abbassato. L'altra mano, invece, è bruttarella.
Ottimi i capelli, diversi dall'originale (vedi dopo).

Quella al centro a me piace, ma si vede che la ciocca dei capelli sulla camicia non è omogenea come colore agli altri capelli. Impressionante è l'inversione di posizione delle gambe e conseguentemente delle anche: ha fatto tutto l'AI senza che io chiedessi nulla! In un set reale, quel tipo di cambio si fa spesso per scegliere la posa che valorizza meglio le gambe, ma sono io che lo decido (o la modella quando ha imparato).

La terza ha l'abbigliamento al 90% originale. La sciarpa è generata.

In tutte e tre è stato ampliato il frame perchè nell'orginale avevo tagliato il gomito alla destra di chi guarda. Per questo il muro a destra è diverso in ogni immagine: sono tutti e tre rigenerati.

Ora, considerate che questo è il mio primo esperimento, da 5 minuti, con un prodotto in beta.
Da pauraEeeek!!!! (in qualunque senso uno voglia intendere il termine)

PS.: secondo me c'è da considerare che ho probabilmente preso una immagine originale di cui la banca dati di addestramento dispone di moltissime alternative e quindi "ho giocato facile".
In altri casi, produce delle gran porcate.
Ad esempio, ho provato a far comparire un delfino in mare e non vi dico che schifezze sono uscite. Però questo dimostra che la tecnologica c'è . E' solo questione di tempo e addestramento.
Non solo, dimostra anche che praterie si aprono per l'immaginazione . Che sbattimento avremmo dovuto avere io e la modella per fare quelle tre foto! Invece, con una si ha la radice e la pianta con tutte le ramificazioni (varianti) si fa crescere dopo.
Per non parlare dell'uso delle immagini nello story telling.
Dopo quel primo esperimento mi sono inventato una favola illustrata in ambito medievale con le foto dei nipoti al compleanno. Mai e poi mai me lo sarei potuto permettere in modo tradizionale.
Per chi ha idee e non solo tempo e soldi da buttare, è una manna!

@Perbo, ho tenuto la risoluzione bassa per rendervi un po' più difficile scegliere. A risoluzione piena, se vai sui dettagli, si vedono i difetti, ma sono piccole cose che si mettono a posto con gli altri tool della beta come il content aware fill multi immagine o il remove nuovo.
Forse quello che tradisce di più ad un esame analitico, è il rumore non omogeneo. In fondo, questa è una delle tecniche usate in ambito forense per scoprire le parti innestate in una immagine digitale e ovviamente funziona anche qui...per ora.
Come hai ben capito, per un mordi e fuggi da web, va già benissimo visto che la gente normale non si accorge neanche se un cielo sostituito ha il sole dalla parte delle ombre.

avatarsenior
inviato il 29 Maggio 2023 ore 22:38

davvero incredibile, siamo già arrivati a livelli pazzeschi. Secondo me non è proprio possibile immaginare cosa si potrà fare tra 5 anni, con lo sviluppo esponenziale di questi strumenti.

avatarsenior
inviato il 30 Maggio 2023 ore 0:08

- Nel cambio dell'abbigliamento è come giocare con le bambole: si può mettere un'armatura o un tuxedo al soggetto in pochi secondi. Fa ancora un po' schifo quando deve ricostruire le mani, ma questo è un problema noto nelle AI generative.

@Motofoto per la moda come hai detto è un giocattolo, al massimo posso mettere una texture diversa su un capo esistente ( da foto esistente che sia vera o 3d un fotomontaggio manuale) ma applicare la struttura di un capo esistente è impossibile con Adobe, almeno fino a quando non implementeranno Controlnet e questo vale anche per le dita delle mani.
Inoltre non puoi mettere prompt negativi e Adobe li mette da solo ma non ne hai il controllo ( tipo avoid too many fingers, avoid defomations etc).

Fin tanto che non sarà possibile avere consistenza nella ripetitività della fisionomia del personaggio e il controllo dell'abbigliamento in modo preciso resterà un giocattolo. Man mano che lavoro con AI calano di giorno in giorno le opportunità di applicazione serie, a volte anche solo perché il tempo che serve è troppo.

Forse quello che tradisce di più ad un esame analitico, è il rumore non omogeneo. In fondo, questa è una delle tecniche usate in ambito forense per scoprire le parti innestate in una immagine digitale e ovviamente funziona anche qui...per ora.
Come hai ben capito, per un mordi e fuggi da web, va già benissimo visto che la gente normale non si accorge neanche se un cielo sostituito ha il sole dalla parte delle ombre.

+1 queste dovrebbero essere le considerazioni da condividere secondo me, più di altre, fanno la differenza tra questo forum e tutti gli altri.

Che cosa ne pensi di questo argomento?


Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!

Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 242000 iscritti, c'è spazio per tutti, dal principiante al professionista.




RCE Foto

Metti la tua pubblicità su JuzaPhoto (info)


 ^

JuzaPhoto contiene link affiliati Amazon ed Ebay e riceve una commissione in caso di acquisto attraverso link affiliati.

Versione per smartphone - juza.ea@gmail.com - Termini di utilizzo e Privacy - Preferenze Cookie - P. IVA 01501900334 - REA 167997- PEC juzaphoto@pec.it

www.juzaphoto.com - www.autoelettrica101.it

Possa la Bellezza Essere Ovunque Attorno a Me