RCE Foto

(i) Per navigare su JuzaPhoto, è consigliato disabilitare gli adblocker (perchè?)






Login LogoutIscriviti a JuzaPhoto!
JuzaPhoto utilizza cookies tecnici e cookies di terze parti per ottimizzare la navigazione e per rendere possibile il funzionamento della maggior parte delle pagine; ad esempio, è necessario l'utilizzo dei cookie per registarsi e fare il login (maggiori informazioni).

Proseguendo nella navigazione confermi di aver letto e accettato i Termini di utilizzo e Privacy e preso visione delle opzioni per la gestione dei cookie.

OK, confermo


Puoi gestire in qualsiasi momento le tue preferenze cookie dalla pagina Preferenze Cookie, raggiugibile da qualsiasi pagina del sito tramite il link a fondo pagina, o direttamente tramite da qui:

Accetta CookiePersonalizzaRifiuta Cookie

Topaz AI, Intelligenza Artificiale


  1. Altro
  2. »
  3. Articoli
  4. »
  5. Topaz AI, Intelligenza Artificiale
  6. » Risposte e commenti, pagina 16



3136726
« Torna all'articolo: Topaz AI, Intelligenza Artificiale

Testo e foto by Juza. Pubblicato il 02 Aprile 2019; 401 risposte, 45168 visite.


Risposte e commenti


Che cosa ne pensi di questo articolo?


Vuoi dire la tua, fare domande all'autore o semplicemente fare i complimenti per un articolo che ti ha colpito particolarmente? Per partecipare iscriviti a JuzaPhoto, è semplice e gratuito!

Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti, partecipare alle discussioni e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 242000 iscritti, c'è spazio per tutti, dal principiante al professionista.




avatarjunior
inviato il 06 Aprile 2019 ore 15:25

Io non sono un pro. finché lui elabora con la GPU io faccio dell'altro con lo stesso PC. Visto che si tratta di fare un lavoro saltuario a me va bene. Chi vuole di più ci sono sempre le soluzioni es abbinare in parallelo le GPU. Il PC è uno strumento e se serve per lavoro e portare a casa la pagnotta i 2000 euri uno li spende altrimenti uno fa i suoi calcoli bene e si accontenta, stessa cosa per i corpi le lenti etc.


Nemmeno io, anzi, sono poco piú che una pippa! MrGreen
Però, quando lavoro su una foto o su altro, tutto ciò che accade deve avere un senso, altrimenti mi innervosisco e perdo interesse.
Se faccio il rendering di un video di mezz'ora, aspetto di buon cuore che ci metta il tempo che ci vuole e vado anche a fare asparagi nei prati, mentre aspetto, ma questo ha un senso e, non essendo un pro, non posso certo permettermi di spendere 10 mila Euro solo per una scheda video che velocizzi il processo.
Se applico un filtro pesante ad una foto fa 100 MB, aspetto di buon cuore quella manciatina di secondi che ci vuole per il processo.
E qui, ora, viene il nocciolo della questione (per me! Non é detto che sia lo stesso per te o per altri): con Topaz Shap, mi sta bene che, per elaborare la nitidezza di alcune foto, ci metta il tempo che ci mette, ma é tutto il resto che mi stanca; ogni operazione o movimento richiede tempi biblici che snervano, un pò come quando carichi una pagina internet e gira la clessidra per 20 secondi prima che inizi a caricare: non sono i 20 secondi in sé, ma é l'incomprensibile origine dell'attesa a rendere quei 20 secondi più irritanti delle ore necessarie a scaricare un film in 4K!
I miei calcoli li faccio sempre, prima di ogni acquisto, e infatti sono soddisfatto al mille % sia del mio Mac che della mia attrezzatura che, tra l'altro, per essere un non pro, non é proprio da buttare, ma questo software di Topaz, a parte alcune potenzialitá davvero interessanti, sembra ancora acerbo per sfruttare appieno macchine anche belle pimpate.
Poi, ripeto, OGNUNO di noi ha il proprio metro di misura che non deve essere necessariamente uguale a quello degli altri.
Quando si fanno le recensioni si scrivono i pro ed i contro, no?
Poi ognuno valuta i pro ed i contro (oltre al prezzo).
Ecco, per me i pro sono gli stessi che stanno apprezzando un pò tutti, cioé la maggior nitidezza ottenibile, rispetto a Photoshop, e la possibilitá di migliorare o addirittura recuperare foto mosse o sfuocate, altrimenti da buttare.
I contro sono l'enorme lentezza di alcune operazioni che, normalmente, non dovrebbero richiedere elaborazioni e lunghi tempi d'attesa (spostamento, salvataggio, etc) e qualche “fail” su alcune tipologie di foto.

avatarsenior
inviato il 06 Aprile 2019 ore 15:26

capito.
io al massimo passo da 2 software se proprio proprio per le foto che espongo a mostre.
Topaz lo riserverò per i casi estremi... e magari farò pure il triplo passaggio nel caso.
Scatto poi quasi sempre da treppiede e con iso 100 con un macchina che genera poco rumore quindi spero di tenerlo proprio come estrema ratio;-)

avatarsenior
inviato il 06 Aprile 2019 ore 15:40

@Ricky forse sarebbe da valutare su una workstation grafica l'uso di GPU in parallelo non Quadro e valutare la combinazione più performante: so che le Quadro sono indispensabili per i 10 bit. Penso ci siano dei forum di videoamatori a cui chiedere. Certamente ci sono diverse soluzioni come affidare ad una rete di PC il rendering. Penso che a livello Pro questo è un problema affrontato

avatarjunior
inviato il 06 Aprile 2019 ore 15:52

Si, però capisci bene che, sia in un caso che nell'altro, perliamo di cifre giustificabili solo se hai un rientro economico o se sei figlio di papá.
Anche un trittico di GTX 1080 non é che te lo regalino e, comunque, richiede annessi e connessi all'altezza.
Aggiungici poi la moglie che, se il computer non é “bellino, che i fili non si devono vedere, e poi quella scatolona nera...” c'é da strozzarla, ecco che la scelta di un Mac diventa uno strumento di pace obbligatorio...
Io che con la mia attrezzatura non ho alcun problema con il 99% delle cose che faccio, non ho nemmeno alcun interesse a studiare ed investire in workstation che mi farebbero risparmiare qualche minuto a fronte di spese folli.
Si, giusto per interesse e curiositá.
In ufficio ho un PC Windows di qualche anno fa, con i7, 16GB di RAM e due Gygabyte GTX 980 in SLI, ma Topaz ha gli stessi problemi anche lì.

avatarsenior
inviato il 06 Aprile 2019 ore 16:09

Non credo cmq sfrutti SLI e da quello che ho capito se si usa la CPU non usa il multi core, di sicuro sulla velocità devono lavorarci e hanno margini ma dubito margini miracolosi ... cmq ad esempio, fastone versione 7 che da pochissimo supporta il multi core nella conversione dei jpeg è spettacolare, adesso convertire un jpeg con altra risoluzione è un altro mondo....

avatarjunior
inviato il 06 Aprile 2019 ore 17:14

Non credo cmq sfrutti SLI e da quello che ho capito se si usa la CPU non usa il multi core


Anch'io credo che sia ancora molto “basic”, sotto questo punto di vista.
Non ho ancora provato a misurare il lavoro di ogni singolo core, durante l'elaborazione, ma mi sembra che utilizzando la CPU il lavoro rallenti vistosamente, quindi, appunto, non sembra essere ottimizzato in tal senso.
I margini prestazionali, però, penso siano notevoli: abbinare la tecnologia multicore a quella CUDA od OpenCL/GL significherebbe avere a disposizione piú del quadruplo della capacitá di calcolo.
Magari qualche utente più esperto di me (non ci vuole molto... Sorriso) sará in grado di approfondire meglio questo aspetto, ma, così su due piedi, sembra realistico un incremento prestazionale da “panzone azzoppato” ad “Usain Bolt”, almeno per alcuni aspetti dell'elaborazione.
Sarebbe bello se qualche professionista, o qualche fortunato non professionista spendaccione, provasse il software su workstation di livello o anche solo su computer con schede video “pro”, tipo l'Nvidia Quadro, e condividesse qui le proprie esperienze.
Giusto per rendersi conto, allo stato attuale, quanta sia la differenza prestazionale imputabile all'hardware.
...tanto la mia scimmia resterebbe comunque a cuccia, perché il mio Babbo Natale ha ipotecato, giá da tempo, almeno i prossimi 5 o 6 Natali, quindi per me resterebbe pura e semplice curiositá.

avatarsenior
inviato il 06 Aprile 2019 ore 17:26

Io, magari farò prove più specifiche ... trovo più veloce la CPU i7 4.0 Ghz con 32 di Ram, mentre la scheda video è un Nvidea GTX 960 4 GB Ram

avatarjunior
inviato il 06 Aprile 2019 ore 17:46

Ma, anche a voi Sharpen AI cambia pesantemente le tonalitá dei colori delle foto che elabora?

avatarsenior
inviato il 06 Aprile 2019 ore 17:54

Sì (vedi esempio che ho postato qualche pagina fa).

avatarjunior
inviato il 06 Aprile 2019 ore 18:15

@Blade_71:

Hai ragione!
Ho fatto un paio di prove ora, con cronometro alla mano:

- file NEF da 45,5MPixel e 94,3MB;

In ufficio, col PC Windows descritto sopra, non avevo fatto misure ma l'elaborazione con CPU era infinitamente più lunga che con GPU;

A casa, con processore i7 a 4.2 GHz, 40 GB di RAM 2.400 MHz DDR4, e scheda video ATI Radeon Pro 580 8 GB:
- con GPU: 1 minuto e 40 secondi;
- con CPU: 1 minuto e 32 secondi (dal momento del clic su "apri immagine" al termine dell'elaborazione dell'anteprima, modalità "Sharpen", 0.50 remove blur, 0.50 Suppress Noise).

Non è molto, ma, effettivamente, è più veloce la CPU.

@Andrea Festa: visto, grazie! Mi era sfuggita.

avatarsenior
inviato il 06 Aprile 2019 ore 18:27

Cronometro alla mano appena posso lo faccio anche io...

avatarsenior
inviato il 06 Aprile 2019 ore 19:33

Penso alla fine che convenga avere due Pc : uno come stazione grafica per rendering etc. e un'altro per fare il solito lavoro. E' una questione anche di sicurezza. Meglio due medi PC che uno megagalattico.

avatarsenior
inviato il 06 Aprile 2019 ore 19:42

Mah, non sono proprio d'accordo...poi con i desktop virtuali sinceramente anche no! grazie ai multicore ormai questa eventuale necessità non c'è più

avatarjunior
inviato il 06 Aprile 2019 ore 21:14

Stamattina ho fatto un test, non ho cronometrato, ma è bastato per rendermi conto che:

Topaz Scarpen AI

Imac 27" 5K con Intel QuadCore i7 4 GHz
con 32 GB di ram e disco ssd pci-express 1 tb (fino a 6 volte più veloce degli ssd sata)
AMD Radeon R9 M395X 4 GB

PC (recente) con processore i7 con 6 core
ram e disco ssd (simili alla versione mac)
ma con scheda video Radeon RX Vega 64 NITRO+ 8 GB

I tempi di elaborazione su pc, (con scheda video decisamente più performante) sono nettamente migliori, sempre lento, ma quasi accettabile, senza entrare nel dettaglio posso affermare che sia circa 2 volte più veloce, forse anche di più....

in entrambe le prove la GPU si è sempre dimostrata più veloce della CPU

avatarsenior
inviato il 06 Aprile 2019 ore 22:06

Sta cavolo di Vega, lo dicevo io che erano una bomba... Certo se provi con un file D850 e cronometro top!





 ^

JuzaPhoto contiene link affiliati Amazon ed Ebay e riceve una commissione in caso di acquisto attraverso link affiliati.

Versione per smartphone - juza.ea@gmail.com - Termini di utilizzo e Privacy - Preferenze Cookie - P. IVA 01501900334 - REA 167997- PEC juzaphoto@pec.it

www.juzaphoto.com - www.autoelettrica101.it

Possa la Bellezza Essere Ovunque Attorno a Me