| inviato il 30 Agosto 2023 ore 10:15
“ Hai una lista di compatibilitò fornita da Adobe? O una nota in cui si sdogana qualunque GPU che possegga nella piastra i CUDA core? Perché sennò non è corretto né preciso affermare questo. Non sono i CUDA, né i tensor, sono le direttive dei driver che li vanno a sfruttare ed il software che le deve richiamare a stabilire la compatibilità o meno. Se il sw chiama una funzione/direttiva che il driver non riconosce (basta un parametro cambiato fra FW e driver e va tutto a farsi benedire), via un'eccezione, si usa la CPU e quella scheda grafica puoi riporla nel cassetto. „ Come si desume da questo articolo e da altri, dal blog dello stesso team di sviluppo di ACR, la funzione denoise fa uso intensivo della GPU. I cuda core sono unitè di calcolo generiche ma sono in grado di svolgere i calcoli matricexmatrice tipici di un processo IA accelerated ma non sono specificatamente disegnate per quello al contrario dei tensor core che sono specificatamente designati per applicazioni AI, ed infatti offrono un boost notevole nel denoise. Per quanto riguarda le schede più vecchie il fattore limitativo sembra essere la quantità di memoria, sopratutto nel caso di GPU equipaggiate con 2GB. Need for speed. Denoise is by far the most advanced of the three Enhance features and makes very intensive use of the GPU. For best performance, use a GPU with a large amount of memory, ideally at least 8 GB. On macOS, prefer an Apple silicon machine with lots of memory. On Windows, use GPUs with ML acceleration hardware, such as NVIDIA RTX with TensorCores. A faster GPU means faster results. blog.adobe.com/en/publish/2023/04/18/denoise-demystified |
| inviato il 30 Agosto 2023 ore 10:16
Ho parlato con il laboratorio, la scheda 1660 non ce l'hanno, si è reso disponibile a una prova con la quadro k620, il prezzo di questa scheda è di 40 € più 15€ di mano d'opera, questo laboratorio è nel cremonese a circa 40 km da dove abito, per la 1660 si parla di 150 €, per il montaggio mi appoggerei a un tecnico che conosco qui di Brescia, fa dei lavori per le aziende della provincia, minimo ci vorranno anche li 15 € per il montaggio, vedremo, un saluto |
| inviato il 30 Agosto 2023 ore 10:17
“ Se pensi che possa fare il lavoro da solo allora la prendo „ Ma certo, se hai un po' di manualità non è difficile. Però devi verificare una cosa IMPORTANTISSIMA: se dentro al case hai lo spinotto di alimentazione giusto richiesto che ti esce dall'alimentatore! Scarica il manuale della RX 6600 e vedi che presa di alimentazione interna richiede (se a 6 pin o 8 pin). Poi apri il case, e vedi se dentro hai "volanti" che avanzano dall'alimentatore degli spinotti di alimentazione corrispondenti. Altrimenti c'è da alimentarla in qualche altro modo (un adapter da IDE doppio o da SATA doppio, per ipotesi). |
| inviato il 30 Agosto 2023 ore 10:21
Grazie mille. Appena posso faccio il controllo dello spinotto e aggiorno. |
| inviato il 30 Agosto 2023 ore 10:24
Domenico nella piastra ci può essere quel che vuoi, ma la scheda grafica deve avere, nei driver, aggiornamenti e funzionalità che la consentano di assolvere appieno ciò che i software le chiedono. A prescindere da CUDA e Tensor. Le schede ARC di Intel ce li hanno i Tensor Cores (la A770 ne ha 512!!!) e hanno tanta VRAM, ma con Adobe Denoise AI sono una scelta infelice perché NON funzionano. Se Intel non integra/corregge i driver, i possessori si attaccano. Il fatto che scrivano dei Tensor Core poi NON è consolante, dato che è tecnologia peculiare delle sole schede di un singolo costruttore. Infine, faccio notare che la Quadro in esame dal primo post ha appunto solo 2GB di VRAM, nonostante i CUDA ci siano (384) come in tutte le Quadro ci sono da praticamente sempre. Come VRAM quindi anche secondo le raccomandazioni che citi tu è un po' troppo asfittica per il Denoise AI, in ogni caso, a mio parere. Con DxO Photolab, ammesso il SW la supporti, andrebbe sicuramente meglio, ma con la suite Adobe va provata (ed è proprio ciò che l'opener farà dietro mia indicazione! ). |
| inviato il 30 Agosto 2023 ore 10:29
certo ovviamente i driver devono essere affinati sufficientemente, ma se parliamo di performance, avere unità HW sul chip in grado di eseguire specificatamente i calcoli richiesti per questo tipo di applicazioni è un vantaggio indiscutibile. Se nvidia capitalizza sul mercato 1200 miliardi di $ è perchè sulle suoi chip H100 ( che letteralmente valgono più dell' oro ) praticamente stanno girando tutte le principali applicazioni IA al mondo nei campi più disparati, dalla guida autonoma, alle applicazioni scientifiche alle simulazioni neurali. Ed il nodo di tutto sono i tensor core. www.nvidia.com/it-it/data-center/h100/ |
| inviato il 30 Agosto 2023 ore 13:15
Sì ma il problema è la versione di CUDA (intesa come ambiente SW e non come componente Hw, Nvidia purtroppo usa lo stesso nome per le due cose e questo genera confusione). Lo so per esperienza diretta perché quando vuoi fare training di modelli Deep learning usando GPU Nvidia devi controllare la compatibilità della versione di CUDA (intendo il sw), delle altre librerie Nvidia per machine learning e algebra lineare (cudnn, cublas, ...), delle librerie esterne usate per costruire i modelli DL (tensorflow, pytorch, ...), etc È una notevole rottura che diventa tanto più pesante quanto più le GPU che usi (e quindi il sw che le governano) sono obsolete. Oltre un certo limite non arrivi |
| inviato il 30 Agosto 2023 ore 13:22
Esatto.... e temo proprio che questo sarà il caso della povera (benché sicuramente più che onesta) K620 in esame. |
| inviato il 30 Agosto 2023 ore 14:29
La K620 ha 2Gb di ddr3 con bus a 128Gb, non la provare neanche, non perderci tempo. Io ho una 3070 con 8GB e se lascio aperto, ma senza operazioni pendenti, anche i prodotti Topaz (tipo "Sharpen AI") dopo averlo usato, la riduzione rumore di Lightroom va spesso (non sempre) lenta come se non usasse la scheda video. Mentre lavora piano in questo modo, chiudo semplicemente Topaz (che stava aperto solo come interfaccia, senza progetti in attesa) e Lightroom termina il lavoro velocemente, segno che Topaz impegna la ram della scheda video perchè non l'ha rilasciata del tutto dopo aver elaborato il file precedente e questo implica che per queste operazioni la ram video è come il pane e immagino che ne servano oltre i 4GB tendenti a 8 come minimo. |
| inviato il 30 Agosto 2023 ore 14:40
Adobe se non erro ne consiglia 6 o 8GB, si. |
| inviato il 31 Agosto 2023 ore 12:23
Oh my... Lascia perdere, non comprare nessuna scheda grafica. Questa scheda madre non ha niente su cui attaccare una scheda grafica! |
| inviato il 31 Agosto 2023 ore 12:33
E quello che pensavo anch'io. Ma non esiste una scatola per collegarla esternamente? Ho visto dalle foto che la RX6600 ha su un lato una serie di attacchi USB e HTML. |
| inviato il 31 Agosto 2023 ore 12:53
“ Qual'è la scheda video? E' completamente diverso da quello che mi aspettavo. „ Eh... non ce l'hai. E' integrata nel processore... e la scheda madre espone le porte di uscita video che poi sono "servite" dal comparto grafico del processore. |
| inviato il 31 Agosto 2023 ore 12:56
“ Ma non esiste una scatola per collegarla esternamente? Ho visto dalle foto che la RX6600 ha su un lato una serie di attacchi USB e HTML. „ Esiste la possibilità di collegare le schede esternamente ma dentro devi comunque avere gli attacchi giusti (una scheda grafica NON può collegarsi via USB, sarebbe totalmente inutile per la ristrettezza della banda in gioco )... e lì ahinoi non ci sono. A questo punto dovresti cambiar tutto, se vuoi adottare una scheda grafica, purtroppo. |
Che cosa ne pensi di questo argomento?Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 237000 iscritti, c'è spazio per tutti, dal principiante al professionista. |

Metti la tua pubblicità su JuzaPhoto (info) |