|
|
inviato il 21 Marzo 2026 ore 23:38
Buonasera, scusate la mia ignoranza , ho installato con il file OffGallery_Launcher.bat. Sembra tutto a posto, ma processando un file raw .nef mi dà questo errore: [23:16:33] Processing: var. mel. 10.'08 -9.NEF [23:16:33] Riprocesso: var. mel. 10.'08 -9.NEF [23:16:33] Analizzando var. mel. 10.'08 -9.NEF... [23:16:33] File var. mel. 10.'08 -9.NEF - RAW: True [23:16:33] Estrazione metadata per var. mel. 10.'08 -9.NEF... [23:16:33] Metadata estratti: 5 campi [23:16:33] MAX target size per cache: 518px (profili: ['clip_embedding', 'dinov2_embedding', 'bioclip_classification', 'aesthetic_score', 'technical_score', 'llm_vision'] ) [23:16:33] Preparazione RAW per AI: var. mel. 10.'08 -9.NEF [23:16:33] Conversione RAW fallita: var. mel. 10.'08 -9.NEF [23:16:33] var. mel. 10.'08 -9.NEF: nessuna immagine estraibile dal RAW — embedding e LLM saltati, solo metadati salvati [23:16:33] Embedding disabilitato per var. mel. 10.'08 -9.NEF [23:16:33] LLM auto-import richiesto ma embedding_generator non disponibile Questo succede anche con un file .orf Forse questa cosa è già stata detta, ma non ho trovato niente sul forum come posso risolvere ? Grazie |
|
|
inviato il 21 Marzo 2026 ore 23:50
Te lo fa solo con quello specifico NEF e quello specifico ORF? Dice che non riesce ad estrarre l'immagine embedded dal raw... Scrivi a Michele in privato inviandogli un link wetransfer per fargli scaricare il NEF e l'ORF, se ti è possibile (o almeno uno dei RAW per ogni tipo di quelli che non ti funziona): così può usarli in locale per debuggare il caso. |
|
|
inviato il 22 Marzo 2026 ore 0:26
Massimo ciao. guarda che se te lo fa solo su una o due puo' essere normale, perche' a volte i file possono essere rovinati anche se la foto si vede bene. Guarda se c'e' un metodo per ripristinare una preview dentro al raw. OffGallery usa Exiftool per estrarre le preview , che funziona da anni senza problemi. ad ogni modo se pensi che il file sia 'normale', se vuoi mandamelo oppure mi scrivi in privato. grazie mi dici anche su cosa stai girando? |
|
|
inviato il 22 Marzo 2026 ore 0:46
windows 11 |
|
|
inviato il 22 Marzo 2026 ore 18:34
Ok Michele resto in ascolto: da un test fatto su una cartella di 20 orf ho notato che le tempistiche di analisi sono molto lunghe, il motore ingaggia la VRAM della scheda grafica ma non la gpu (o se lo fa si tiene a livello quasi nullo) mentre il lavoro sporco va a carico dei core fisici della cpu. Detto in parole povere: su Mac intel niente hypertreading e niente gpu. Dai post precedenti avevo capito che qualcosa lato metal era venuto fuori. Poi sia chiaro che a differenza di Ale_z io faccio al contrario: le istruzioni le leggo dopo. Nel mio caso non è stato semplice far andare tutte le librerie AI causa interferenza con la versione Python presente e Bioclip ma sono riuscito a risolvere da solo dando in pasto i log del terminale e della applicazione a Google ai. Inutile dirti che ne é nata una grossa conflittualità con il mio esperimento che sto portando avanti nonostante la frustrazione derivante da come cammina ChatGPT: due passi avanti e tre indietro. Ma tu come hai fatto senza diventare scemo?????? |
|
|
inviato il 22 Marzo 2026 ore 18:40
Ps: una tua opinione: clip a me da molti errori logici di interpretazione. Tu hai posto delle regole per contenere gli errori? Io sto testando Yolo (proposto da Chat) ma pare uno di quei passi indietro di cui parlavo prima.Te lo chiedo perche sul piano della logica di analisi il tuo progetto sia già collaudato giusto?. |
|
|
inviato il 22 Marzo 2026 ore 19:41
Ramirez, Su Mac Intel, MPS (Metal Performance Shaders) non è disponibile — Metal/MPS funziona solo su Apple Silicon (M1/M2/M3/M4). Su Intel Mac, PyTorch gira esclusivamente su CPU. La VRAM che vedi "ingaggiata" è quella dell'iGPU Intel (Iris/UHD) usata dal sistema operativo per il display — non viene toccata da PyTorch. Quindi il comportamento che descrivi è corretto e atteso: tutto gira sui core fisici CPU, senza accelerazione GPU. I tempi lunghi su 20 ORF sono normali in questo scenario. Cosa si può fare per migliorare le performance su Intel Mac CPU-only: - CLIP e DINOv2 su CPU sono i più lenti — se non hai bisogno della ricerca semantica puoi disabilitarli dal processing tab per quel batch - BioCLIP su CPU è molto lento (~5-10s/foto) — stesso discorso - MUSIQ e Aesthetic sono relativamente veloci anche su CPU - LLM se usa Ollama, gira comunque separato Sul fatto che hai risolto da solo i conflitti BioCLIP/Python — ottimo. Se vuoi condividere la soluzione possiamo aggiungerla alle FAQ o alla guida installazione per aiutare altri utenti Mac Intel. non so quale versione hai, ma adesso puoi scegliere cosa caricare in gpu o in cpu e se premi un tasto ti ottimizza lui da solo dove devono stare i modelli per evitare swap su disco o altro. |
|
|
inviato il 22 Marzo 2026 ore 19:43
cosa intendi per errori di interpretazione? selezione di foto diverse da quello che tu chiedi? aggiunto dopo: prova a usare claude code, e' un'altro mondo, lascia stare chatgpt, usalo solo come una verifica per i casi difficili dove claude non risolve, a volte e' utile e cosi' anche per gli altri. Riguardo a Yolo / Clip, bisogna vedere a cosa ti serve, cosa cerchi. Yolo e' piu' indicato per riconoscere categorie di 'oggetti' /persone , 3 gatti, 2 scatole) ma non per interpretare il contesto . per un programma come OffGallery, ho ritenuto piu' adeguato clip, ma yolo potrebbe diventare un plugin successivo |
|
|
inviato il 22 Marzo 2026 ore 21:08
“ Inutile dirti che ne é nata una grossa conflittualità con il mio esperimento che sto portando avanti nonostante la frustrazione derivante da come cammina ChatGPT: due passi avanti e tre indietro. Ma tu come hai fatto senza diventare scemo?????? „ Concordo con Michele, usa Claude Code o Codex di OpenAI, entrambi da terminale e preferibilmente con i modelli migliori. Però mi sa che serve un abbonamento. |
|
|
inviato il 22 Marzo 2026 ore 22:27
Ehhh costicchiano, si. Come diceva il mio amico, "bona bona l'aragosta, ma quanto costa". (e comunque qualche abbaglio lo pigliano anche quelli eh!... Tipo non sapere che Windows non fa rilevare più di 4GB di VRAM ai propri costrutti di query hardware "wmic" e "Get-CimInstance"... ) |
|
|
inviato il 22 Marzo 2026 ore 23:03
Duro fatica a sopportare una socera figuriamoci due!. Comunque Riguardo ai problemi riscontrati nell'istallazione (figa, non banale) ho notato che : Alcune librerie potrebbero non istallarsi. Trattandosi di istallazioni da terminale mac questo ti informa dei warning quindi copi il contenuto e lo incolli a Chat o come ho fatto io a Google AI mode e per tentativi risolvi. Bioclip era "nero" quindi mi sono limitato a prendere il log (dove si vede l'incompatibilita con vecchie versioni di pyton) e si risolvere nella stessa maniera di cui sopra. "cosa intendi per errori di interpretazione? selezione di foto diverse da quello che tu chiedi?" Intendo principalmente errori nel interpretare la scena o il soggetto che stando a Chat sono possibili in clip a causa del modello di riconoscimento a matrice (qualunque cosa significhi). potrei farti esempi ma si fa giorno! Il punto è che se applico un tag con un processo automatizzato posso accettare che sia generico (mi aiuta poco) ma per lo meno non è fuorviante. Non mi riferisco a Offgallery che a causa del poco tempo non sto testando, ma al mio progetto che se funzionasse sarebbe una cosa più basic. Tu hai fatto un lavoro da Pro, io non ci provo neanche, già adesso sono a un punto di stallo e mi sto chiedendo se valga la pena. Comunque seguo e magari riprovo. Esattamente che tempi di analisi a immagine si hanno su mac intel? |
|
|
inviato il 23 Marzo 2026 ore 1:11
per prima cosa,stiamo usando modelli che girano in locale senza interazione con l'esterno. risultato: le tue foto non vanno in giro per i server di mezzo mondo , magari ad alimentare altre AI. Non puoi aspettarti la precisione di un modello da miliardi di parametri , anche se in realta', combinando prompt, ghirigori vari e accorgimenti sequenziali, si puo' ottenere una discreta precisione, considerando il mezzo. per i tempi di analisi non so su mac, ma si parla di centesimi di secondo o 1 secondo per clip e gli altri. quello che prende tempo e' la generazione di testo con un modello llm, ma dipende dalla gpu e basta anche facendo doppi salti mortali col codice, dipende da quanto testo stai generando e da che risorse hai. se ci sono problemi di installazione, mandami i log in privato (formato text) , anche se li hai risolti, che mi dai un aiuto enorme perche' io mac non ce l'ho. P:S: dacci retta, usa Claude grazie |
|
|
inviato il 23 Marzo 2026 ore 8:08
“ Il punto è che se applico un tag con un processo automatizzato posso accettare che sia generico (mi aiuta poco) ma per lo meno non è fuorviante „ Ramirez, io parlo da semplice utente. Io posso solo paragonare OffGallery a AnyVision, un plugin per LR che utilizza Google Vision. È un paragone per certi versi improprio, perché i presupposti (ad es. privacy) sono molto diversi e anche l'output è differente ma c’è in comune l'utilizzo di modelli AI per il riconoscimento. AnyVision produce una semplice lista di keyword più o meno pertinenti e qualche rara allucinazione. Appoggiandosi a Google ha una notevole capacità a riconoscere luoghi urbani. Ma a mio vedere OffGallery fa qualcosa di più. L'uso del modello LLM non impressiona tanto per la costruzione di una frase ma piuttosto per il fatto che questo processo implica una descrizione della scena che pesa gli elementi e quindi costruisce un’interpretazione semantica. È un risultato molto più utile. Questo vantaggio poi ritorna quando ti trovi a interrogare il database |
|
|
inviato il 23 Marzo 2026 ore 8:25
A scanso di equivoci chiarisco per Michele e Ale: il problema della interferenza di climp non riguarda Offgallery che non ho testato e non ho giudicato. La mia era una domanda che facevo a Michele per capire se durante la creazione dell’app avesse incontrato questo problema e che tipo di considerazioni avesse fatto in merito. Se avesse fatto test anche con altri modelli per valutare la strategia più opportuna. Ripeto non era una critica all’app in questione. Per quanto riguarda i Log non ho pensato a salvarli. |
|
|
inviato il 23 Marzo 2026 ore 8:36
Io come scritto, in privato, ho poca dimestichezza con questi processi pertanto mi incartò con errori banali, tipici di chi fa confusione ed è disordinato nell’intimo. Ale il fatto generare i tag in locale è in punto cruciale nonché quello che rende Offgallery molto attraente. É chiaro però che i modelli AI vendono importati e pesano parecchio sull’hw. É tutta una questione di equilibrio tra vari compromessi, almeno per come la vedo io. |
Che cosa ne pensi di questo argomento?
Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto.
Con oltre 259000 iscritti, c'è spazio per tutti, dal principiante al professionista. |

Metti la tua pubblicità su JuzaPhoto (info) |