JuzaPhoto utilizza cookies tecnici e cookies di terze parti per ottimizzare la navigazione e per rendere possibile il funzionamento della maggior parte delle pagine; ad esempio, è necessario l'utilizzo dei cookie per registarsi e fare il login (maggiori informazioni).

Proseguendo nella navigazione confermi di aver letto e accettato i Termini di utilizzo e Privacy e preso visione delle opzioni per la gestione dei cookie.

OK, confermo


Puoi gestire in qualsiasi momento le tue preferenze cookie dalla pagina Preferenze Cookie, raggiugibile da qualsiasi pagina del sito tramite il link a fondo pagina, o direttamente tramite da qui:

Accetta Cookie Personalizza Rifiuta Cookie
RCE Foto






Login Logout Iscriviti a JuzaPhoto!

domanda editate in Srgb o AdobeRgb?


  1. Forum
  2. »
  3. Tecnica, Composizione e altri temi
  4. » domanda editate in Srgb o AdobeRgb?





avatarsenior
inviato il 31 Dicembre 2025 ore 17:17    

Forse sarebbe meglio imparare a usare un programma di sviluppo raw senza poi dover uscire in file raster per fare altre modifiche.


Per certe cose, è ancora necessario passare da Photoshop

avatarjunior
inviato il 31 Dicembre 2025 ore 18:14    

Ma vi state a rovinare l'ultimo dell'anno per una questione che è un falso problema


Il fatto che tu non comprenda i termini della discussione non implica automaticamente che si tratti di un "falso problema". Mi dispiace se ti sembro un po' indelicato nondimeno, poche righe sopra, hai consigliato di studiare il gamut a Raamiel....

avatarsenior
inviato il 31 Dicembre 2025 ore 18:31    

Per certe cose, è ancora necessario passare da Photoshop


Photoshop è un programma raster, il raw non ha colore e sono informazioni del sensore che lo portano a poter gestire tutto lo spettro sia in additivo che sottrattivo, quindi monitor e stampa e si fa con i programmi di sviluppo raw. Tutto quello che succede dopo non è conservativo.
Adobe vi ha abituati ad avere camera raw in PS e poi LR che si interfaccia con PS, cosa che si può fare, ma comporta poi il mantenimento di tutto quello che ne consegue.
Se lo sviluppo raw è fatto bene che lo si faccia in qualsiasi programma di sviluppo poi va bene anche in raster.
Casomai bisognerebbe partire dalla ripresa fotografica per avere il meglio nel raw e poi usare tutte le info del raw per completare lo sviluppo, se non si ottiene quello che si vuole, di sicuro è sbagliato qualcosa fatto prima.

Insomma ci siamo abituati a scattare sapendo che poi ci sarebbe stato un enorme recupero in post produzione, ma poi qualcosa si paga sempre e usare PS per recuperare uno sbaglio ci sta, ma non come metodo di lavoro.

avatarsenior
inviato il 31 Dicembre 2025 ore 18:59    

Il fatto che tu non comprenda i termini della discussione non implica automaticamente che si tratti di un "falso problema". Mi dispiace se ti sembro un po' indelicato nondimeno, poche righe sopra, hai consigliato di studiare il gamut a Raamiel....


Se uno non comprende che un ProPhoto a 8 bit fa schifo e che quello che intendeva Hdb si riferiva ai bit e non allo spazio colore, è meglio che ricominci dalla pagina che ho messo come link della Eizo dove lo spiega bene.
Casomai poteva correggere l'errore, non fare la domanda
Questa mi è nuova, perché dovrebbe pesare di più con AdobeRGB o ProPhoto?
Dove starebbe la ragione tecnica?

Ed ha fatto bene Hdb a correggersi poco dopo.

Comunque come dicevo sopra, se si vuole fare un po di scienza meglio iniziare da Andrea Baschirotto.

Se si opera bene in sviluppo raw il metodo colore e i bit si scelgono in uscita e di conseguenza lo spazio che necessita per archiviare. Quindi se ho un raw e il suo file sidecar, perchè mi devo fare dei problemi esporto per quello che mi serve e non ho nessun problema.
Quindi alla fine è solo una questione di quello che mi serve e lo faccio quando mi serve, ma ho già tutto archiviato con il raw originale e pochi KB del suo file sidecar.

PS: se il problema è il concetto di lavorare in AdobeRGB anche quando serve un sRGB postato da Giusemox
allora il 3D può essere concluso dopo i due primi interventi di Ironluke e di Ale Z.


avatarsenior
inviato il 31 Dicembre 2025 ore 19:09    

il raw non ha colore e sono informazioni del sensore che lo portano a poter gestire tutto lo spettro sia in additivo che sottrattivo


È vero: il RAW non contiene ancora informazioni sul colore in forma completa. Sono soltanto dati device-dependent.

Ma parlare di sintesi additiva o sottrattiva in relazione al sensore non ha senso.
La sintesi del colore, sia sottrattiva sia additiva, agisce prima della cattura e rientra nella fisica del colore in riflessione (e, più in generale, dell'interazione luce–materia).

Il sensore non fa alcuna distinzione tra questi meccanismi: registra indifferentemente colore in riflessione, in emissione, in trasmissione e in diffusione.
È sensibile a qualunque distribuzione spettrale dell'energia luminosa che raggiunga i suoi fotositi.

Nella caratterizzazione colorimetrica ci si occupa quasi sempre della fisica in riflessione, perché è quella direttamente legata all'illuminante presente in scena.
Ma questo è un vincolo del modello, non del sensore.

Proprio per questo il sensore è la periferica più intrinsecamente problematica (per non dire bastarda) dell'intera catena:
non ha un gamut definito, né realmente definibile in senso colorimetrico.

L'ho studiato, giuro.

avatarsenior
inviato il 31 Dicembre 2025 ore 19:15    

Ma parlare di sintesi additiva o sottrattiva in relazione al sensore non ha senso.


Non intendevo in quel senso ma che hai le info per poter agire poi sia in stampa e per monitor o via web che usano le due differenti sintesi.

avatarsenior
inviato il 31 Dicembre 2025 ore 22:41    

Seguo, si fa interessante... MrGreen

avatarsenior
inviato il 31 Dicembre 2025 ore 22:47    

Ivo, al di là del pippozzo sui raw, raster, etc, che potevi risparmiare perché sono concetti basilari che conosce chiunque, te lo ripeto... Per certe elaborazioni devi passare da Photoshop.

Il fatto che a te sia sufficiente sviluppare in Lightroom o software similare non vuol dire che non esistano elaborazioni più complesse (es. fusioni di multiesposizione, applicazione di contrasto locale, etc), che semplicemente non puoi fare in Lightroom e similari

avatarsenior
inviato il 31 Dicembre 2025 ore 23:30    

Devo ringraziare pubblicamente Ivo6767 che ha avuto la cortesia di consigliarmi in privato, che semmai avessi voglia di approfondire la questione dei sensori, gli studi di Andrea Baschirotto.

Lo farò, perché è sempre bene ampliare la propria visione e conoscenza.
Non è mai troppo tardi per imparare qualcosa di nuovo.

Intanto buon anno a tutti Sorriso


avatarsenior
inviato il 01 Gennaio 2026 ore 11:03    

@Essezeta

Se si parla di fusioni, multi-esposizioni, panoramiche ed altro HDR e bracketing compreso, si parla di elaborazione dell'immagine e non di sviluppo del raw e inerente a questo 3D dei profili colore e della gestione del peso dei file e sfruttamento del sensore legato a scattare in ADOBE RGB o in sRGB.

Per il trattamento dei contrasti in locale si possono fare senza passare per PS.
Così come il cambio di colorazione locale, basta che il programma possa gestire le maschere locali con le quali puoi fare localmente qualsiasi cosa.

Come ho già scritto se vogliamo stare nell'argomento del 3D tutto si risolve nei primi due post di risposta.
Poi tutto il resto è una questione di cosa si cerca di ottenere, non è una questione mia personale, se si sta nel discorso dello sviluppo del raw e del sistema scelto in macchina durante lo scatto e la gestione successiva, quello che sono le cose che elenchi che si possono fare solo in PS non rientrano in questo discorso.
Non dico che non sono da tenere presente, se fai panoramiche diventa necessario avere più scatti, ma devi sempre sviluppare i raw di ogni scatto per poi abbinarli oppure usi Camera Raw che lo gestisce anche bene ho un amico che fa panoramiche a 360 gradi e sono spettacolari anche perchè non esagera con l'HDR.

Sicuramente penso diversamente come scattare e poi sviluppare un raw da altre persone, non è che quello che penso io sia la bibbia, poi coi SW odierni c'è pure ampia libertà di scelta e anche caratteristiche di motore grafico diverso, sono modi diversi pi fare le cose e che dipende da quello che si cerca di fare.


avatarsenior
inviato il 01 Gennaio 2026 ore 11:47    

Perdonami, Ivo, ma non hai capito veramente nulla.
Il 3D parla del profilo colore utilizzato come profilo di lavoro in Photoshop.
Forse dovresti leggere meglio...

avatarsenior
inviato il 01 Gennaio 2026 ore 12:01    

Ma se parla solo dell'uso utilizzato solo in PS allora è finito come dicevo al secondo post del 3D.
Scusa ma l'andare oltre dopo le prime due risposte, forse vuol dire che la questione potrebbe non finire li e magari si può vedere e sviluppare in altri modi.
Se così non fosse allora mi fermo qui.


avatarsenior
inviato il 01 Gennaio 2026 ore 13:20    

Fermati Ivo, fermati per piacere!


avatarsenior
inviato il 01 Gennaio 2026 ore 13:40    

MrGreenMrGreenMrGreen

avatarsenior
inviato il 01 Gennaio 2026 ore 14:00    

Riguardo gli spazi colore, avevo letto da qualche parte la loro storia, che ora non trovo.
Probabilmente in un libro, che però ora ho a casa.
Faccio riassumere più sotto all'ai.

In sostanza, uno spazio colore nasce per gestire e avere un riferimento per gli apparecchi del proprio tempo, già prima dalle tv degli anni 50.
Nel 1996 con sRGB si usavano i monitor a tubo catodico che ti sparavano elettroni sui fosfòri se non direttamente negli occhi. Per far ordine nel colore di quegli apparecchi è stato creato sRGB, per cui gli apparecchi successivi cercavano di adattarsi a questo nuovo standard.

Nuovo, per il 1996.

Già nel 1998 sRGB stava stretto, e hanno pensato ad uno spazio più ampio, che potesse contenere questo, ma pure lo standard usato per tante stampanti, così è nato Adobe RGB 1998.

Boscarol ci dice qui www.boscarol.com/blog/?p=1626 che Adobe RGB (1998) non è adatto per l'archiviazione di immagini né per la codifica di immagini per il web. È adatto invece per l'interscambio di immagini nel campo delle arti grafiche e per la cattura di immagini digitali non Raw.

Per quel che mi riguarda, la maggior parte delle persone con cui lavoro, o mi interfaccio, usa uno schermo Apple o simile, che da una decina di anni tende a usare DCI-P3.
Che è ben più grande di sRGB, per cui già non avrebbe senso esportare con questo, figuriamoci editare o archiviare.
Per mia consuetudine, edito in Prophoto, esporto in Adobe RGB per consegnare i file, o in DCI-P3 per l'internet.

----------///----------

Che è il DCI-P3?
Da Boscarol:
Lo spazio RGB chiamato DCI-P3 è stato definito da Digital Cinema Initiatives (DCI) fondata nel 2002 da sette compagnie :

20th Century Fox, Metro-Goldwyn-Mayer, Paramount Pictures, Sony Pictures Entertainment, Universal Studios, The Walt Disney Company, Warner Bros. Lo spazio DCI-P3 è stato adottato come standard RP 431-2 dalla Society of Motion Picture and Television Engineers (SMPTE) nel 2007.


Caratteristiche

Come estensione è uno spazio abbastanza simile ad Adobe RGB.
...(ecc, cose tecniche...)
...

Utilizzo

Lo spazio è stato progettato per i proiettori cinematografici digitali e può essere usato per i televisori e le attrezzature di home cinema.

iPad Pro 9.7 (31/3/2016) visualizza in due spazi diversi usando la tecnologia di gestione del colore ColorSync. Questo iPad è il primo dispositivo prosumer ad avere un monitor Retina che visualizza nello spazio DCI-P3 (con un ΔE2000 medio sui primari e secondari = 1.26). Il secondo spazio in cui visualizza è sRGB.



----------///----------

Insomma, usare sRGB per tutto è lecito, quanto vestirsi come un paninaro, usare una Zundapp nel quotidiano, e un Imac G3. Lo puoi fare, nessuno te lo vieta, ma siamo nel 2026 (e buon anno!).


----------///----------


Storia di alcuni spazi colore, dall'ai di Google:

La storia degli spazi colore riflette l'evoluzione tecnologica, dal tentativo di mappare la percezione umana fino alle esigenze del cinema digitale e della fotografia professionale.

1. CIE XYZ (1931) Creato dalla Commissione Internazionale per l'Illuminazione (CIE), è il padre di tutti gli spazi colore moderni. Si basa su esperimenti di corrispondenza visiva condotti negli anni '20 da Wright e Guild. Definisce matematicamente tutti i colori percepibili dall'occhio umano medio attraverso tre primari immaginari (\(X\), \(Y\), \(Z\)), eliminando i valori negativi presenti nei modelli precedenti.

2. NTSC (1953) Sviluppato dal National Television System Committee per l'avvento della TV a colori negli Stati Uniti. Sebbene definisse un gamut (gamma cromatica) molto ampio per l'epoca, i monitor CRT reali non riuscivano a riprodurlo fedelmente. Oggi è usato principalmente come termine di paragone per la qualità dei pannelli moderni.

3. CIE Lab* (1976) Introdotto per risolvere il limite di "non uniformità" del CIE XYZ. In questo spazio, la distanza geometrica tra due punti corrisponde alla differenza di colore percepita dall'uomo. È indipendente dal dispositivo (device-independent) e viene usato come ponte per convertire i colori tra dispositivi diversi, come scanner e stampanti.

4. sRGB (1996) Creato da HP e Microsoft per standardizzare i colori su internet e nei computer consumer. Si basa sulle caratteristiche dei monitor CRT dell'epoca. Grazie alla sua compatibilità universale, è ancora oggi lo standard predefinito per il web, i social media e la stampa amatoriale.

5. Adobe RGB 1998 Sviluppato da Adobe per coprire i colori delle stampanti CMYK professionali che lo spazio sRGB non riusciva a raggiungere, specialmente nelle tonalità del ciano e del verde. È lo standard di riferimento per la fotografia professionale e la prestampa.

6. ProPhoto RGB (2000 circa) Sviluppato da Kodak (originariamente chiamato ROMM RGB), è uno spazio colore "ultra-ampio". È così vasto che include colori immaginari che l'occhio umano non può vedere, prevenendo la perdita di dati durante la post-produzione intensiva di file RAW.

7. DCI-P3 (2005) Definito dalla Digital Cinema Initiatives, è nato per la proiezione cinematografica digitale. Ha un gamut più ampio del 25% rispetto all'sRGB, con una maggiore estensione verso i rossi e i gialli. Oggi è diventato popolare nel mercato consumer grazie all'integrazione in iPhone, Mac e TV HDR.

Le risposte dell'AI potrebbero contenere errori.

----------///----------

Ma ce ne sono altri, Boscarol ci raccontava quelli celebri.
www.boscarol.com/blog/?page_id=1538



Che cosa ne pensi di questo argomento?


Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!

Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 257000 iscritti, c'è spazio per tutti, dal principiante al professionista.





banner

Metti la tua pubblicità su JuzaPhoto (info)


 ^

JuzaPhoto contiene link affiliati Amazon ed Ebay e riceve una commissione in caso di acquisto attraverso link affiliati.

Versione per smartphone - juza.ea@gmail.com - Termini di utilizzo e Privacy - Preferenze Cookie - P. IVA 01501900334 - REA 167997- PEC juzaphoto@pec.it

www.juzaphoto.com - www.autoelettrica101.it

Possa la Bellezza Essere Ovunque Attorno a Me