user3834 | inviato il 27 Giugno 2014 ore 19:18
Scusate ma se passo da 75 a 50 circa come faccio a non perdere qualità e informazioni? Anche Sony ormai da solo Raw compressi da qualche anno a questa parte però mi sembra davvero strano che non ci sia differenza. comunque il tempo perso a comprimere non penso sia comparabile con quello della scrittura di 25 MB. |
| inviato il 27 Giugno 2014 ore 19:30
tipo un file .zip |
| inviato il 27 Giugno 2014 ore 19:31
Dipende da che potenza hai a disposizione per comprimere e quanti sono i dati da comprimere; è plausibile che quando Nikon ha introdotto il Nef non compresso il tempo totale per acquisire, elaborare e scrivere il nef sulla scheda fosse inferiore in questo modo. |
| inviato il 27 Giugno 2014 ore 19:36
Non vorrei che la motivazione fosse radicalmente diversa. Come per il tiff magari che nikon mantiene principalmente per fini legali. |
| inviato il 27 Giugno 2014 ore 19:50
“ Perbo, ritieni che la compressione in macchina impieghi un tempo inferiore a quello necessario per registrare il non compresso? Osservazione acuta da testare: grazie anche a te :) „ Secondo me si, gli asic come l'expeed sono fatti apposta: qualcuno sa a che velocità la d800 scrive i dati sulle cf? |
| inviato il 27 Giugno 2014 ore 19:59
Anche secondo me.. i processori non sono general purpose ma dedicati e molto veloci, non ho notato differenze di velocità tra raw e raw lossless in camera |
| inviato il 27 Giugno 2014 ore 20:11
Pellicolari ..... Ci mancava anche questa! E meglio lasciarla stare la pellicola, altrimenti si potrebbe rimanere male dalla qualità di qualche cibachrome in grande formato rispetto ai sensorini digitali a cui siamo abituati! .. Molto molto male! Venendo al raw non compresso se la compressione è losless l'unico motivo per cui si potrebbe eliminare il passaggio di compressione è sostanzialmente prestazioni e velocità ...altre cose non ne vedo sinceramente! |
| inviato il 27 Giugno 2014 ore 20:59
Da ció che ho letto, l'unica differenza si avrebbe in fase di pp, all'apertura del file compresso, più dispensiosa che non con un file non compresso. A ben vedere, è quanto capita nell'aprire un qualsivoglia file da un archivio rispetto allo stesso file non conpresso: ha senso, imho |
| inviato il 27 Giugno 2014 ore 22:20
“ Da ció che ho letto, l'unica differenza si avrebbe in fase di pp, all'apertura del file compresso, più dispensiosa che non con un file non compresso. A ben vedere, è quanto capita nell'aprire un qualsivoglia file da un archivio rispetto allo stesso file non conpresso: ha senso, imho „ dubito che un processore recente abbia qualche problema nel trattare un file compresso. Alla fine si tratta di jpg, solitamente.. ci mette una frazione di secondo. Se occupa 75 mb invece di 50, ci mette anche il 50% del tempo in più a leggerlo dal disco. Ma non so quanto possa pesare sul tempo totale di demosaicizzazione. |
| inviato il 27 Giugno 2014 ore 22:22
i problemi di ottimizzazione tipo compressione e decompressione sono tra quelli più vecchi e noti nel trattamento delle informazioni e sono stati super ottimizzati nel tempo, al pari di quelli di ordinamento, di ricerca, o quelli numerici, per dire. Ci sono metodi generici, buoni per quando non conosci a priori quello che devi (de)comprimere, o quelli specializzati su un tipo di struttura dati nota a priori. Non so quale usi Nikon, voglio sperare che sia il secondo tipo, ma sinceramente non lo so. E' importante sapere comunque che queste operazioni avvengono in memoria e sono velocissime, a volte si scrivono programmi ottimizzati direttamente in assembler per ottenere il meglio senza lasciare scegliere al compilatore il modo in cui sfruttare il processore. Solitamente, se si lavora bene, se i file sono ben comprimibili (dipende dal contenuto e dalla struttura), è molto più vantaggioso in termini di tempo comprimere in memoria e poi scrivere su supporto un file molto più piccolo piuttosto che scrivere il file non compresso che, molto più grande, richiede molto più tempo della somma delle due precedenti operazioni. Idem nel caso della decompressione: leggere da supporto un file piccolo, caricarlo in memoria e lì decomprimerlo è solitamente molto più vantaggioso che leggere il solo file non compresso. |
| inviato il 27 Giugno 2014 ore 22:49
Concordo Pietro però ..... Qua c'è il problema che non conosciamo a conti fatti come lavorano i processori della refled, quali sono le loro potenzialità e soprattutto il fatto che i flussi dati sono paralleli allo scattare foto e per cui il processore non fa solo quello. Certo, più piccolo è il file prima si trasferisce però magari in raffiche lunghe è meglio "scrivere e basta" piuttosto che comprimere e poi scrivere. Tante supposizioni e purtroppo, da parte mia, tanta ignoranza! :-) |
| inviato il 28 Giugno 2014 ore 7:43
Come si comportano la d800/d800e con ottica 24-120F4 e 24-70F2.8? Conviene abbinarla solo ed esclusivamente a fissi??? |
| inviato il 28 Giugno 2014 ore 8:10
Mi domando, data la completa eliminazione del filtro AA, la pulizia del sensore si potrà ancora fare "in casa"? |
| inviato il 28 Giugno 2014 ore 8:18
“ completa eliminazione del filtro AA, la pulizia del sensore si potrà ancora fare "in casa"? „ io mi chiedo se tolgono i pezzi poi sarà ancora in garanzia |
|

Metti la tua pubblicità su JuzaPhoto (info) |