| inviato il 16 Ottobre 2013 ore 19:27
per Tiamat.. io credo che influisca molto il circuito A/D in quello che dici, di solito i dorsi sono a 16bit mi pare, mentre le dslr sono solo 14bit. Penso che faccia la differenza nel rendere i passaggi tonali. Comunque sia io ho trovato un grande miglioramento usando proprio CaptureOne 7, il file della D800 lavorato in Lightroom e poi in CaptureOne sembra totalmente diverso. Sto imparando ad usarlo, ma mi piace sempre di più, nei ritratti poi è fenomenale. |
| inviato il 16 Ottobre 2013 ore 19:55
Più che l'A/D penso che la varibabile che più influisce nelle differenze cromatiche siano da rcercare nei filtri colore più selettivi nei dorsi, ma che bloccano anche più luce. Quindi colori fedeli ma anche meno sensibilità e alti ISO peggiori (che derivano da altri fattori: niente mi rolenti nella maggior parte dei dorsi, CCD, ecc.) Poi ovvio che sono tante le variabili che influiscono. Tra dorsi con il medesimo sensore si hanno differenze di resa (colore, passaggi tonali, rumore, ecc) dovuti alla differente elettronica di contorno. Inoltre il fatto che con Capture One si ha un convertitore RAW fatto apposta per un certo dorso e che interpreta il file alla perfezione è un plus non da poco. |
| inviato il 16 Ottobre 2013 ore 20:54
Capture one fa miracoli anche con file da dslr, non solo da dorsi digitali. Provare per credere! Ostico, interfaccia pessima, lento ed esoso ma qualitativamente insuperabile. |
| inviato il 16 Ottobre 2013 ore 21:11
Io mi sono perso...fatemi capire: l'autore del topic ha affermato che i dati dimostrano che è inutile avere un sensore con tanti Mpixel se poi le ottiche non sono in grado di risolverli. Altri controbattono che al centro le lenti risolvono di più e quindi al centro i Mpixel in più verrebbero sfruttati. Ho capito bene? Infine... tra tutti quelli che sono intervenuti, c'è almeno UNA persona che ha fatto un confronto serio (stessa ottica e stesse condizioni di scatto) tra 5D3 e D800 e che poi abbia stampato lo scatto in grandi dimensioni? Allo stesso modo anche una foto ipercroppata al centro E STAMPATA potrebbe stabilire se la differenza di Mpixel effettivamente è apprezzabile. Io sono molto ignorante in questo campo, ma anche molto "pratico". Ciao. |
| inviato il 16 Ottobre 2013 ore 21:29
Ragazzi ma ancora date retta al Pollastrini??? VI prego andatevi a leggere tutti i suoi messaggi. SOno tutti di critica a Nikon. Ma la cosa più grave è che lo fa anche dicendo castronerie ipergalattiche facilmente dimostrabili anche da neonati. Ma si sa la D800 alimenta gli animi di molte persone e forse questo è un bene per il forum che viene riempito da pagine per lo più inutili. Qualche intervento molto interessante c'è stato ma io ritengo inutile rispondere ai post del Pollastrini che sempre più fa il Troll. Dategli retta se volete ma a vostro rischio e pericolo |
| inviato il 16 Ottobre 2013 ore 21:38
mi piacerebbe un confronto serio fra una sigma sd1 e una d800; mi pare che lo abbiano fatto su stampe di grandi dimensioni con una dp3 merril ed eravamo lì per il resto, meglio averli i megapippi per un certo genere di fotografia |
| inviato il 16 Ottobre 2013 ore 21:41
Io... ho fatto il confronto tra i file che ottenevo con la 5DMkII e quello che ottengo con la D800E, e non c'è paragone. Beninteso,non è che la Canon facesse schifo eh, anzi, gran macchina anche oggi. Un articolo interessante e pratico potrebbe essere questo : www.fredmiranda.com/5DIII-D800/ Si vedono bene i punti forti del sensore della D800, senza per questo sminuire gli splendidi risultati ottenibili con la Canon. Ribadisco ancora (eppure sembra semplice), che il fatto che dei megapixel siano sprecati è normale. Questo perché il rendimento di una lente non è uniforme, per un sacco di ragioni; mentre il sensore deve essere per forza denso anche ai bordi se lo è al centro. Quindi se al centro ottica e sensore viaggiano al massimo della frequenza disambigua o Nyquist, per forza di cose ai bordi ci sarà più risoluzione di quanta l'ottica ne riesca a saturare. Un sensore meno denso NON aiuta una cippa, perché se le cose si riallineano per i bordi e quindi nei bordi non c'è perdita, allora ci sarà perdita nel centro. Con la differenza che nel primo caso si perde risoluzione di sensore e non ci importa un fico, nel secondo caso perdiamo potenzialità della lente. E' per questo motivo che molte lenti trasmettono meno Mp su di una D700 piuttosto che su una D800; come nel caso del 50 nikkor 1.4 G che ho già esposto. Per far passare il rendimento dai 9P-Mp ai 16P-Mp si deve NECESSARIAMENTE estendere il sensore da 12Mp totali a 36Mp totali. Nella D700 vengono sprecati in percentuale meno Mp, ma il guaio è che viene castrata l'ottica; nella D800 se ne sprecano di più, ma con il gran vantaggio di recuperare praticamente tutto dall'ottica. Quindi questo incremento di performance è naturalmente e inevitabilmente pagato così. |
| inviato il 16 Ottobre 2013 ore 21:50
ma non è vero, nella 1dx c'è un'ottica che dà come risultato 17 mpix percepiti, quindi oltre i 16 mpix del sensore |
| inviato il 16 Ottobre 2013 ore 21:54
la 1Dx ha 18Mp sul sensore.... |
| inviato il 16 Ottobre 2013 ore 21:55
opssss ;) |
| inviato il 16 Ottobre 2013 ore 21:59
metto il link a una foto che ho scattato recentemente con lo Zeiss 135 apo... giusto per vedere cosa riesce a fare una buona ottica su quel sensore... la foto lo so... sa di poco. www.juzaphoto.com/me.php?pg=59469&l=it#fot621775 |
| inviato il 16 Ottobre 2013 ore 22:04
ancora a credere alla favoletta che i sensori moderni hanno meno rumore di quelli di 4 anni fa? cavoli in 30anni i sensori hanno sempre avuto le stesse prestazioni poi arrivano Canon, Sony e NIkon e di colpo i sensori migliorano di anno in anno la qualità... Bella favola per voi che avete sempre fatto foto. I sensori hanno tutti le stesse prestazioni a parità di architettura e le differenze sono minime. La differenza vera la fa solo l'algoritmo di elaborazione che traduce i dati e ricostruisce l'immagine. Un compromesso tra qualità e consumo energetico. in quasi 20 anni l'algoritmo di Google è ancora il migliore nonostante tutto e si vede che Sony ha un algoritmo che le da un vantaggio notevole rispetto a quello di Canon e questo è molto difficile da recuperare se non buttando tutto e rifacendo tutto nuovo. Dxo non è seria perchè di parte e ora ha scoperto cose che si dicevano anni fa quando uscì la Canon 500D che metteva in crisi le ottiche kit come la 1Ds MkIII nel segmento FF. Penso che siamo al limite tra rapporto risolvenza/definizione sensore e la soluzione sarebbe nuovi materiali per i vetri... forse un ritorno a materiali radioattivi in voga negli anni 50/60/70? tipo un pentax molto radioattivo? |
| inviato il 16 Ottobre 2013 ore 22:26
ma lol il solo fatto di paragonare i sensori di generazione differente tra loro, e distinguerli solo per l'elaborazione elettronica che ricostruisce i dati è una boiata intergalattica che va contro ogni qualsivoglia evoluzione tecnica e di costruzione stessa (leggasi processi produttivi) anche se in effetti l'assunto sul " 20 anni che l'algoritmo di google è quello" la fa passare in secondo piano Edit e btw ecco "l'immutato algoritmo in 20 anni" moz.com/google-algorithm-change |
| inviato il 16 Ottobre 2013 ore 22:46
Mi sto pisciando sotto dalle risate.... dai non infierire. |
Che cosa ne pensi di questo argomento?Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 253000 iscritti, c'è spazio per tutti, dal principiante al professionista. |

Metti la tua pubblicità su JuzaPhoto (info) |