| inviato il 04 Marzo 2018 ore 7:55
Perché secondo te la demosaicizzazione di un Bayer come funziona? Nel pixel sotto il filtro Rosso non hai informazioni di che luce c'è verde e blu. Il software se la "inventa" proprio come dici tu Ci sono una miriade di algoritmi per farlo, il VNG è il più usato oggi, ci sono studi, tesi, ricerche... di tutto di più dietro a queste cose, perché non sono per nulla banali Perché credi che i sensori foveon abbiano risoluzione migliore rispetto ai tradizionali Bayer a parità di Mpixel? Semplicemente perché a parità di densità di pixel hanno più informazioni spaziali Questa è una immagine di un sensore Bayer prima degli algoritmi
 |
| inviato il 04 Marzo 2018 ore 7:56
Si può essere fatta un altra magia, ma il riflesso se non é sempre nello stesso punto è sempre un problema... |
| inviato il 04 Marzo 2018 ore 7:58
Secondo me blade non è un riflesso ma semplicemente una saturazione delle righe adiacenti che non permette di interpolare bene.. infatti capita sempre vicino a zone sature, almeno in un canale (occhio che ad esempio il rosso può esser saturo anche se non si vede il pixel bianco... e stesso vale per gli altri canali) |
| inviato il 04 Marzo 2018 ore 8:06
Mi sono espresso male, lo so anch'io che il Bayer inventa, ma partendo dal presupposto che un immagine su dpreview di quelle test oppure su imaging resource , tra un sensore da 24 megapixel senza punti af e uno con non cambia nulla a livello di risoluzione, quindi interpolano senza doversi inventare dettaglio... |
| inviato il 04 Marzo 2018 ore 8:14
Interpolazione “ In matematica, calcolo mediante il quale si determinano, secondo una certa legge, valori di una funzione all'interno di un intervallo nel quale ne sono noti solo alcuni „ Tradotto.. inventarsi qualcosa che non c'è poi i risultati possono essere ottimi o pessimi, ci mancherebbe Anzi sarei proprio curioso a questo punto di capire l'effettiva perdita di dati che si ha a causa di questo aspetto Magari è trascurabile Magari è percettibile Magari è rilevante non saprei Ho già chiesto ad un altro utente del forum se mi dà una mano a capirci di più, io non ho a disposizione nessuna Sony quindi non posso provare.. una A9 sarebbe perfetta penso perché forse oggi è la più simile a questa Se ti va di darmi una mano possiamo provare assieme. se vuoi ti giro un MP su un test che potrebbe aiutare a chiarire la cosa e poi se si riesce a fare proviamo ad analizzarlo assieme |
| inviato il 04 Marzo 2018 ore 8:19
Ste se fosse così è mi sembra plausibile potrebbero metterci una pezza, però se lo hanno anche macchine uscite da anni perché non hanno ancora risolto? |
| inviato il 04 Marzo 2018 ore 8:28
Un algoritmo che funzioni alla perfezione su tutti i casi che si possono presentare è impossibile. Se i dati mancano... mancano.. Quel che probabilmente hanno già fatto è minimizzare i casi in cui si nota, infatti fino ad oggi nessuno si era lamentato della cosa. quei pochi che magari han visto qualche artefatto han sempre dato la colpa a chissà quali altre motivazioni e ci sta. Adesso che magari sono usciti con un firmware un po' prematuro e qualcuno si è accorto del difetto.. tutti a guardarlo... psicologia.... e a questo punto salta fuori ovunque.. anche dove ci vuol veramente la lente di ingrandimento a vederlo.. Quindi si ingigantisce il problema La cosa ridicola se vuoi è che se non succedeva questo caso notato da un influente sito americano, nessuno si sarebbe accorto di nulla... si son un po' tirati la zappa sui piedi Tra l'altro nota bene che se è come penso io il problema è subdolo, perché si perde dettaglio solo su un asse del sensore.. diciamo in verticale, non in orizzontale, quindi l'occhio sicuramente lo nota molto meno, il dettaglio è di solito distribuito uniformemente sui due assi.... tranne in casi speciali, ad esempio righe parallele.. trame parallele (poi mi potrete dire.. che min..ia te ne fai di fotografare delle righe parallele?.. si in effetti...) Sarei proprio curioso a questo punto di quantificarlo.. curiosità intellettuale (davvero eh.. non per prendere in giro Sony.. anzi per me resta una gran macchina sta A7III) Va beh.. vado a spalare un po' di neve che è più utile |
| inviato il 04 Marzo 2018 ore 8:47
“ se son 2 su 10 allora chissene „ Il 20% su scatti in contro luce? Non è un pò troppo? |
| inviato il 04 Marzo 2018 ore 9:10
Scusate ma per caso A.P. ha detto la sua? Non c'entra niente ma sono curioso. Se si trattava di nikon ....... Apriti cielo. Comunque detto questo spero che risolvano presto,cosi posso cercare una 7 ll a buon prezzo. |
| inviato il 04 Marzo 2018 ore 9:10
Onsone 04 Marzo 2018 ore 7:36 Manna dal cielo per gli sfigados Canon e Nikon Users.. Dai divertitevi e la vostra ora di ricreazione Complimenti all'utente Onsone |
| inviato il 04 Marzo 2018 ore 9:11
Questa situazione ci dimostra una volta per tutte che il file veramente grezzo (RAW) non esiste. Tutti i RAW sono interpolati, lavorati, cucinati e imbellettati per presentarceli più prestanti che mai, ovviando a incapacità di sensori che vengono spremuti all'inverosimile pretendendo sempre più QI, GD, AF e Low Noise. Altra considerazione è che Sony ha sempre usato un software (algoritmo) di interplolazione sicura di arginare il problema, perchè che se ne dica bene o male, milioni di professionisti in un modo o nell'altro hanno fatto miliardi di miliardi di scatti in controluce con sensori Sony negli ultimi 5 anni, e il problema non è stato degno nemmeno di nota! Oggi, non so se giustificatamente, perchè sta benedetta A7III non è nemmeno uscita e andrebbe almeno testata, il problema sembra essere più rilevante del passato, quindi Sony non farà altro che aggiungere qualche ingrediente alla lavorazione software del Raw in camera, per presentarcelo prestante come sempre in mirino dopo lo scatto. Per una volta mi trovo quasi daccordo con Zen. ...non mi sento molto bene evidentemente. Fatemi sdraiare un attimo.... |
| inviato il 04 Marzo 2018 ore 9:15
“ Oggi, non so se giustificatamente, perche sta benedetta A7III non è nemmeno uscita e andrebbe almeno testata „ Riallacciandomi al tuo discorso sul raw (o presunto tale )...la magagna infatti è venuta fuori su di un jpg prodotto da una macchina pre-serie...probabilmente con algoritmo acerbo... Però il dubbio resta sulle macchine già in vendita da tempo...vuol dire che la pezza la metteranno, ma il rattoppo non sarà mai perfetto! |
| inviato il 04 Marzo 2018 ore 9:15
Questo difetto è stato trovato anche su A99II? |
| inviato il 04 Marzo 2018 ore 9:19
@Phototrader: Il problema per una azienda nesce nel momento in cui il mercato te lo fa notare, non quando i tuoi tecnici in laboratorio lo scoprono. Sai perchè? Perchè tutti i prodotti hanno delle tolleranze. Se io fossi un utente A9 e scoprissi spesso un problema del genere dopo aver speso 4700 euro di corpo, picchierei ogni giapponese con la S da qui fino a Kyoto. (compreso Shingo Tamai) Sistemeranno immediatamente i firmware di tutte! Senza ombra di dubbio. Trovato l'algoritmo più prestante lo adatteranno a tutte. |
| inviato il 04 Marzo 2018 ore 9:24
“ Se io fossi un utente A9 e scoprissi un problema del genere dopo aver speso 4700 euro di corpo, picchierei ogni giapponese con la S da qui fino a Kyoto. „ “ Sistemeranno immediatamente i firmware di tutte! Senza ombra di dubbio. Trovato l'algoritmo più prestante lo adatteranno a tutte. „ Avere un finto raw allora fa proprio comodo, , speriamo, le tue parole mi danno conforto, volevo rivoluzionare tutto il mio (piccolo x la verità) apparato e pensavo proprio all A7 III... |
Che cosa ne pensi di questo argomento?Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 252000 iscritti, c'è spazio per tutti, dal principiante al professionista. |

Metti la tua pubblicità su JuzaPhoto (info) |