|
|
inviato il 31 Ottobre 2023 ore 12:10
“ Se facessero un sensore con un RO di 1/500s magari potremmo avere il sync a 1/400 in elettronico….ma magari come su a1 insieme al meccanico avremmo 1/1000….vedi te. „ è quello che penso succederà, però poi per avere un otturatore meccanico da 1/1000 che costi ci sarebbero? per cui suppongo che ci si rinuncerà...semplicemente |
|
|
inviato il 31 Ottobre 2023 ore 12:13
Beh ma l'otturatore potrebbero poi riportarlo sulla a1ii, non sarebbe male. Comunque sono tutte illazioni….magari esce con il vecchio 24mpx e solo fps in più. |
|
|
inviato il 31 Ottobre 2023 ore 13:06
“ Comunque sono tutte illazioni….magari esce con il vecchio 24mpx e solo fps in più. „ se uscisse con un sensore 24mpx con maggiore tenuta agli alti iso, af AI, un r/o velocissimo ed un'ergonomia migliorata sarebbe la sportiva perfetta |
|
|
inviato il 31 Ottobre 2023 ore 13:18
Speriamo di no. Come sola qualità d'immagine, preferisco la a7r5 alla a1. Quindi stacked sì, ma solo se veramente ti serve. |
|
|
inviato il 31 Ottobre 2023 ore 13:25
“ io continuo a sponsorizzare i sensori stacked e ad affermare che il futuro è stacked ;-) e che presto Sony migrerà tutte le fotocamere prima a stacked e poi, se e quando diventerà competitivo, sul GlobalShutter... Aggiungo che credo che grazie alla maggiore velocità dei nuovi sensori, se non con la A9III, molto presto Sony eliminerà il bisogno dell'otturatore da tutte le fotocamere accellerando così la transizione verso i sensori stacked. „ Come spiegato varie volte il sensore GS in campo fotografico rispetto ad uno stacked porta più svantaggi che vantaggi, soprattutto perché la gamma dinamica e gli fps sono alla base delle richieste. Sony, come altri, non ha nessun interesse a posizionare stacked su tutte le fotocamere, in primo luogo per la differenziazione delle macchine/sensori, poi per i costi…che non avrebbero alcun senso, inoltre la progettazione di sensori come quelli della R, dedicati alla dinamica ed alla risoluzione non hanno certo bisogno di complicazioni di progettazione e magari compromessi per ottenere velocità. Inoltre la uno degli elementi che differenziano le macchine professionali per velocità e risoluzione/velocità, è proprio il sensore stacked…che ha un costo ovviamente molto elevato ed è quindi un differenziale. Un otturatore costa decisamente meno di un sensore con memoria ultraveloce inglobata. |
|
|
inviato il 31 Ottobre 2023 ore 13:35
@Maserc Guarda che l'architettura stacked aumenta le performances dei sensori perchè, tra l'altro, consente di gestire il segnale con consumi elettrici minori... il discorso diventerebbe troppo lungo e troppo tecnico. Il fatto che nei primi stacked si sia ovviamente cercato di privilegiare la velocità anche a discapito della qualità dell'immagine non significa che oggi trovando il giusto compromesso i sensori stacked non possano già essere uguali o addirittura migliori dei vecchi sensori anche nella qualità dell'immagine! |
|
|
inviato il 31 Ottobre 2023 ore 13:51
@Bigstefano: Uno stacked scalderà sempre di più di un sensore normale: catene di amplificazione più rapide (o molte di più in parallelo), adc rapidi, scritture e letture nel buffer (probabilmente lpddr4) sono tutte fonte di consumo elettrico. Come qualità di immagine una catena di acquisizione più rapida non aiuta di cetrto, così come non aiutano le correnti più importanti e il bus lpddr4 vicini ad un sensore. |
|
|
inviato il 31 Ottobre 2023 ore 13:55
Ho sempre letto, che letture più veloci del sensore, si portano dietro inevitabili effetti collaterali. Del resto, chi va piano... |
|
|
inviato il 31 Ottobre 2023 ore 14:19
Una lettura veloce comporta dover passare un numero elevato di bit in un determinato canale (bus) quindi arrivati a saturazione i casi sono due, o diminuisci i bit o rallenti la lettura… Questo è il problema poi dei gs che non andando in modo sequenziale (sullo stacked è comunque una sequenza anche se rapidissima) complicano non poco il passaggio di tutte le informazioni insieme… |
|
|
inviato il 31 Ottobre 2023 ore 14:35
@Pie11, @Maserc Analizziamo un solo fattore: Un segnale per andare da A a B deve essere abbastanza potente da superare la dispersione dovuta alla distanza e il rumore(*) dovuto alle interferenze dei circuiti stessi. NB(*) Maggiore è il voltaggio e maggiore sarà il rumore... Le vostre conoscenze tecniche vi permettono di determinare se la compressione delle distanze ottenute "stackerizzando" un sensore con relativi vantaggi sopra descritti non sia in grado di compensare un eventuale maggior numero di operazioni e che queste creino un maggior calore anche se la potenza impegnata è notevolmente ridotta? Io confesso di non essere in grado ma forse se buttate un'occhio alla storia recente della miniaturizzazione... |
|
|
inviato il 31 Ottobre 2023 ore 15:08
stanotte avremo ognuno lo stacked che ci meritiamo........  |
|
|
inviato il 31 Ottobre 2023 ore 16:57
OT L'evoluzione della potenza dell'informatica SW & HW in una storiella: Nel 1992 ero in un team che gestiva un gruppo di applicazioni complesse che si appoggiavano su diversi Data Base alcuni gerarchici (il vecchio DL1) e altri che utilizzavano il DB2 relativamente nuovo per l'epoca. Il tutto girava su diversi elaboratori con tecnologia bipolare: IBM3090 raffreddati ad acqua perchè i CMOS allora erano ancora considerati poco più che giocattoli(*). Ricordo che ad un certo punto siccome i volumi erano aumentati di parecchio i cicli di elaborazione notturni diventarono troppo lunghi e si rischiava in seguito a un ulteriore previsto aumento dei volumi di non riuscire più a chiudere il ciclo giornaliero per tempo. Cercando una soluzione scoprimmo che il problema maggiore erano le query DB2 due delle quali si prendevano tutta la potenza di calcolo per oltre un'ora... Così abbiamo chiesto supporto al laboratorio che ci ha dato subito un paio di dritte e ci ha chiesto di spedire ulteriore documentazione. Abbiamo così iniziato a ottimizzare il sia il DB che le query incriminate e, seguendo i consigli del laboratorio, dopo un paio di settimane secondo noi ìl problema era risolto perchè eravamo riusciti ridurre il tempo di elaborazione delle due query incriminate da oltre 1 ora e 15 minuti a poco meno di 7 minuti e anche i tempi delle altre si erano ridotti sensibilmente. Nel frattempo il laboratorio in USA ci comunicò che un loro Specialista che stava venendo in Europa per un giro di incontri già programmato sarebbe venuto a trovare anche noi... Ricordo ancora che quando lo Specialista è arrivato noi con orgoglio gli abbiamo mostrato i nostri notevoli progressi e che lui subito dopo spiegandoci che quello che stava per fare non era ancora descritto nei manuali si è piazzato alla consolle e ha fatto un paio di modifiche alla configurazione del DB2 che abbiamo subito testato lanciando le due query incriminate che restituirono un tempo di elaborazione di 21 secondi poi, non contento, ha fatto anche un paio di strane modifiche alle dette due query spiegandoci che così facendo forzava un percorso diverso... Così dopo aver testato più volte le modifiche chiudemmo il "caso" con un tempo di elaborazione tra 5 e 6 secondi! NB (*): Oggi uno qualunque di quei PC che usate per fare postproduzione e anche una grossa percentuale dei vostri telefonini è sicuramente più potente di quei 3090 bipolari raffreddati ad acqua di cui ho parlato sopra, e lo è grazie ad un massiccio uso di tecnologia CMOS! |
|
|
inviato il 31 Ottobre 2023 ore 17:48
Manca solo Valgrassi con la trasformata di Fourier e il quadro è completo! |
|
|
inviato il 31 Ottobre 2023 ore 18:06
@NoPhotoPlease io normalmente evito per quanto possibile di propinare aì forumisti formule incomprensibili per i non addetti ai lavori perchè preferisco cercare di semplificare i concetti usando esempi nella speranza di coinvolgere anche a chi non ha conpetenze specifiche di ottica e di informatica! |
|

Metti la tua pubblicità su JuzaPhoto (info) |