RCE Foto

(i) Per navigare su JuzaPhoto, è consigliato disabilitare gli adblocker (perchè?)






Login LogoutIscriviti a JuzaPhoto!
JuzaPhoto utilizza cookies tecnici e cookies di terze parti per ottimizzare la navigazione e per rendere possibile il funzionamento della maggior parte delle pagine; ad esempio, è necessario l'utilizzo dei cookie per registarsi e fare il login (maggiori informazioni).

Proseguendo nella navigazione confermi di aver letto e accettato i Termini di utilizzo e Privacy e preso visione delle opzioni per la gestione dei cookie.

OK, confermo


Puoi gestire in qualsiasi momento le tue preferenze cookie dalla pagina Preferenze Cookie, raggiugibile da qualsiasi pagina del sito tramite il link a fondo pagina, o direttamente tramite da qui:

Accetta CookiePersonalizzaRifiuta Cookie

Amazon Cloud Drive impedirà l'accesso ai NAS Synology


  1. Forum
  2. »
  3. Computer, Schermi, Tecnologia
  4. » Amazon Cloud Drive impedirà l'accesso ai NAS Synology





avatarsenior
inviato il 12 Novembre 2020 ore 1:24

No, non hai capito (strano...)
Se tutti i NAS Synology accedessero con un unico utente synology con password ilmionasèilpiùfigo condividendo tutto gli stessi dati quello che dici potrebbe avere un senso,
ovviamente (e ci mancherebbe altro) non è così

Già eri intervenuto in questo thread nelle pagine precedenti con la tua spocchia e arroganza, vedo che non perdi il vizio.

Amazon non sta bloccando l'utente Synology o l'utente Balza (ed in quel caso sarebbe come dici tu),
ma sta rimuovendo un'API deprecata che era usata dal Nas Synology e non dall'app.
[...]
Ti è mai capitato di ottenere una nuova funzionalità di gmail o Facebook qualche giorno o ora prima dei tuoi amici? Ecco è esattamente lo stesso meccanismo...

Tutto il tuo discorso parte da un assunto: tu sai cosa ha deciso Amazon e come intende procedere per il blocco dei NAS Synology, evidentemente ti ha chiamato zio Jeff per spiegartelo, abbiamo gente che conta su questo forum (non c'è ovviamente bisogno di dire che nella remotissima ipotesi fosse realmente così, ii venire a spiattellare su un forum pubblico il dietro le quinte di Amazon ti farebbe guadagnare infinita stima da parte di Jeff che non vedrebbe l'ora di darti una promozione).

Peccato che la decisione di Amazon potrebbe essere dovuta sì ad aggiornamenti di API, ma anche a svariate altre possibili motivazioni: commerciali/politiche in primis, tanto che ad aver ricevuto la comunicazione di stop ai servizi di sync sembrerebbero essere i soli possessori di NAS Synology e non di altre marche. E in quel caso tutte le tue considerazioni (ah, a proposito, grazie per il link a Kubernetes, se non ci fossi tu a spiegare come funziona il mondo chissà cosa farei) non avrebbero alcun senso perché potrebbe non essere necessario aggiornare alcuna API per spegnere il servizio a determinati utenti, potrebbe bastare una variazione in termini di configurazione: se la chiamata arriva dal client X rispondi picche, stop, ovvero un banale controllo come può essere la verifica della password o se l'abbonamento è stato pagato o meno. Un controllo magari implementato da mesi e attivabile in un qualunque momento a piacimento.

Rimuovere una API deprecata sostanzialmente implica mettere in produzione una nuova versione del servizio di backend che non risponda più a tale API.
Nel 2020 non mi aspetto che Amazon spenga completamente un servizio per riattivarlo dopo qualche ora con la nuova versione ma, sempre perché siamo nel 2020, lo farà in modalità rollingupdate per avere downtime 0.

Che il downtime in servizi cloud distribuiti come questo debba essere 0 è di una ovvietà disarmante ma che per ottenere downtime 0 siano necessariamente da prevedere rolling updates di un paio di settimane non sta né in cielo né in terra. Anche ammesso e non concesso Amazon debba intervenire con la sostituzione delle API e ipotizzando quindi la necessità di un deploy delle nuove versioni su tutti i sistemi:
- primo: essendo l'intervento programmato da mesi e non certo fatto con urgenza, il deploy poteva essere organizzato nel corso del suddetto arco temporale, rilasciando una nuova versione del software che fino alla data "x" accettasse API deprecate e successivamente a quella data rifiutasse le chiamate. Così facendo il nuovo software poteva anche essere deployato a settembre o ottobre in modo del tutto trasparente e arrivati al primo di novembre tac, in automatico per tutti gli utenti a livello worldwide, le vecchie API finiscono di funzionare perché il check sulla data fallisce.
- secondo: se anche il deploy si fosse deciso di iniziare a farlo a partire dal primo novembre e se anche si dovesse parlare di rolling update, a tuo avviso per effettuare tale deploy - di un aggiornamento come detto programmato con ampissimo margine di tempo (mesi) - ad Amazon servono di più di 10 giorni di tempo (siamo al 12 di novembre e il sistema ad alcuni utenti come il sottoscritto continua a funzionare). Ok.

Detto questo... visto che come detto hai già ampiamente inquinato questo thread anche in passato parlando di cose che con il thread non c'entrano una beneamata, ti blocco e non se ne parla più.

avatarsenior
inviato il 12 Novembre 2020 ore 8:33

Nel caso in corso Balza l'inibizione progressiva è più che plausibile.
Infatti a te funziona e a Badcode non piu: quello che mi stupisce è che l'inibizione sia ancora in corso dopo due settimane, mi sarei aspettato più efficienza da parte di Amazon nel dare seguito ad una cosa che evidentemente deriva da una risoluzione di contratto che si può supporre sia praticamente unilaterale da parte sua.

avatarjunior
inviato il 12 Novembre 2020 ore 14:25

Intervengo nel thread per confermare che anche a me funziona tutto regolarmente ad oggi.

In prospettiva del blocco che probabilmente prima o poi colpirà anche me stavo valutando la soluzione del prodotto S3 Deep Glacier di Amazon. Sembra molto conveniente a livello di prezzo come soluzione di backup a lungo termine.

Qualcuno ne ha esperienza diretta?


avatarsenior
inviato il 12 Novembre 2020 ore 14:50

Qualcuno ne ha esperienza diretta?
Mmmh no, ma stavo usando il calcolatore e la somma mensile moltiplicata per 12 per un estimate di 2TB con un po' di caricamenti mensili in stile fotoamatore è assolutamente speculare a quella richiesta dai 2TB in prezzo annuo su Google One. Mi domando allora dove sia il vantaggio della soluzione Glacier.

avatarjunior
inviato il 12 Novembre 2020 ore 15:01

Se non ho capito male:

2TB su Google One sono 99,99 Euro all'anno

2TB su Amazon S3 Deep Glacier sono 43,2 Euro all'anno

avatarsenior
inviato il 12 Novembre 2020 ore 15:09

No, aspetta, allora io cos'ho calcolato? Il S3 Glacier normale e non il deep?
Da dove l'hai fatta la stima?

avatarjunior
inviato il 12 Novembre 2020 ore 15:10

aws.amazon.com/it/s3/pricing/

Depp ovviamente che ha tempi di recupero di 48 ore.

Se scegli US Region viene ancora meno: 0,00099 USD per GB al mese

avatarsenior
inviato il 12 Novembre 2020 ore 15:33

Ah ho visto ora la riga relativa a Deep che viene 0.0018 anziché 0.0045 al GB, si, grazie mille. Un peccato che non ci sia il calcolatore, anche perché mi sa che pure lì gli upload vengono un tanto ogni tot upload... e poi c'è l'eventuale ammontare delle richieste di restore...

Si in effetti la somma minore per US è piuttosto antipatica... ma non vorrei fosse da tassare con la loro VAT, in realtà.

avatarsenior
inviato il 12 Novembre 2020 ore 16:32

Mi rimane non chiara una cosa però.. nel Deep Glacier c'è scritto "Per archiviazione dei dati a lungo termine a cui si accede una o due volte all'anno e che possono essere ripristinati in 12 ore". Vuol dire che si può caricare solo due volte l'anno? O che si può recuperare solo due volte l'anno?
Secondo me il Deep non conviene.. cioè, economicamente sì, ma ha troppe limitazioni..

avatarjunior
inviato il 12 Novembre 2020 ore 16:40

Da quello che capisco leggendo il sito Amazon non sono previste limitazioni di upload.

Tuttavia bisogna considerare due particolari:

- c'è un costo aggiuntivo se un file viene cancellato entro 180 giorni dal caricamento;
- il download in caso di ripristino viene effettuato dopo 48 ore.

avatarsenior
inviato il 12 Novembre 2020 ore 16:51

Riporto da qui aws.amazon.com/it/about-aws/whats-new/2019/03/S3-glacier-deep-archive/

S3 Glacier Deep Archive è più indicato per coloro che desiderano ridurre i costi dei dati archiviati a cui si accede al massimo una o due volte l'anno e sono disposti ad accettare 12 o 48 ore di latenza per il primo byte. S3 Glacier Deep Archive è molto semplice da utilizzare e richiede meno modifiche nella configurazione per chi ha già familiarità con l'utilizzo della classe di storage di S3 Glacier. S3 Glacier Deep Archive è completamente integrato con le funzionalità di S3, come S3 Storage Class Analysis, S3 Object Tagging, le politiche sul ciclo di vita di S3, S3 Object Lock, la replica multi-regione, la crittografia lato server e le chiavi gestite dai clienti.

Per ripristinare i dati archiviati in S3 Glacier Deep Archive è necessario avviare una richiesta di ripristino tramite le API di Amazon S3 o la console di gestione di Amazon S3. La richiesta di recupero crea una copia temporanea dei dati nella classe di storage S3 RRS e lascia intatti i dati archiviati in S3 Glacier Deep Archive. È possibile specificare l'intervallo di tempo, in giorni, durante il quale la copia temporanea sarà conservata in S3. Per accedervi da S3 è quindi necessaria una richiesta GET di Amazon S3 sull'oggetto archiviato.

Il modo più semplice per archiviare i dati in S3 Glacier Deep Archive è utilizzare l'API PUT di S3 per caricarvi i dati direttamente. I dati possono essere caricati su S3 Glacier Deep Archive attraverso Internet utilizzando AWS Direct Connect e la console di gestione AWS, AWS Storage Gateway, l'interfaccia a linea di comando di AWS o il kit per lo sviluppo di software (SDK) di AWS. S3 Glacier Deep Archive è integrato con Tape Gateway, una funzionalità di AWS Storage Gateway per creare una libreria di nastro virtuale basata sul cloud. Con tale capacità, puoi ora gestire i tuoi backup locali basati su nastro e ridurre i costi mensili dello storage scegliendo di archiviare i tuoi nuovi nastri virtuali sulle classi di storage di S3 Glacier o S3 Glacier Deep Archive.


In pratica l'upload lo dovresti poter fare senza limitazioni. E' il recupero dei dati che è vincolato: devi fare una richiesta esplicita e da quel momento passano dalle 12 alle 48 ore prima che quei dati siano effettivamente messi a disposizione.

Quello che non è esplicitato del tutto è il concetto di "1 o 2 volte l'anno": non si capisce se è solo un suggerimento (del tipo: "se ci devi accedere poche volte può andare bene perché sappi che ogni volta che ti servono i file devi aspettare ore per poterli prendere") o se è un vincolo stringente (ovvero "alla terza richiesta di recupero ti attacchi o ci paghi qualcosa"). Personalmente credo più la prima perché se fosse un vincolo stringente avrebbero dovuto essere più precisi (per capirci, non avrebbero scritto "una o due volte" ma "due volte"... non può essere una cosa discrezionale).

avatarjunior
inviato il 17 Novembre 2020 ore 20:54

purtroppo da qualche giorno ho anche io lo stesso problema.

Qualcuno sa se anche con qnap funziona?

avatarsenior
inviato il 17 Novembre 2020 ore 21:06

Sui Qnap non mi pare di aver visto notizie di restrizioni, no...

avatarjunior
inviato il 17 Novembre 2020 ore 21:15

ottimo grazie.

Passerò a Qnap allora (tanto avevo già in mente di cambiare nas)... mi trovo veramente bene con questa soluzione ... non mi va di cambiare tutta l'organizzazione delle mie foto

avatarsenior
inviato il 18 Novembre 2020 ore 8:02

È molto ot ma Google da giugno chiuderà lo spazio illimitato in alta qualità, per me che uso sia Amazon che Google foto è un po'una scocciatura perché Amazon ha un'app che funge malino sul cell

RCE Foto

Metti la tua pubblicità su JuzaPhoto (info)



Questa discussione ha raggiunto il limite di 15 pagine: non è possibile inviare nuove risposte.

La discussione NON deve essere riaperta A MENO CHE non ci sia ancora modo di discutere STRETTAMENTE sul tema originale.

Lo scopo della chiusura automatica è rendere il forum più leggibile, soprattutto ai nuovi utenti, evitando i "topic serpentone": un topic oltre le 15 pagine risulta spesso caotico e le informazioni utili vengono "diluite" dal grande numero di messaggi.In ogni caso, i topic non devono diventare un "forum nel forum": se avete un messaggio che non è strettamente legato col tema della discussione, aprite una nuova discussione!





 ^

JuzaPhoto contiene link affiliati Amazon ed Ebay e riceve una commissione in caso di acquisto attraverso link affiliati.

Versione per smartphone - juza.ea@gmail.com - Termini di utilizzo e Privacy - Preferenze Cookie - P. IVA 01501900334 - REA 167997- PEC juzaphoto@pec.it

www.juzaphoto.com - www.autoelettrica101.it

Possa la Bellezza Essere Ovunque Attorno a Me