Solid State Disk

 In Spotlight
Nessuna valutazione fornita dagli utenti.

Com’è fatto un SSD?
La maggior parte dei dischi di classe mainstream utilizzano le “economiche” MLC, che permettono di memorizzare più bit in un’unica cella di memoria. Sappiate però che esistono anche le SLC (le prime inventate cronologicamente) che sono potenzialmente più longeve e veloci dal momento che memorizzano 1 solo bit per cella: produttivamente più dispendiose. Queste sono presenti nei dischi di classe “enterpise”, come nella serie EX di OCZ. Gli SSD cono più simili alle memorie RAM che agli hard disk tradizionali e come queste hanno incredibili velocità di lettura/scrittura, nessuna parte meccanica in movimento, silenziosità, minor consumo energetico.

Prendendo in prestito il saggia-motto “+SSD -GHz”, con questo articolo vorrei esprimere alcuni quesiti leggermente più tecnici, in merito alla validità dei dischi allo stato solido in base all’uso del proprio Personal Computer.

È banale che parlando di prestazioni, l’ideale sarebbe avere +SSD +GHz, ma anche +RAM +GPU +CACHE +GB = +EURO. Tuttavia, sovente si spendono 300€ in più per avere una CPU del 5% più performante e poi si lascia il disco tradizionale a 5400 RPM, analogamente ad una Ferrari usata con il freno a mano tirato. Pertanto, a parità di spesa è preferibile avere un SSD e non un leggero upgrade della CPU. A chi è riferita questa frase? A tutti indistintamente, dai navigatori della domenica al professionista della grafica. Cerchiamo di spiegarne il motivo.

I processori elaborano le informazioni, più o meno velocemente ed efficientemente, ma queste da dove arrivano? E, sopratutto, dove vengono memorizzati i risultati? Il nostro cervello è capace di ragionare ed al tempo stesso è la memoria di immagazzinamento (storage) della memoria, ma nei computer ciò avviene attraverso elementi distinti. Le cache, spesso trascurate, solo le memorie più veloci e prossime alle unità di calcolo e vengono usate per registrare questi dati “volatili”. La RAM è molto più capiente ma anch’essa può contenere solo informazioni volatili, che spariscono quando il computer si spegne. Ecco perché i nostri “file”, compresi tutti quelli del sistema operativo e delle applicazioni, necessitano di unità di archiviazione di massa, solitamente identificate con i dischi rigidi. In un computer spento tutti i dati personali e del sistema operativo (non ci interessa al momento approfondire il discorso firmware) sono scritti nel disco rigido. Appena lo accendiamo, la CPU inizia ad eseguire “operazioni” e tutte richiedono un input (informazioni) ed un output (risultato). La cache e la RAM sono memorie allo stato solido (diciamo, genericamente, dei chip) che consentono accessi e scritture incredibilmente rapidi. La sorgente delle informazioni primaria invece, sarà necessariamente il disco rigido (l’unica memoria di massa non volatile) che è solitamente costituita da un disco magnetico, con piatti e testine: struttura che risale al 1956. La CPU, invece, elabora i dati e secondo stime di preferenza assoluta valuta dove scrivere i risultati, prediligendo in ordine: cache, RAM e, infine, hard disk. Questo significa che, di norma, i dati più recenti vengono mantenuti nella velocissima cache per poi essere spostati nella RAM, la quale rimane comunque molto rapida. La RAM è molto più capiente della cache (si passa da unità di MB a GB), ma è sempre limitata ed il computer ne deve lasciare sempre una quantità disponibile. Ecco perché si finisce comunque con fare swap su disco, allocando uno spazio che viene considerato come una estensione della memoria RAM. In sostanza il ciclo che consente al computer di funziona nasce e finisce proprio sul disco rigido.

Immaginate di avere un camino enorme capace di bruciare tonnellate di legna (CPU) e per alimentarlo un omino esile che prende i ceppi ad uno ad uno, posti a 10 metri dal bracere. Il senso del “collo di bottiglia” avviene quando le componenti di un sistema non sono correttamente bilanciate e vi è un elemento così lento da influenzare l’operatività degli altri, i quali lavorano al di sotto delle loro possibilità. Inoltre nei computer vi sono molti servizi che operano in background e che vanno ad utilizzare il disco rigido e ve ne saranno sempre di più. Pensate ad esempio ai portatili dove vi è un file di swap fotocopia della RAM che viene tenuto sempre aggiornato in modo da potersi riprendere da una ibernazione in seguito ad uno spegnimento forzato per carenza di batteria (quando vedete la barra di progressione al risveglio dall’ibernazione quel file “immagine” viene letto dal disco e rimesso nella RAM). Se qualcuno vi dice che un disco veloce serve solo per aprire file di grosse dimensioni, non dategli ascolto, poichè non sa di cosa sta parlando. La velocità di questo elemento influisce su tutta l’operatività generale del computer ed i miglioramenti si notano in ogni singolo aspetto, per il professionista come per il privato.

Un disco tradizionale funziona con piatti e testine, ossia elementi meccanici che richiedono del tempo per spostarsi. Nei dischi allo stato solido (SSD: Solid State Disk) lettura e scrittura avvengono senza alcun movimento, in quanto sono formati da memorie di tipo NAND/flash e questo consente di avere diversi vantaggi tra cui una maggiore robustezza, minori consumi e rumorosità assente. La velocità massima è quella che entra in gioco con letture/scritture continue, ad esempio per aprire/copiare/salvare un file di dimensioni medio/grandi, ed un SSD è più veloce di un disco tradizionale anche oltre le 10 volte: un classico HDD da 5400 RPM che si trova nei portatili viaggia a circa 40 MB/sec mentre un SSD SATA3 raggiunge e supera i 500 MB/sec. Questo dato è già piuttosto indicativo, ma non quanto il valore di IOPS. In effetti in tutta l’operatività normale che il computer esegue dietro le quinte, la CPU non memorizza dati voluminosi ma tantissime informazioni che rientrano in pochi KB. Un SSD OCZ Vertex 3 è capace di eseguire 85000 operazioni al secondo con file di 4KB: il risultato è lontano anni luce da quello ottenibile con i movimenti meccanici delle testine nei dischi magnetici. Questo dovrebbe dare la misura delle differenze in gioco, ma soprattutto lascia comprendere quanto un disco veloce serva a tutti. Non avere quel “pezzo di ferraglia” come unità di massa primaria darà nuova vita anche a vecchie macchine con CPU lente.

Chiunque abbia provato un MacBook Air 11″ (2010) prima serie con un Core 2 Duo a basso voltaggio da 1.4 GHz e con soli 2GB di RAM vi potrà dare viva testimonianza di questa affermazione. Nel 2011 sono arrivate anche CPU sufficientemente performanti ed i risultati sono oggi ancora migliori. Un SSD potrebbe, in linea del tutto teorica, essere poco influente su un server facente parte di un cluster con carico di lavoro distribuito il quale esegue solo operazioni h24, ad esempio nei centri di ricerca. Per i normali computer, invece, il suo apporto sarà immediato, riconoscibile ed evidente. Esemplificando, molti pensano che aprendo un’immagine JPG di 300KB sia quello il suo reale peso. In realtà non è così, perché si tratta di formati compressi che, per essere aperti occupano in memoria molto più spazio. Con le normali fotografie sono richiesti 3 byte per ogni pixel (metodo RGB): questo significa che, per sommi capi, una normale foto scattata con iPhone 4S da 8 megapixel per essere aperta con un programma di grafica occupa in memoria circa 23MB (=3*8000000/1024/1024). Se considerate che chi fa grafica spesso crea progetti di Photoshop con decine di livelli e maschere e che ognuna di queste è come un’immagine a parte (le maschere, tuttavia, hanno un solo byte per pixel) potete facilmente immagine come un documento complesso, magari anche ricco di effetti dinamici, richieda una quantità di spazio in memoria incredibilmente più grande rispetto a quanto ne occupi su disco. Questo esempio serve a capire perché serve tanta RAM, perché i computer facciano tanto swap su disco e perché nelle preferenze di software del calibro di Photoshop vi sia una opzione dedicata alla scelta dei dischi di memoria virtuale che si trova nella voce “Prestazioni”.

La “Descrizione”, inoltre, suggerisce di usare dischi veloci. Viene anche consigliato di non usare lo stesso disco dell’avvio del sistema operativo per evitare carichi di lavoro concorrenti con lo swap di sistema.

Osservazione: in alcune operazioni, il collo di bottiglia può diventare la CPU. Ad esempio, nel rendering video noterete che il carico di lavoro sale al 100%, la temperatura cresce e le ventole che girano velocemente. In questi casi avere un SSD non è determinante, perché il bilancio tra informazioni e calcoli si sposta sul secondo e per scrivere un pixel è richiesto meno tempo/sforzo che a determinare il suo aspetto. Ipotizziamo di rientrate in questa particolare casistica. In primo luogo, la differenza di prestazioni che vi è tra una CPU ed una immediatamente successiva in termini di GHz è di pochi secondi in meno su operazioni di decine di minuti. Tra CPU molto diverse si può arrivare anche ad un tempo dimezzato. Il punto cruciale è: usate il vostro computer solo per premere esporta o renderizza ed attendere i risultati? Sicuramente no. Ipotizziamo di risparmiare anche 10 minuti per un rendering per merito di una CPU migliore, sapete quanti ne risparmierete in una sola giornata utilizzando il computer? Fin dall’accensione non avrete più attese di secondi per lanciare applicazioni. Usandole: provate a lavorare su un’applicazione banale come iMovie o su una professionale come Motion con o senza SSD. La differenza è disarmante per i tempi di latenza minimi ed un’eseperienza/piacere d’uso impareggiabile. Alla fine, avere l’SSD serve anche per chi fa largo uso della CPU. Ed è per assurdo consigliabile anche a questi più l’SSD che l’upgrade di CPU.

In merito al TRIM: si tratta di un sistema che deve essere supportato sia dal disco che dal sistema operativo e consente di mantenere inalterate le performance degli SSD nel tempo. Sui Mac con SO aggiornato è supportato ma solo con i dischi montati direttamente da Apple. Politica doppiamente sfavorevole sia in termini di principio che economici, visto che l’aggiunta eseguita direttamente in fase d’acquisto costa troppo. Ci sono però due considerazioni:

  • vi sono piccole applicazioni che attivano comunque il TRIM (uso raro e sconsigliato);
  • nelle recensioni di SSD si trovano sempre specifiche su un un efficiente Garbage Collector.

Quando i dati vengono scritti sul disco vanno a riempire alcune celle di memoria o parte di esse. Queste hanno una dimensione standard e difficilmente un file ne userà una quantità esatta. Pertanto, dopo numerose scritture molte celle saranno occupate solo parzialmente. Inoltre, al momento della cancellazione i dati non vengono veramente eliminati, ma semplicemente identificati come spazio non protetto e quindi riutilizzabile (su questo principio si basano i software che recuperano i dati cancellati dal cestino). Quando un SSD si proverà a scrivere in quegli spazi, dovrà dapprima effettuarne la reale cancellazione. Questo intervento rallenterà la scrittura. Per questo motivo più il disco è usato e saturo, più diventerà lento.

Il TRIM è una funzionalità introdotta per arginare questa problematica. In sostanza agisce in background, ripulendo in modo effettivo le aree liberate dai file cancellati. In questo modo al momento della successiva scrittura non sarà necessaria nessuna operazione preliminare. Quando pensate alla reale operatività di questo meccanismo, non dovete immaginare la sua applicazione solo ai file gestiti consapevolmente dall’utente, ma anche a tutti i file creati, modificati e cancellati dal sistema durante la normale operatività. Bisogna anche considerare che ciò contribuisce a ridurre la durata di vita del “disco” (lo possiamo ancora chiamare così?) per le continue cancellazioni, eseguite anche quando non espressamente necessario. In termini generali, TRIM e GC non fanno esattamente la stessa cosa ma, sommariamente, raggiungono gli stessi risultati. Questo specie con i controller più recenti (tipo i SandForce SF-2xxx) che gestiscono in autonomia (senza appesantire il sistema operativo) le scritture e la “spazzatura” mantenendo il disco efficiente. In effetti la tecnologia TRIM si è dimostrata scarsamente efficiente, meno degli SSD che usano controller con Garbage Collection. Con la GC, infatti, il disco fa molto più che cancellare a priori tutto lo spazio liberato, perché tiene traccia dello stato di occupazione delle singole celle e secondo un algoritmo interno cerca di indirizzare e pianificare le scritture al fine di evitare il più possibile operazioni inutili. A seconda di come questo algoritmo è “tarato” si può favorire maggiormente la velocità o la durata del disco. Inoltre questa tecnologia è interamente nel SSD, per cui il SO non deve fare nulla, riducendo, quindi, il suo carico di lavoro. Apple con il MacBook Air 2010 ha optato per SSD con controller Toshiba T6UG1XBG. Questo controller ha una GC piuttosto evoluta e, come i SandForce SF-1200 e superiori, non ha bisogno di TRIM. Eppure Lion abilita il TRIM nativamente. MISTERO: perchè scegliere di abilitare una tecnologia obsoleta che compromette il disco, laddove in passato si è fatto un passo in direzione differente?

Gli SSD, tuttavia, hanno in soldoni lo svantaggio di permettere una ridotta archiviazione, dal momento che attualmente è in fase di ricerca e sviluppo di multinazionali per lo storage, alla ricerca di soluzioni sempre più capienti a parità di spazio fisico occupato. Ne consegue che sovente gli utenti si trovano di frontoe alla scelta di adottare sistemi ibridi, che vedono l’installazione di un SSD aggiuntivo ad un HDD tradizionale nell’allogiamento di fabbrica destinato ad accogliere il supporto ottico. Un adattatore che si presta allo scopo può essere il valido MCE OptiBay. Si tratta di una struttura che esternamente ricalca le forme del lettore ma internamente ha un alloggiamento per dischi da 2,5″. Nella confezione si trova anche un leggero case in plastica per riutilizzare il SuperDrive come unità esterna. Il prodotto è valido, ma presenta un prezzo alto, soprattutto ora che il case esterno per recuperare il masterizzatore (uno dei suoi punti di forza) diventa non più così necessario con i masterizzatori di terze parti che si trovano a prezzi minimi. L’adattore LEICKE, invece, rappresenta una soluzione molto più economica che si trova su Amazon a 24,90€, spedizione inclusa. Gli utenti lamentano l’assenza delle viti nel kit fornito, ma il prezzo è interessante, in linea con altri prodotti che si trovano nei siti d’aste e che si ricevono dopo lungo tempo da Hong Kong e senza alcuna garanzia. Almeno con Amazon si ottiene consegna rapida e sicurezza nel caso di resi/rimborsi. Il prodotto funziona bene ed è costruito da un’azienda tedesca. Tuttavia, si tratta di un SATAII (3GB/s), per cui se inserito in Mac del 2011 con Sandy Bridge limita la velocità della SATA3. Dal punto di vista della compatibilità, invece, non c’è alcun problema.

Precisazione: se volete aggiungere un SSD al classico HDD nei MacBook Pro, considerate che il sensore di sicurezza per i movimenti si trova solo nell’alloggiamento primario ed è molto importante che il disco “tradizionale”, ovvero quello con piatti e testine, rimanga in quella posizione. Nell’adattatore del SuperDrive conviene sempre mettere gli SSD.

Quale formato di SSD scegliere?
Innanzitutto, gli SSD non hanno la forma che immaginate. La scocca che li contiene, e che apparentemente sembra molto simile a quella degli HDD, mantiene i tradizionali standard di formato 1,8″, 2,5″ e 3,5″ solo per semplificarne l’installazione e mantenere la compatibilità con i computer. Di norma i 3,5″ si usano nei desktop, i 2,5″ nei notebook e quelli da 1,8″ negli UltraBook come la vecchia serie di MacBook Air. A partire dai modelli da 11″ e 13″ del 2010, Apple ha, invece, deciso di utilizzarlo “nudo” risparmiando molto spazio.

Attualmente quelli da 1,8″ non sono più utilizzati in nessun Mac, mentre quelli da 3,5″ rimangono validi quasi esclusivamente per il Mac Pro. La tendenza attuale prevede di scegliere i 2,5″ da utilizzare poi con opportuni adattatori (come il multi-mount). Questi sono più versatili, in quanto si possono usare anche sui portatili mantenendo identiche prestazioni e funzionalità (laddove quelli da 3,5″ sono di norma più performanti e capienti a parità di costo).

IDE/ATA, SATA I, SATA II o SATA3?
A seconda del modello di Mac in vostro possesso dovrete scegliere l’SSD più adatto. L’informazione è visibile in System Profiler, ma se non sapete dove cercare potreste far prima con MacTracker. Scaricatelo ed aprite con un doppio clic la scheda tecnica del vostro computer. Nel pannello Expansion/Ports leggete cosa appare in corrispondenza di “Hard Drive Bus”. Se trovate indicato 3.0 Gbps avete la SATA II, un valore di 1.5 Gbps indica invece SATA I. Allo stato attuale nessun Mac, neanche il Pro, ha la SATA 3 (di fabbrica) ma gli SSD con questo standard arriveranno presto sul mercato. Considerate che i connettori sono identici ed i modelli retro-compatibili. Per cui potete potenzialmente installare un disco SATA3 su un computer con SATAI o II, perdendo la differenza tra le velocità.

Gli SSD con standard IDE/ATA sono in verità una conquista recente e mirano a fornire parte della loro velocità anche nei computer più vecchi, come i PowerMac G4.

Conviene installare un SSD SATA II su un Mac con SATA I?
Sicuramente la ridotta banda passante da 1.5Gbps non vi permetterà di sfruttare tutta la potenza di un SSD SATA2 capace di transfer rate medi di 285MB/s. Tuttavia, il bus SATAI ha un limite teorico di circa 180MB/s, per cui pur sfruttando solo 2/3 della reale capacità vi darà comunque prestazioni di gran lunga superiori a quelle di un HDD tradizionale, anche a 7200 RPM. Inoltre, fatto l’acquisto potrete portarlo con voi in un eventuale nuovo computer.

Quanti GB ci servono?
Difficile dare una risposta secca. Personalmente riesco a tenere tutti i dati utente di base ed Mac OS X 10.7.2 in circa 25 GB. Tuttavia, per i documenti multimediali anche 1 TB potrebbe risultare poco, a seconda del tipo di file che memorizzate. Provate ad usare WhatSize per scoprire quanti GB vi servono, ma preparatevi ad utilizzare dischi esterni per liberare periodicamente spazio dal vostro disco principale, se utilizzerete solo un SSD.

La mia scelta personale
Per completezza uso MacBook Air 11” (2010) con BootCamp, partizionando il disco in Mac OS X e Windows 7. Conservo, invece, tutti i lavori in dischi tradizionali configurati in RAID. Così il computer è molto più reattivo in ogni operazione ed è una soluzione che consiglio vivamente.

Gli SSD si abbasseranno di prezzo?
Che la tecnologia avanzi e le vecchie soluzioni si riducano di prezzo è noto. Tuttavia, negli SSD il mercato sta dimostrando un comportamento diverso. Per esempio l’Intel X-25M G2 si è venduto allo stesso prezzo per quasi un anno, nonostante sfrutti un controller sostanzialmente vecchiotto. Le lievi fluttuazioni sui costi che abbiamo notato sono essenzialmente dovute al cambio euro/dollaro, ma non vi aspettate che tra 2 o 4 mesi ciò che oggi costa 400€ costerà 300€ in analogia con la passata tradizione della capienza degli HDD tradizionali (passata, perchè inattuale, dal momento che si verificano strani atteggiamenti nell’immediato presente). A meno di qualche improvviso e drastico calo dovuto a fattori esterni, a mio avviso comprare oggi o domani non cambia quasi nulla sul fronte economico. L’unica differenza è la diffusione maggiore di soluzioni SATA3, che si potranno sfruttare su Mac “del futuro” e potrebbero causare un lieve ritocco verso il basso nei prezzi dei dischi SATA2. Secondo me, saranno i nuovi dischi a posizionarsi ad un prezzo più e le riduzioni sui SATA2 saranno impercettibili. In verità i dischi allo stato solido sono già nel nostro presente anche grazie ad un mercato in continuo aggiornamento in cui i modelli di generazioni precedenti diventano economicamente più appetibili. Se non ci si accontenta di dischi “d’annata” e si vuole avere sempre il meglio, ci si accorgerà che le soluzioni al top di gamma continuano a mantenere prezzi consistenti. Ad essere sinceri, tuttavia, se si prende il modello di punta di un anno fa ed il modello di punta attuale si noterà che l’oscillazione è veramente minima, anche se tendente al ribasso. Siamo ancora molto lontani dal mercato degli hard disk tradizionali e probabilmente non arriveremo a raggiungere livelli tali da pagare un SSD da 500GB a 50€ o meno. OCZ è un’azienda che sta spingendo verso riduzioni consistenti nei prezzi ed essa stessa pratica una politica dei costi veramente aggressiva. I recenti sviluppi del disco Octane da 1TB dimostrano quanto OCZ sia impegnata ad immettere sul mercato soluzioni al top, cercando di comprimere i prezzi verso il basso. Tuttavia, si sono accorti che non ci sono prospettive concrete di raggiungere una drastica riduzione in breve tempo e stanno valutando di intraprendere un cammino diverso. Negli SSD ci sono due elementi fondamentali: il controller e le memorie NAND, che spesso si dimenticano nella descrizione delle specifiche tecniche immesse sul mercato, perchè troppo intime al prodotto per poter essere apprezzate dai potenziali clienti, alla stregua, ad esempio, dei rapporti mercantili nella presentazione di un valutazione immobiliare, oggetto di sudore per la redazione del rapporto degli specialisti, ma ignorati dai compra-venditori. Tuttavia, le memorie NAND rappresentano una componente essenziale ed influiscono notevolmente sulla qualità e sulla velocità. Quando si è passati da memorie di tipo SLC (Single Level Cell) ad MLC (Multi Level Cell) si sono ridotti i costi di produzione, dal momento che queste ultime permettono di scrivere 2 bit per cella (ovvero 4 combinazioni). Di contro queste hanno degli aspetti negativi: velocità inferiore, aumento dei cicli di lettura/scrittura che diminuisce la vita del supporto, maggiore parcellizzazione dei dati con la conseguenza di rendere più necessarie tecnologie come Garbage Collector e TRIM. Pazienza, le MLC ormai hanno invaso il mercato e ne sono dotati tutti i prodotti mainstream, lasciando alle più costose e professionali SLC il ruolo di soddisfare le esigenze degli specialisti. Ma giusto quando ci stavamo abituando ormai ai limiti delle MLC e iniziavamo a constatare che, tutto sommato, offrono comunque ottime velocità ed un MTBF (tempo medio tra i guasti) più che accettabile, OCZ dichiara pubblicamente di essere intenzionata a puntare sulle TLC (Three Level Cell). Già Intel e Micron realizzavano nel 2010 le TLC a 25 nm destinate a finire nelle pen-drive e nelle schede di memoria grazie alla loro compattezza. Rispetto alla MLC si ottiene una riduzione di circa il 20% dello spazio potendo così produrre accessori sempre più piccoli o aumentare il numero di NAND (ossia più capienza di storage). Il problema è che una memoria MLC è mediamente garantita per circa 10 000 cicli di lettura/scrittura, mentre con le TLC si scende a meno di 5 000. Fino ad ora nessuno aveva pensato alla possibilità di utilizzarle negli SSD proprio per queste caratteristiche, ma la scelta di OCZ potrebbe non essere insensata se solo riuscissero ad ottenere drastici tagli di prezzo sul prodotto finito. Se si arrivasse ad un SSD da 1TB a 200€/300€, si raggiungerebbe una grande svolta, anche se fosse composto da TLC. Con l’HyperX, si è contatato che 100 00 cicli di scrittura possono portare ad MTBF di 1.000.000 di ore (114 anni), per cui anche una riduzione del 50% potrebbe essere sopportabile per il mercato entry-level. Tuttavia, se per ridurre i costi riduciamo anche la qualità, non abbiamo ottenuto il progresso che avremmo voluto, ma al contrario, la tecnologia originaria SLC potrebbe addirittura aumentare di prezzo, essendo destinata ad un mercato di nicchia. Per il momento siamo arrivati ad un traguardo interessante con questa mossa di OCZ: raggiungere il costo di 1$/GB, anche se per raggiungerlo si è dovuti salire fino al tera. C’è ancora tanta strada da fare, ma se i produttori e i consumatori capissero i vantaggi della distribuzione immediata, questo mercato crescerebbe di colpo permettendo di raggiungere una riduzione dei costi più velocemente. Se iniziassero a metterli ovunque, in piccolo taglio, come dischi di avvio (anche nei computer PC/Windows), non solo farebbero un grosso favore a tutti gli utenti che avrebbero macchine migliori, ma darebbero un impulso consistente alla commercializzazione di NAND ed i costi di produzione scenderebbero.

Fonti d’ispirazione: Saggiamente, Wikipedia

Valuta questo articolo

Post suggeriti
Contattaci

Inviaci un'email e ti risponderemo al più presto.

Illeggibile? Cambia il testo. captcha txt

Inizia a digitare e premi Enter per effettuare una ricerca

Questo sito web utilizza i cookie per fornire all'utente una migliore esperienza di navigazione. L'installazione degli stessi avviene in conformità a quanto previsto dal provvedimento n. 229 dell'8 maggio 2014 del Garante per la protezionedei dati personali. Informativa sulla Privacy e sui Cookie. Se acconsenti alla loro installazione, clicca su "Accetto cookie".