15
MONDO DIGITALE •n.3 - settembre 2005 1. LA CRESCITA DELLE INFORMAZIONI S econdo uno studio della School of Infor- mation Management and Systems della University of California di Berkeley [1], dal 1999 al 2002 la produzione mondiale di infor- mazioni è cresciuta del 30%. Le nuove informazioni prodotte nel corso del solo anno 2002 sono equivalenti a mezzo mi- lione di nuove biblioteche, ognuna conte- nente una versione digitalizzata dell'intera Library of Congress degli USA. Stampa, pellicola, carta, supporti magnetici e ottici contengono oggi circa 5 Ebyte, ossia cin- que miliardi di miliardi di byte, di nuova infor- mazione, di cui il 92% immagazzinato su sup- porto magnetico, il 7% su pellicola, lo 0.002% su supporto ottico e, infine, lo 0.015% su sup- porto cartaceo. Analizzando con attenzione i dati della ricerca si può individuare la reale natura di una simile esplosione di informazioni. Mentre i flussi e gli aggregati tradizionali di dati crescono a tassi contenuti quella che letteralmente esplode è la nuova informazione memorizzata sui supporti informatici. In sostanza è il setto- re dell’informatica il principale attore di que- sta crescita di nuova informazione dal mo- mento che la televisione e la radio crescono ormai in modo asintotico, i giornali a loro vol- ta aumentano solo grazie al contributo dei paesi emergenti e, infine, la carta cresce solo per la produzione di documenti d'ufficio. La ricerca indica anche un decremento signifi- cativo, a partire dal 1999, nell’uso della pelli- cola in ambito fotografico a fronte di un rapido sviluppo sul mercato delle fotocamere digitali. Lo stesso fenomeno sta avvenendo nel cine- ma, sempre più incline a sfruttare la tecnolo- gia digitale, anche per i minori costi di realiz- zazione dei film. L’unico segmento che per ora sembra rima- nere fedele alla pellicola tradizionale è quello medico, in cui lo sviluppo di radiografie regi- stra una crescita del 16%. La crescita di nuove informazioni immagaz- zinate su supporto magnetico, a partire dal 1999, è stata pari all’80%. Grazie ai costi de- crescenti e alla crescente varietà di stan- dard e di dimensioni, i dispositivi di memo- L’avvento delle LAN ha favorito lo sviluppo di tecnologie come NAS e SAN con le quali, attraverso diversi strati hardware e software, possono essere interconnessi più dispositivi per formare un unico complesso di memoria. Si ottengono così sistemi altamente affidabili, con elevate prestazioni, facil- mente gestibili e a costi ragionevoli. Per la tecnologia di registrazione ma- gnetica continua il processo di miniaturizzazione, mentre, in prospettiva, si profilano nuove tecnologie, come le memorie olografiche. Ernesto Hofmann L’EVOLUZIONE DELLE MEMORIE PERIFERICHE 17 3.1

L’EVOLUZIONE DELLE MEMORIE PERIFERICHEarchivio-mondodigitale.aicanet.net/Rivista/05_numero_quattro/... · L’EVOLUZIONE DELLE MEMORIE PERIFERICHE 17 3.1. 0 ... DAL COMPUTER ALLE

  • Upload
    votram

  • View
    214

  • Download
    0

Embed Size (px)

Citation preview

Page 1: L’EVOLUZIONE DELLE MEMORIE PERIFERICHEarchivio-mondodigitale.aicanet.net/Rivista/05_numero_quattro/... · L’EVOLUZIONE DELLE MEMORIE PERIFERICHE 17 3.1. 0 ... DAL COMPUTER ALLE

M O N D O D I G I T A L E • n . 3 - s e t t e m b r e 2 0 0 5

1. LA CRESCITADELLE INFORMAZIONI

S econdo uno studio della School of Infor-mation Management and Systems della

University of California di Berkeley [1], dal1999 al 2002 la produzione mondiale di infor-mazioni è cresciuta del 30%.Le nuove informazioni prodotte nel corso delsolo anno 2002 sono equivalenti a mezzo mi-lione di nuove biblioteche, ognuna conte-nente una versione digitalizzata dell'interaLibrary of Congress degli USA.Stampa, pellicola, carta, supporti magnetici eottici contengono oggi circa 5 Ebyte, ossia cin-que miliardi di miliardi di byte, di nuova infor-mazione, di cui il 92% immagazzinato su sup-porto magnetico, il 7% su pellicola, lo 0.002%su supporto ottico e, infine, lo 0.015% su sup-porto cartaceo.Analizzando con attenzione i dati della ricercasi può individuare la reale natura di una simileesplosione di informazioni. Mentre i flussi egli aggregati tradizionali di dati crescono atassi contenuti quella che letteralmenteesplode è la nuova informazione memorizzata

sui supporti informatici. In sostanza è il setto-re dell’informatica il principale attore di que-sta crescita di nuova informazione dal mo-mento che la televisione e la radio cresconoormai in modo asintotico, i giornali a loro vol-ta aumentano solo grazie al contributo deipaesi emergenti e, infine, la carta cresce soloper la produzione di documenti d'ufficio.La ricerca indica anche un decremento signifi-cativo, a partire dal 1999, nell’uso della pelli-cola in ambito fotografico a fronte di un rapidosviluppo sul mercato delle fotocamere digitali.Lo stesso fenomeno sta avvenendo nel cine-ma, sempre più incline a sfruttare la tecnolo-gia digitale, anche per i minori costi di realiz-zazione dei film.L’unico segmento che per ora sembra rima-nere fedele alla pellicola tradizionale è quellomedico, in cui lo sviluppo di radiografie regi-stra una crescita del 16%.La crescita di nuove informazioni immagaz-zinate su supporto magnetico, a partire dal1999, è stata pari all’80%. Grazie ai costi de-crescenti e alla crescente varietà di stan-dard e di dimensioni, i dispositivi di memo-

L’avvento delle LAN ha favorito lo sviluppo di tecnologie come NAS e SAN

con le quali, attraverso diversi strati hardware e software, possono essere

interconnessi più dispositivi per formare un unico complesso di memoria.

Si ottengono così sistemi altamente affidabili, con elevate prestazioni, facil-

mente gestibili e a costi ragionevoli. Per la tecnologia di registrazione ma-

gnetica continua il processo di miniaturizzazione, mentre, in prospettiva, si

profilano nuove tecnologie, come le memorie olografiche.

Ernesto Hofmann

L’EVOLUZIONEDELLE MEMORIEPERIFERICHE

17

3.1

Page 2: L’EVOLUZIONE DELLE MEMORIE PERIFERICHEarchivio-mondodigitale.aicanet.net/Rivista/05_numero_quattro/... · L’EVOLUZIONE DELLE MEMORIE PERIFERICHE 17 3.1. 0 ... DAL COMPUTER ALLE

0

ria ad accesso diretto, ossia i dischi magne-tici, sono diventati il segmento a più rapidacrescita.I dispositivi ottici rappresentano il supportopiù utilizzato per la distribuzione di software,dati, film e musica, come anche di altri tipi diinformazioni digitali.Il declino nella produzione e vendita dei CDtradizionali è stato controbilanciato dalla cre-scente diffusione dei CD riscrivibili e soprat-tutto dei DVD, che hanno conquistato quotedi mercato ad un ritmo ancor più veloce delletecnologie precedenti.Tuttavia, c’è un nuovo fenomeno che daràprobabilmente un ulteriore impulso alla con-tinua crescita dell’informazione digitale.Infatti, in un futuro abbastanza prossimo,qualunque entità avrà valore sarà intercon-nessa con qualche altra entità in un’infrastrut-tura che ormai sempre più spesso viene deno-minata l’“Internet delle cose”.Una prima evidenza di questa straordinariatrasformazione si avrà in tempi abbastanzabrevi nell’ambito dell’industria della distribu-zione.I cosiddetti RFID tag (identificatori a radiofre-quenza) possono, in modo analogo ai codicia barre, essere apposti o inseriti in oggettiper essere successivamente letti o aggiornatida un sistema informativo, senza interventodiretto di una persona, per mezzo di un’an-tenna opportunamente posizionata.Per identificare univocamente i prodotti lun-go la catena di distribuzione occorre peraltroun’infrastruttura standardizzata. Ciò vienereso possibile dall’adozione dell’ElectronicProduct Code (EPC), che è in sostanza un’e-voluzione dell’Universal Product Code utiliz-zato nel codice a barre.L’EPC è un codice costituito da un’etichettavirtuale che identifica il costruttore, la classedi prodotto e il numero di serie. In funzionedel tipo di tag l’EPC può riconoscere fino a268 milioni di costruttori diversi, ciascunocon 16 milioni di prodotti. Ogni prodotto, asua volta, può contenere fino a 68 miliardi diunità. Siamo quindi nell’ordine di migliaia dimiliardi di unità di prodotto identificabili nel-l’ambito dell’infrastruttura EPC.Se si moltiplicano tali numeri per le quantitàdei singoli prodotti, diventa intuibile quantogrande possa diventare l’ulteriore informa-

zione digitale generata da un’infrastrutturaRFID operativa su larga scala.

2. DAL COMPUTERALLE UNITÀ PERIFERICHE

La storia dei supporti per la memorizzazionedei dati informatici ha avuto inizio con la na-scita stessa del computer, sia all’interno delcomputer (memoria centrale) sia all’esterno,per mezzo di opportuni dispositivi elettro-meccanici collegati col computer. Il primosupporto di memoria esterna è stato la carta.I programmi e i dati erano registrati sotto for-ma di aree intatte (zero) o perforate (uno) suopportune schede di cartoncino, divise in ot-tanta colonne, del formato di un dollaro. Magià intorno al 1950 è avvenuta una primagrande rivoluzione con l’introduzione dei na-stri magnetici, già utilizzati per le applicazio-ni audio. Uno dei maggiori vincoli strutturalidei nastri era la lettura sequenziale che im-poneva di scorrere meccanicamente il nastrostesso per raggiungere l’informazione desi-derata, con evidente degrado delle presta-zioni nell’accesso alle informazioni. Tuttora inastri magnetici rappresentano comunqueun’importante tecnologia per l’archiviazionedelle informazioni, soprattutto nelle medie egrandi imprese. Il vero “breakthrough” tec-nologico nella memorizzazione delle infor-mazioni digitali su supporto esterno al com-puter è stato però la creazione nel 1955 delcosiddetto Hard Disk Drive, ovvero HDD,spesso anche denominato DASD (Direct Ac-cess Storage Device). I progettisti avevanocompreso, infatti, che fosse possibile realiz-zare una testina di lettura elettromagnetica,sospesa sopra un piatto di alluminio rotantead alta velocità, in grado di leggere le infor-mazioni che scorrevano rapidamente sotto latestina stessa. Il punto chiave della scopertaera che la testina non doveva essere a con-tatto con il piatto, che poteva ruotare ad altavelocità e consentire quindi di raggiungerel’informazione desiderata “quasi direttamen-te”, a differenza dei nastri [2]. Il primo HDDprodotto è stato il 305 RAMAC (Random Ac-cess Method of Accounting and Control) del-l’IBM, annunciato il 13 settembre del 1956.Tale dispositivo poteva memorizzare 5 milio-ni di caratteri (circa cinque megabyte, ma un

M O N D O D I G I T A L E • n . 3 - s e t t e m b r e 2 0 0 5

1

0

0

1

18

Page 3: L’EVOLUZIONE DELLE MEMORIE PERIFERICHEarchivio-mondodigitale.aicanet.net/Rivista/05_numero_quattro/... · L’EVOLUZIONE DELLE MEMORIE PERIFERICHE 17 3.1. 0 ... DAL COMPUTER ALLE

“carattere” era costituito allora da sette bit)su 50 grandi dischi, ciascuno di 24 pollici (cir-ca 60 cm) di diametro. La densità di registra-zione era di circa 2000 bit/pollice2 (ossia 310bit/cm2). I dispositivi a dischi attuali hannodensità dell’ordine di miliardi di bit per centi-metro quadrato. La velocità di trasferimentodei dati era comunque già molto elevata:8.800 byte/s.Negli anni successivi la tecnologia è progres-sivamente migliorata, sia nella densità di regi-strazione, sia nella capacità di memorizzazio-ne complessiva, sia infine nei tempi di acces-so alle singole unità di registrazione (i cosid-detti record). Nel 1962 ancora l’IBM annuncia-va il modello 1301 Advanced Disk File. L’aspet-to tecnico più significativo di questo nuovo di-spositivo era la possibilità di inserire un vero eproprio “cuscinetto di aria” tra testina di lettu-ra e piatto rotante tale che la distanza tra i duesi poteva ridurre da 800 a 250 µin (micropolli-ci), ossia da circa due centesimi di millimetroa circa sei millesimi di millimetro.Nel 1973, infine, l’IBM annunciava il Disk Dri-ve modello 3340, che è oggi considerato ilprogenitore dei moderni dischi. Questo di-spositivo era costituito da due dischi separa-ti, uno permanente e uno rimovibile, ciascu-no con una capacità di memorizzazione di 30Mbyte. Per questo motivo fu colloquialmentedenominato 30-30; e poiché anche un mo-dello del famoso fucile Winchester era deno-minato 30-30, il disco venne da allora chia-mato anch’esso Winchester. Utilizzando evo-lute tecniche di isolamento dalle impuritàdell’aria esterna e nuove tecniche micromec-caniche fu possibile ridurre “l’altezza di volo”delle testine a soli 12 µin (micropollici), ossiaa circa tre decimillesimi di millimetro.

3. LE MEMORIE DI MASSAE IL RUOLO DEGLI HDD

L’insieme dei dispositivi esterni di memoria,genericamente denominato memorie di mas-sa, si compone approssimativamente di tregrandi famiglie di dispositivi.❙ Nastri magnetici: sono soprattutto utilizzatinei centri medio-grandi di elaborazione percreare periodicamente copie (backup) delcontenuto degli HDD, in modo da poter recu-perare i dati in caso di malfunzionamenti di

varia natura. Le operazioni di backup sonoperò abbastanza lente (anche alcune ore) evengono in generale effettuate di notte.I nastri magnetici sui quali vengono trascrittele informazioni hanno una vita media di 10 -30 anni (mentre i microfilm si suppone chepossano durare anche fino a 300 anni). Inrealtà per i nastri, come per altri supporti dimemorizzazione dei dati, si è constato che idispositivi di lettura/scrittura si sono evolutimolto prima che i nastri stessi si deteriorasse-ro. Anche nell’elettronica per uso domesticosi assiste alla continua scomparsa di supporticome dischi 78 giri, 33 giri, nastri VHS, DAT, ealtri ancora, a fronte di nuove tecnologie.❙ Dischi ottici: sono dischi su cui la memoriz-zazione dei dati avviene “bruciando” con unlaser una sezione di superficie, che da lucidadiventa opaca. In generale i dati scritti su diun disco ottico non possono più essere can-cellati. Esistono tuttavia dei dischi particolari(CD-DVD riscrivibili) che consentono la can-cellazione e la riscrittura per un numero co-munque limitato di volte (ad ogni cancella-zione la superficie tende a deteriorarsi sem-pre di più finché non diventa inutilizzabile). IDVD (Digital Versatile Disk) sono apparente-mente molto simili ai CD, ma possono conte-nere fino a 25 volte la capacità di un normaleCD e vengono usati soprattutto per memoriz-zare i film in formato digitale. I dischi otticicome CD, DVD, DVD/R, DVD/RW, hanno fino-ra utilizzato per leggere (e scrivere) una tec-nologia laser con una frequenza nello spettrodel rosso. Tuttavia sono già pronti nuovi di-schi ottici denominati Blu-ray proprio perchéutilizzano il laser nella frequenza blu-violet-to. I nuovi dispositivi di lettura potranno an-che leggere dischi CD e DVD tradizionali. Ilbeneficio di utlizzare una lunghezza d’ondadi 405 nm invece di 650 nm consente di scri-vere un maggior numero di informazioni perunità di superficie. Nella tabella 1 vengono ri-portati i parametri più significativi delle tretecnologie CD, DVD e Blu-ray.Poiché il disco viene letto da un laser, non c’ècontatto fisico tra supporto e lettore, e dunquela frequenza e la quantità delle riproduzioninon incide sulla qualità del contenuto. Unavolta registrati su DVD, i dati non potranno piùessere cancellati accidentalmente né subiran-no alterazioni dannose. La vita media dei CD e

M O N D O D I G I T A L E • n . 3 - s e t t e m b r e 2 0 0 5

1

19

0

0

0

1

Page 4: L’EVOLUZIONE DELLE MEMORIE PERIFERICHEarchivio-mondodigitale.aicanet.net/Rivista/05_numero_quattro/... · L’EVOLUZIONE DELLE MEMORIE PERIFERICHE 17 3.1. 0 ... DAL COMPUTER ALLE

0

DVD di tipo R (sola lettura) si colloca tra 25 e250 anni, con un valore medio di circa 100 an-ni. I DVD-RW hanno invece una vita più breve,dell’ordine di 25-100 anni con un valore mediodi 50. Sono in atto continue ricerche per mi-gliorare la resistenza dei materiali, per evitarel’ossidazione delle parti di superficie danneg-giata da agenti come urti, sostanze chimiche eanche sbalzi termici. È stato osservato chemantenere CD e DVD costantemente al di sot-to di 30° e al disotto dell’ 80% di umidità puòraddoppiarne la vita media. I costruttori di di-spositivi di lettura/scrittura sono peraltro at-tenti anche ad un altro parametro molto im-portante che riguarda il “drive”, ossia il sup-porto rotante che sostiene il CD-DVD e che,proprio per avere organi meccanici in movi-mento, ha una vita media più breve. Un tipicovalore che viene dichiarato per l’unità “drive” èun MTBF di 100.000 h di power on. Si vedràmeglio più avanti come debba intendersi il pa-rametro MTBF (Mean Time Between Failures)che da solo può indurre in errori di valutazio-ne. Essendo un anno costituito di poco menodi 8.800 h si potrebbe immaginare un utilizzocontinuo di oltre dieci anni. In realtà è più reali-stico pensare ad un utilizzo a pieno tempo diun anno, che è in genere proprio la garanziache viene fornita. I dispositivi di memoria otti-ca sono di particolare interesse. Se, infatti, siignora la possibilità del disco ottico di essererimosso dal suo supporto, il disco ottico sem-brerebbe in ogni aspetto inferiore al disco ma-gnetico. Ma se si considerano applicazioni cherichiedono la distribuzione di programmi o da-ti si comprende allora come questa tecnologiapossa diventare attraente. Essa quindi mantie-ne una notevole quota di mercato per la distri-buzione di audio preregistrati e soprattuttoper la distribuzione di film. La memorizzazioneottica resta tuttavia più costosa della memo-rizzazione su dischi magnetici in caso di grandivolumi e le sue prestazioni (unite al costo uni-tario) per l’accesso al singolo elemento di

informazioni (record) non la mettono in gradodi competere con le memorie magnetiche.❙ Dischi magnetici: sono dischi sui quali lamemorizzazione dei dati avviene magnetiz-zando la superficie, tramite un’apposita te-stina di lettura/scrittura. Sullo stesso disco idati possono essere scritti, cancellati e ri-scritti per un numero indefinito di volte senzalogorarne la superficie di registrazione.Le memorie di tipo HDD (Hard Disk Drive) so-no di gran lunga i dispositivi più importantinell’attuale gerarchia di memoria della mo-derna informatica, come viene messo in evi-denza dalla crescente quantità di investimen-ti in questa tecnologia da parte di imprese diogni dimensione. Le caratteristiche più im-portanti degli HDD sono il costo per Mbyte, lavelocità di trasferimento e il tempo di acces-so alla singola informazione (al record).Poiché il costo di questo tipo di memoria ètuttora decisamente inferiore a quello dellememorie statiche (RAM) su microchip, gliutenti sono disposti ad accettarne anche gliaspetti meno attraenti, come un tempo diaccesso meno veloce rispetto alle memoriestatiche centrali, un più elevato consumo dicorrente elettrica, il rumore di fondo tipicodelle unità meccaniche (dischi che ruota-no), e infine l’intrinseca minore affidabilitàdei componenti elettromeccanici rispetto aquelli puramente elettronici, come appuntoi chip di memoria. D’altro canto gli HDD so-no una tecnologia “non volatile”, ossia nonrichiedono corrente elettrica per mantenerenel tempo l’informazione registrata, e ciòcostituisce un elemento di particolare im-portanza nell’economia della conservazio-ne dei dati di un’impresa.

4. LA STRUTTURA DEGLI HDD

L’HDD è costituito da una serie di “piatti”, di-sposti l’uno sopra l’altro e fissati allo stessoperno centrale che li fa ruotare ad altissima

M O N D O D I G I T A L E • n . 3 - s e t t e m b r e 2 0 0 5

1

0

0

1

20

Tecnologia CD DVD Blu-ray

Laser 780 nm 650 nm 405 nm

Numero di facce utili 1 1/2 1/2

Capacità massima 750 Mbyte 9.4 o 17 Gbyte da 25 a 120 GbyteTABELLA 1

Page 5: L’EVOLUZIONE DELLE MEMORIE PERIFERICHEarchivio-mondodigitale.aicanet.net/Rivista/05_numero_quattro/... · L’EVOLUZIONE DELLE MEMORIE PERIFERICHE 17 3.1. 0 ... DAL COMPUTER ALLE

velocità (fino a 10.000 giri il minuto e oltre). Isingoli bit (0 e 1) che compongono l’informa-zione digitale vengono memorizzati nellospeciale materiale magnetico (sotto formadelle due direzioni del campo magnetico) dicui è costituita la superficie del piatto.Le operazioni di lettura e di scrittura sono ese-guite da una testina elettromagnetica che èsospesa sulla superficie magnetica del piattoin rotazione (generalmente realizzato in allu-minio), senza mai toccarla così da non rovina-re lo strato magnetico di registrazione. Cia-scun piatto dispone di una testina per faccia.Le testine sono tutte fissate sul medesimosupporto, e si muovono quindi tutte insieme.L’involucro di un disco è realizzato in dueparti che sono, rispettivamente, il basamen-to che ospita l’elettronica e tutte le parti mec-caniche, e il coperchio che concorre alla dis-sipazione del calore.Attraverso una speciale valvola dotata di op-portuni filtri, l’aria all’interno dell’unità vienemantenuta priva di polvere e la valvola stes-sa fa sì che la pressione interna sia in equili-brio con quella esterna.L’organizzazione logica delle due superfici diregistrazione di ciascun piatto consiste in unastruttura costituita da cerchi concentrici(“tracce”) che hanno origine nel perno centra-le del piatto e settori derivati dall’intersezionedelle tracce con i raggi del piatto stesso.La densità areale indica la quantità di bit chepossono essere memorizzati su di una speci-fica unità di area e viene espressa di solitocome bit per pollice quadrato (BPSI: Bits PerSquare Inch).Essendo una misura bidimensionale, la den-sità areale è il prodotto di due unità di misuraunidimensionali che sono:❙ la densità delle tracce, che è una misura diquanto siano disposte densamente le tracceconcentriche attraverso i raggi dei piatti, os-sia quante tracce possono essere disposteconcentricamente lungo un pollice di raggio.Tuttavia non potranno essere utilizzate trac-ce troppo vicine al perno centrale di rotazio-ne, così come non potranno essere usatetracce troppo vicine alla circonferenza delpiatto. Se, per esempio, il raggio del disco èdi 1,87 pollici se ne potranno ragionevolmen-te utilizzare 1,2 pollici. Quindi, se lo spazioutile del disco è costituito di 22.000 tracce si

può concludere che ci saranno circa 18.333tracce per pollice (22.000 : 1,2).❙ la densità lineare di registrazione, che è unamisura di quanto densamente siano registrati ibit lungo una traccia. Se lungo un pollice ditraccia è possibile registrare 300.000 bit allorala densità BPI sarà appunto 300.000. Poiché letracce sono disposte concentricamente, essesono di lunghezza diversa e quindi non ognitraccia verrà scritta con la stessa densità. I co-struttori indicano di solito quale sia la massi-ma densità possibile di registrazione.Moltiplicando quindi i due fattori (densità del-le tracce e densità di registrazione per traccia)si ottiene la densità areale. Nell’esempio con-siderato, con i valori di 18.333 tracce per polli-ce e 300.000 BPI, si ottiene una densità area-le di 5.500.000.000 bit per pollice quadrato,ossia 5.5 Gbits/in2. I dischi più recenti hannovalori superiori di circa un ordine di grandez-za, mentre i primi HDD dei Personal Computeravevano densità areali molto basse, dell’ordi-ne di 0.004 Gbits/in2 (Figura 1).Sui dischi non è possibile accedere ad unasingola informazione, occorre leggere o scri-vere un intero settore. Per esempio, per mo-dificare un singolo byte, è necessario leggereil settore che lo contiene, modificare il byte in

M O N D O D I G I T A L E • n . 3 - s e t t e m b r e 2 0 0 5

1

21

0

0

0

1

FIGURA 1Aumento della densita' di registrazione degli HDD negli ultimi 20 anni

10000

1000

100

10

1

0.1

0.01

0.0011980 1990 2000 2010

Dens

ità a

real

e (G

bit/i

n2 )

Page 6: L’EVOLUZIONE DELLE MEMORIE PERIFERICHEarchivio-mondodigitale.aicanet.net/Rivista/05_numero_quattro/... · L’EVOLUZIONE DELLE MEMORIE PERIFERICHE 17 3.1. 0 ... DAL COMPUTER ALLE

0

memoria e riscrivere il settore. I tempi di ac-cesso all'informazione sono tipicamente del-l'ordine di alcuni millisecondi. L’accesso aidischi è in parte “diretto” (posizionamentodella testina sulla traccia), in parte “sequen-ziale” (lettura/scrittura del settore).Due parametri caratteristici dell’HDD sono,rispettivamente, il tempo di posizionamento(seek time) e il tempo di latenza (latency). Ilprimo è il tempo necessario perché la testinaraggiunga la traccia su cui si trova l'informa-zione da leggere/scrivere, ed è proporziona-le sia al numero di tracce attraversate sia allavelocità (meccanica) di spostamento. Il se-condo è invece il tempo impiegato perché,nella rotazione del disco, il settore cercatogiunga in corrispondenza della testina di let-tura ed è inversamente proporzionale alla ve-locità di rotazione del disco.Il cosiddetto “tempo di accesso” è la sommadel tempo di posizionamento e della latenza.

5. L’EVOLUZIONE DEGLI HDD

Se il numero di transistor disponibili perunità di area raddoppia, secondo la legge diMoore, circa ogni due anni, il numero di bitmemorizzati per unità di area HDD raddoppiacirca ogni anno.La densità di registrazione dei bit degli HDD è

così migliorata, in pochi decenni, di ben setteordini di grandezza e ciò ha consentito di ri-durre fortemente anche lo spazio complessi-vo occupato dagli HDD.Ai dispositivi HDD sono stati poi aggiunti neltempo, ulteriori strati sia di hardware che disoftware.I primi HDD erano direttamente controllatidal computer cui erano connessi; ma già apartire dal 1965 apparvero nuovi dispositivi,denominati unità di controllo, che si interpo-nevano tra il computer e gli HDD e offrivanofunzionalità più evolute.Il vantaggio principale di tali unità era costitui-to dal fatto che i comandi di lettura/scritturaprovenienti dal computer venivano gestiti dal-le unità di controllo così che gli HDD fossero ingrado di operare in modo asincrono rispettoalle attività dell’unità centrale. Quest’ultimapoteva perciò eseguire altre istruzioni (di altriprogrammi), dando luogo al meccanismo dellamultiprogrammazione che, a sua volta, avreb-be richiesto più raffinati sistemi operativi.Nel corso del tempo cresceva l’enfasi sulladisponibilità dei dati e le unità di controllocominciavano anche a supportare percorsimultipli per lo scambio di comandi, interru-zioni e dati con l’unità centrale.Poco alla volta, l’insieme degli HDD di un com-puter è diventato un’unica entità logico-fisica,ossia un vero e proprio sottosistema di me-moria organizzato non solo per memorizzare idati ma anche per garantirne l’affidabilità, os-sia la continua disponibilità e la gestibilità.Il costo unitario degli HDD è diminuito dal1980 di cinque ordini di grandezza, mentre ilcosto dell’intero sottosistema di memoriadurante lo stesso periodo è diminuito di 2,5ordini di grandezza.La più rapida caduta del costo degli HDD in-dica che il prezzo dei soli HDD è diventato neltempo una frazione progressivamente menoimportante nell’intero costo del sottosiste-ma di memoria.La riduzione di costo dei sottosistemi di me-moria digitale ha fatto sì che dal 1996 la me-morizzazione digitale sia diventata meno co-stosa della memorizzazione su carta, e dal1998 anche più economica della tecnologiautilizzata in radiologia per memorizzare sufilm immagini mediche (Figura 2).Dal 1990 la tecnologia di memoria ha supera-

M O N D O D I G I T A L E • n . 3 - s e t t e m b r e 2 0 0 5

1

0

0

1

22

FIGURA 2La diminuzione del costo degli HDD ha reso questa tecnologia più economicadella registrazione su carta e su film

Intervallocarta-film

1000

100

10

1

0.1

0.01

0.001

0.0001

Cost

o (M

byte

/$)

1980 1985 1990 1995 2000 2005 2010

DRAM

FLASHMICRODRIVE2.5’ HDD3.5’ HDD

Page 7: L’EVOLUZIONE DELLE MEMORIE PERIFERICHEarchivio-mondodigitale.aicanet.net/Rivista/05_numero_quattro/... · L’EVOLUZIONE DELLE MEMORIE PERIFERICHE 17 3.1. 0 ... DAL COMPUTER ALLE

to in termini di costo/prestazioni sia le tecno-logie di processore sia quelle di comunica-zione (Figura 3). La disponibilità di simili tec-nologie di memorizzazione ha quindi forte-mente influenzato le architetture informativeche vediamo oggi.Si è così assistito al diffondersi di molteplicicopie degli stessi dati, per esempio con me-morie di transito, ossia cache di vario livello,così come al diffondersi di sistemi di memo-rizzazione vicini all’utente per evitare i ritardidi rete.A partire dal 1990 la disponibilità di HDD diminori dimensioni (5,25 pollici e quindi 3,5pollici) ha favorito una nuova filosofia orga-nizzativa nei sottosistemi di memoria: utiliz-zare molteplici “piccoli” HDD invece di un mi-nor numero di HDD più massicci.La tecnologia RAID (Redundant Array of Inde-pendent Disks), che è alla base di tale evolu-zione, permette di effettuare in parallelo diver-se operazioni verso molteplici dispositivi HDD,consentendo di ottenere più elevati livelli di af-fidabilità e di prestazioni rispetto a quelle of-ferte da una singola unità HDD più grande.Detto in termini molto semplificati, si può im-maginare come gruppi di informazioni possa-no essere distribuiti in parallelo su veri e pro-pri grappoli di piccoli HDD. L’indisponibilità diuno di questi può essere superata attraversotecniche di ridondanza che consentono di ri-costruire abbastanza facilmente la parte diinformazione danneggiata. La tecnologiaRAID è stata inizialmente utilizzata in sistemidi minor costo, ma in seguito ha cominciatoad essere utilizzata anche su sistemi di grandidimensioni, proprio per le intrinseche funzionidi ridondanza (non c’era un “single point offailure”) e di possibilità di duplicazione deidati (copie di backup), funzionalità che con-sentivano di aumentare notevolmente la di-sponibilità complessiva delle informazioni.Il valore per l’utente del sottosistema di me-moria si è così progressivamente evoluto ver-so funzionalità più avanzate e verso l’integra-zione di tali funzionalità nel sistema stesso.Attualmente, il costo della gestione del sot-tosistema di memoria è la parte maggiore delcosto complessivo del sistema stesso. Ciò si-gnifica che il valore reale per l’utente del sot-tosistema di memoria risiede nella capacitàdi quest’ultimo di estendere le sue funziona-

lità oltre a quanto possa fornire il solo dispo-sitivo HDD, e specificamente nella capacitàdi ridurre i costi di gestione e di fornire unapiù elevata disponibilità dei dati (per esem-pio con copie di backup e servizi di replica).

6. LA DISPONIBILITÀ DEI DATI(DATA AVAILABILITY)

Il “disaster recovery”, ossia il ripristino delleinformazioni digitali a fronte di malfunziona-menti di varia natura, è diventato un requisitofondamentale per tutti i sistemi informatici eha fortemente influenzato l’architettura deisottosistemi di memoria. Negli attuali hard di-sk l’interfaccia testina di lettura-pista da legge-re è il punto nel quale più spesso si presentanomalfunzionamenti dovuti ad eventi come in-stabilità termo-meccaniche, urti, danneggia-menti del drive ecc. ed il parametro più comu-nemente utilizzato per indicare la disponibilitàdel drive tra due malfunzionamenti è il MTBF(Mean Time Between Failures). Intorno al 1990il MTBF degli HDD era di circa 200.000 h, ma aseguito dei continui miglioramenti tecnologiciil valore attuale è pari a circa 1.200.000 h. Tut-tavia, il MTBF, considerato a sè, si presta afraintendimenti, infatti, per essere interpretatocorrettamente il MTBF deve essere utilizzato

M O N D O D I G I T A L E • n . 3 - s e t t e m b r e 2 0 0 5

1

23

0

0

0

1

10000

1000

100

10

11985 1990 1995 2000 2005 2010 2015

Indi

ce

Processori

Memoria

Comunicazioni

0.3

MIP

S

1200

bit/s

10 Mbyt

e

FIGURA 3Miglioramento del rapporto prezzo-prestazioni delle tecnologie dimicroprocessore, registrazione e comunicazione

Page 8: L’EVOLUZIONE DELLE MEMORIE PERIFERICHEarchivio-mondodigitale.aicanet.net/Rivista/05_numero_quattro/... · L’EVOLUZIONE DELLE MEMORIE PERIFERICHE 17 3.1. 0 ... DAL COMPUTER ALLE

0

insieme ad un altro parametro, la cosiddetta“useful service life”, ossia la vita media utile,che è il tempo tipico superato il quale possonopresentarsi guasti dovuti al consumo dei com-ponenti elettro-meccanici. I costruttori di HDDdichiarano attualmente una vita media utile dicirca cinque anni. Il MTBF si appplica solo agrandi quantità di dispositivi, mentre non dicenulla riguardo alla singola unità. Se per esem-pio, il MTBF di uno specifico modello di HDD èpari a 500.000 h e la vita media utile è di cin-que anni (un anno è equivalente a 8.760 h),purché ogni cinque anni quell’unità venga so-stituita essa potrà essere utilizzata per 57 an-ni, in media, prima che presenti un guasto(500.000 : 8.760 = 57).Per proteggere i dati sono quindi necessarieulteriori possibilità, che possono essere co-stituite da soluzioni ad hoc che consentanodi creare manualmente occasionali copie disalvataggio su nastro, ma anche da vere eproprie tecnologie hw/sw che creino auto-maticamente le copie di salvataggio dei dati.Possono essere eseguite ciclicamente copie“virtuali” dei dati che verrano poi effettiva-mente trascritte su supporti fisici se reputatonecessario, inoltre può anche essere utilizza-ta una tecnica di copiatura continua (mirro-ring), con la quale vengono costantementemantenute due copie degli stessi dati, unaprimaria (locale) e una secondaria (in un al-tro sito). Quest’ultima metodologia è in ge-nerale sincrona, ossia la copia del sistemasecondario deve essere scritta prima che l’o-perazione sul sistema locale venga conside-rata conclusa. Benchè le operazioni sincronesiano desiderabili dal punto di vista dell’affi-dabilità dei dati, esse hanno tuttavia validitàpratica solo nell’ambito di opportune distan-ze (dell’ordine del centinaio di km) tra il cen-tro primario e quello secondario.La metodologia di backup più comune è sta-ta per molto tempo quella di effettuare unacopia su nastro, o nel caso di personal com-puter su CD, dei dati ritenuti importanti.Tuttavia, quando le memorie periferiche (so-prattutto gli HDD) hanno iniziato ad essere in-terconnesse in sistemi di backup basati suLAN, questi ultimi hanno progressivamenterimpiazzato le metodologie manuali e semprepiù spesso hanno consentito di eseguire co-pie automatiche di backup da HDD ad HDD.

I sistemi di backup non sono, in generale, si-stemi semplici perché devono trattare moltitipi diversi di dati, a loro volta di differenteimportanza ed utilizzati da un’ampia varietàdi utenti. Spesso, poi, i livelli di sicurezza ne-cessari per tali dati possono essere al di làdelle intrinseche possibilità tecnologiche deidispositivi sui quali vengono memorizzati.Benchè il puro costo della memoria HDD stiadiminuendo, gli altri tipi di dispositivi di me-morizzazione, come nastri e dischi ottici, ri-mangono importanti e occorre quindi un si-stema che possa intelligentemente gestire ivari livelli tecnologici di memoria.

7. DALLE LAN ALLE SAN

L’emergere delle tecnologie LAN (Local AreaNetwork), a basso costo, ha determinato latendenza più significativa dei sottosistemi dimemoria a partire dal 1988. In molti uffici i PCsono stati interconnessi in rete ed è emerso ilmodello client-server.Tuttavia, mentre molte applicazioni sono mi-grate dai centri di elaborazione ai PC, i datihanno spesso mantenuto rilevanza azienda-le, piuttosto che individuale, e hanno quindiavuto bisogno di essere protetti e condivisitra gli utenti.Il PC era notoriamente inaffidabile e non gesti-to come i grandi computer, quindi, per ottene-re la condivisione dei dati tra utenti diversi oc-correva la disponibilità di sistemi di memoriz-zazione locale (per esempio in un ufficio) con-divisibili, a loro volta, da molteplici PC. Questisistemi di memorizzazione erano più impor-tanti (mission critical) dei singoli PC client, edera naturale quindi che diventassero i primicandidati per tecnologie come file-serving,RAID, e sistemi di backup basati su LAN.Il software utilizzato per l’interconnessione(networking) dei PC era spesso il NovellNetWare, così come altri software di PC ven-dor. Allo stesso tempo si affermava anche loUNIX, sia nelle cosiddette workstation, cheerano sostanzialmente dei PC molto più po-tenti, sia nei serventi.L’ampia disponibilità di protocolli di condivi-sione dei dati come l’NFS (Network File Sy-stem) dava un ulteriore impulso all’utilizzo disimili serventi.Il passo successivo è stato l’avvento dei siste-

M O N D O D I G I T A L E • n . 3 - s e t t e m b r e 2 0 0 5

1

0

0

1

24

Page 9: L’EVOLUZIONE DELLE MEMORIE PERIFERICHEarchivio-mondodigitale.aicanet.net/Rivista/05_numero_quattro/... · L’EVOLUZIONE DELLE MEMORIE PERIFERICHE 17 3.1. 0 ... DAL COMPUTER ALLE

mi NAS (Network-Attached Storage) che offri-vano le capacità di Network File System inun’unica macchina, la quale poteva gestirevari protocolli software come il CIFS (CommonInternet File System), l’HTTP (HyperText Tran-sfer Protocol), e l’FTP (File Transfer Protocol).I sistemi NAS erano semplici da installareperché venivano già forniti con funzioni diutilità e funzioni di gestione.Allo stesso tempo, i responsabili dei sistemiinformativi cercavano di “riconquistare ilcontrollo” del patrimonio informatico distri-buito tra i vari uffici e dipartimenti. Le fun-zioni di gestione dei dati venivano perciòprogressivamente rimosse dai sistemi cliente venivano create funzionalità globali di ge-stione per “mapping, sharing, and free-spa-ce management” di tutti i dispositivi di me-moria connessi.Il centro elaborazione dati ha così progressi-vamente riacquisito grande importanza e si ècompreso che sarebbe stato molto utile se imolteplici serventi che ne facevano parteavessero potuto accedere ad un sottosiste-ma di memoria complessivo, e non ciascunoa gruppi separati di dispositivi periferici dimemoria.Sono quindi nate le SAN (Storage Area

Network) che, potendo essere progettate esviluppate indipendentemente dai serventi,permettevano la condivisione (pooling) dellerisorse di memoria (configurate staticamen-te) e offrivano una maggiore efficienza e mi-nori rischi per gli utenti. Gli investimenti nelleSAN non dipendevano da un particolare ser-vente o da una particolare scelta di software. La tecnologia SAN ha introdotto nuove possi-bilità nella semplificazione delle connessioni,nella capacità di crescita (scalability), nei costie nella tecniche di gestione delle memorie dimassa. A sua volta, la fibra ottica è diventatala tecnologia predominante di interconnessio-ne. Ragionando in termini essenzialmente in-tuitivi, si possono distinguere le NAS dalleSAN tenendo presente che le prime lavorano,quasi tradizionalmente, con file e protocolli diaccesso ai file (CIFS, HTTP, FTP), mentre le se-conde utilizzano propri blocchi di dati chepossono essere memorizzati, ove necessario,nella gerarchia dei dispositivi di cui la SAN ècostituita (Figura 4 e Figura 5).La progressiva diffusione delle LAN Ethernete del TCP/IP ha anche influenzato l’evoluzio-ne delle SAN. Infatti, l’unificazione delnetworking con il TCP/IP e con Ethernet haconsentito una migliore standardizzazione

M O N D O D I G I T A L E • n . 3 - s e t t e m b r e 2 0 0 5

1

25

0

0

0

1

HDD

Applicazione Applicazione Applicazione

DBMS File system

DBMS File system

DBMS File system

Driver dispositivo Driver dispositivo Driver dispositivo

Storage controller Storage controller Storage controller

RAID controller RAID controller RAID controller

Connessione diretta Storage area network (SAN)

LAN

Serventi

Sottosistemadi memoria

FIGURA 4Trasmissione deidati tra computere HDD nel modelload accesso direttoe in quello SAN

Page 10: L’EVOLUZIONE DELLE MEMORIE PERIFERICHEarchivio-mondodigitale.aicanet.net/Rivista/05_numero_quattro/... · L’EVOLUZIONE DELLE MEMORIE PERIFERICHE 17 3.1. 0 ... DAL COMPUTER ALLE

0

dei sottosistemi di memoria, un crescente rit-mo di innovazione e più bassi costi sia nel-l’hardware sia nel software sia, infine, nelsupporto ai dispositivi di memoria.È stato così possibile ridurre i costi di gestio-ne, poiché gli operatori devono conoscere unsolo tipo di rete. Inoltre, nell’ambito dei com-puter più piccoli, lo standard ISCSI (InternetSmall Computer System Interface) è stato in-trodotto per consentire al protocollo SCSI diessere trasportato attraverso la rete TCP/IP.L’architettura delle SAN, che prevede unasostanziale condivisione di dati e spazi di-sponibili tra computer diversi, è in un certosenso antitetica all’originale progetto deicomputer della terza e della quarta genera-zione sui quali si sono evoluti i maggiori si-stemi operativi e i relativi sottosistemi di ge-stione dei dati.L’obiettivo di progetto di tali computer preve-deva che questi fossero i soli ad accedere aidati memorizzati sui dispositivi periferici enon erano stati progettati per condivideredati o spazio su disco con altri computer.Le SAN hanno aggirato il problema togliendoai computer il controllo esclusivo delle me-morie di massa accessibili creando un’infra-

struttura hardware-software globale in gra-do di gestire il “mapping”, lo “sharing” e lagestione dello spazio libero di memoria sututti i dispositivi contemporaneamente con-nessi ai diversi computer del centro di elabo-razione dati.Oltre alla semplificazione nella configurazio-ne e nella gestione dello spazio libero, nuovepossibilità sono via via venute ad aggiunger-si, come la condivisione dei dati, il cosiddetto“non disruptive change” e l’automazione dimolte funzioni di gestione.Poiché la gestione dei cosiddetti metadati èsotto il controllo di un “metadata server”nuove capacità vengono rese possibili e vie-ne introdotto un più ampio spettro di serviziche semplifica la gestione e migliora la di-sponibilità dei dati. Per esempio politiche as-sociate a specifici gruppi di dati determinanocome questi ultimi debbano essere gestiti intermini di prestazioni, disponibilità, sicurez-za e costi [3, 4].C’è inoltre l’esigenza di estendere geografi-camente l’utilizzo dell’architettura SAN. Solu-zioni SAN per mezzo della fibra ottica posso-no ora estendersi per oltre 100 km per crearedelle SAN “metropolitane” utilizzando tecno-

M O N D O D I G I T A L E • n . 3 - s e t t e m b r e 2 0 0 5

1

0

0

1

26

Network-attached storage (NAS)

Applicazione Applicazione Applicazione Applicazione

DBMSFile system

Driver dispositivo

Network filesystem client

Network filesystem client

Network filesystem client

Network filesystem client

Network filesystem client

Network filesystem client

Driver dispositivo Driver dispositivo Driver dispositivo

Driver dispositivo Driver dispositivo Driver dispositivo

Storage controller Storage controller Storage controller Storage controller

RAID controller RAID controller RAID controller RAID controller

LAN

SAN

LAN

Serventi

ServentiNFS

Sottosistemadi memoria

HDD

Configurazione mista NAS-SAN

FIGURA 5Trasmissione deidati tra computer

e HDD nel modelloNAS e in quellomisto SAN-NAS

Page 11: L’EVOLUZIONE DELLE MEMORIE PERIFERICHEarchivio-mondodigitale.aicanet.net/Rivista/05_numero_quattro/... · L’EVOLUZIONE DELLE MEMORIE PERIFERICHE 17 3.1. 0 ... DAL COMPUTER ALLE

logie trasmissive come la DWDM (Dense Wa-velength Division Multiplexing); ma è possi-bile anche un’estensione geografica più am-pia che, per mezzo del protocollo IP e la fibraottica, utilizzi la tecnologia WAN per creareuna vera e propria “global storage network”,come mostrato in maniera molto schematicanella figura 6.Con la crescita delle SAN e la sempre più am-pia diffusione del protocollo IP, i sistemi dimemoria basati su reti IP, quali LAN, MAN eWAN, si sono ormai affermati come l'avan-guardia dello sviluppo tecnico.

8. UNA ROADMAPTECNOLOGICA

Per i prossimi anni non è previsto alcun rallen-tamento nella velocità di evoluzione della tec-nologia. I problemi attuali sembrano però dinatura più complessa rispetto a quelli di qual-che anno fa. Essi riguardano la termodinamicadell’energia memorizzata nei bit magnetici, ledifficoltà connesse con la distanza testina-piatto, che ormai sono dell’ordine di grandez-za di un diametro atomico, e l’intrinseca velo-cità di commutazione dei materiali magnetici.L’ulteriore miniaturizzazione delle aree di re-gistrazione, ossia il cosiddetto basic scaling,è più o meno simile allo scaling di qualunquesoluzione tridimensionale del campo magne-tico (Figura 7). Se le proprietà magnetiche deimateriali restano costanti, la configurazionedel campo e le grandezze correlate restanoinvariate, anche se tutte le dimensioni vengo-no ridotte di un fattore s, fintanto che anchela corrente venga ridotta di un fattore s.Pertanto se si vuole incrementare la densitàlineare (ossia i bit per traccia) di un fattore 2,e quindi la densità areale di un fattore 4, oc-corre fare lo scaling di tutte le dimensioniper due, lasciare intatta la velocità di rota-zione e raddoppiare la velocità di trasferi-mento dei dati. Se i materiali mantengono lestesse proprietà nelle nuove dimensioni tut-to funziona come prima.Tuttavia, ci sono motivi per i quali nel mondoreale questo semplice scaling non funziona.Il primo è che aumentare la velocità di tra-sferimento dei dati in proporzione alla den-sità lineare può essere al di là delle possibi-lità costruttive.

La seconda ragione è che la forte competizio-ne tra vari costruttori per creare HDD ad alteprestazioni ha costantemente prodotto unincremento di velocità nella rotazione dei di-schi (per ridurre la latenza) e ciò ha finito conl’aggravare il problema perché la lettura di unmaggior numero di dati a più alta velocità di-venta molto più complessa.C’è poi da considerare che un segnale indut-tivo di lettura (readback) diminuisce con loscaling e il disturbo elettronico cresce con iltraffico dei dati (bandwidth), tanto che il rap-

M O N D O D I G I T A L E • n . 3 - s e t t e m b r e 2 0 0 5

1

27

0

0

0

1SAN A SAN B

IP/WAN

FIGURA 6Il protocollo IP e la fibra ottica consentono alle SAN di infrangere la barrieradella distanza

FIGURA 7Le tre dimensioni in gioco nel processo di miniaturizzazione delle testine diregistrazione degli HDD

Page 12: L’EVOLUZIONE DELLE MEMORIE PERIFERICHEarchivio-mondodigitale.aicanet.net/Rivista/05_numero_quattro/... · L’EVOLUZIONE DELLE MEMORIE PERIFERICHE 17 3.1. 0 ... DAL COMPUTER ALLE

0

porto segnale/disturbo diminuisce rapida-mente con lo scaling se le testine induttivedevono essere utilizzate per leggere.Per questi motivi anche le testine di lettu-ra/scrittura si sono evolute. Le testine sonostate per molto tempo di tipo induttivo. Conuna simile tecnologia i domini magnetici inmovimento sul disco in rotazione induconoun campo elettrico nella testina che trasfor-ma le variazioni in sequenze di numeri binari. Ma ora sono utilizzate testine più innovativeche sfruttano il principio della magneto-resi-stività: alcuni materiali modificano la pro-pria resistenza elettrica in presenza di uncampo magnetico. In tal modo i domini ma-gnetici in movimento sul piatto alterano laresistenza elettrica alla corrente che scorreall’interno delle testine magneto-resistive ele corrispondenti variazioni sono trasforma-te in sequenze di 0 e 1. Le testine MR (in ge-nere distinte per lettura/scrittura, al contra-rio di quelle induttive) consentono di utiliz-zare domini più piccoli, permettendo così diaumentare il numero di tracce per pollice e ilnumero di bit per pollice.Per le testine magnetoresistive le leggi discaling sono più complesse rispetto a quelleinduttive, ma il compromesso (trade/off ) ècomunque a favore delle prime, anche se lacostruzione è limitata dalla fotolitografia edalle tolleranze meccaniche e quindi non sipossono ridurre tutte le dimensioni alla stes-sa velocità.Il processo di scaling continuerà per almenoun altro ordine di grandezza nella densitàareale e uno sforzo sostanziale sarà fatto perrealizzare testine più piccole, un medium piùsottile e lo spazio tra testina e disco più breve. Tuttavia, per mantenere il rapporto segna-le/disturbo in termini accettabili la sensibi-lità delle testine dovrà essere ulteriormenteaumentata sostituendo le testine MR con letestine GMR.L’effetto GMR (Giant MagnetoResistance),scoperto nel 1998, si basa sulle proprietàquantistiche dell’elettrone. Come noto, l’e-lettrone è caratterizzato da due valori dellospin, up e down. Si è scoperto che in un filmmetallico magnetizzato gli elettroni di condu-zione la cui direzione di spin è parallela all'o-rientazione magnetica possono muoversi li-beramente, mentre gli elettroni con spin op-

posto sono più facilmente soggetti a collisio-ni con gli atomi del reticolo cristallino. Il risul-tato netto, in questo caso, è un aumento del-la resistenza elettrica del materiale.L’impiego di testine a tecnologia GMR, oltre aconsentire un rapporto segnale-rumore mol-to più elevato, garantisce anche un’eccezio-nale linearità nella funzione di trasferimentoche mette in relazione il campo magneticopresente sulla superficie del disco con la va-riazione di resistività del sensore.Ma c’è un ulteriore effetto fisico, denominatoExtraordinary Magnetoresistence (EMR), os-sia Effetto Magnetoresistivo Straordinario,che potrebbe essere impiegato per realizzaredischi con capacità superiori di almeno 40volte rispetto a quelle ottenibili con la tecno-logia odierna.L’effetto magnetoresistivo straordinario con-siste in un significativo cambiamento dellaresistenza al flusso di corrente in particolarimateriali ibridi, non magnetici, quando sot-toposti a campi magnetici. Sebbene operinosecondo lo stesso principio, le testine GMRhanno lo svantaggio di essere sensibili al ru-more magnetico che ne determina una sogliateorica di registrazione di circa 100 Gbit perpollice quadrato. Le testine di tipo EMR nonsoffrono di questo problema in quanto, alcontrario delle GMR che necessitano al lorointerno di materiali intrinsecamente magne-tici (nickel, ferro, cobalto e rame), derivano leloro proprietà magnetoresistive dall’influen-zabilità delle nuvole elettroniche in particola-ri materiali ibridi semiconduttori.Ci sono oggi ragionevoli motivi per ritenereche lo scaling oltre 40 Gbit/in2 sarà ottenutoe che la prima deviazione dallo scaling saràdovuta al limite superparamagnetico [5].È possibile prevedere che il limite superpara-magnetico possa essere spinto sino a 100-200 Gbit/in2. Con l’attuale ritmo di evoluzioneciò potrebbe richiedere meno di cinque anni.

9. ULTERIORI PROSPETTIVE

Nell’odierna economia le imprese devonoaffrontare continui mutamenti nei loro pro-cessi. La crescente globalizzazione dei mer-cati modifica, infatti, i costi del lavoro, la ca-tena delle forniture e le attitudini dei clienti.Il vero patrimonio delle imprese è quindi di-

M O N D O D I G I T A L E • n . 3 - s e t t e m b r e 2 0 0 5

1

0

0

1

28

Page 13: L’EVOLUZIONE DELLE MEMORIE PERIFERICHEarchivio-mondodigitale.aicanet.net/Rivista/05_numero_quattro/... · L’EVOLUZIONE DELLE MEMORIE PERIFERICHE 17 3.1. 0 ... DAL COMPUTER ALLE

ventato, sempre più, l’insieme delle infor-mazioni riguardanti i processi aziendali, sia-no esse applicazioni software o database divaria natura.Il sottosistema di memoria è una parte delcomplessivo sistema informatico, ma svolgeormai un ruolo fondamentale affinchè un’or-ganizzazione possa rispondere rapidamente,flessibilmente e a costi molto più bassi allenuove sfide: la maggior parte delle impreseinvestirà progressivamente più nella tecnolo-gia “storage” che in quella “server”.Le memorie di massa, peraltro, non sono piùun semplice aggregato di dispositivi hardwa-re, ma sono diventate una complessiva entitàmultifunzionale nella quale molte importantifunzioni sono realizzate con la tecnologiasoftware.Dal punto di vista della pura tecnologiahardware, soprattutto per quanto riguarda idispositivi HDD, cominciano a comparire so-stanziali limitazioni fisiche che frenano la mi-niaturizzazione (scaling) della registrazionemagnetica. È probabile quindi che il ritmo diaumento della densità areale, e quindi la ri-duzione del costo per bit, possa cominciare arallentare nei prossimi dieci anni.Ciononostante non si vedono ancora tecno-logie che possano in breve tempo sostituirele attuali tecniche di registrazione magneti-ca, che continuano quindi ad occupare sta-bilmente una solida nicchia del mercato IT.Al momento si prevede che al massimo si po-trà ottenere una densificazione di due ordinidi grandezza (x 100) rispetto all’attuale tec-nologia di registrazione magnetica. Entrodieci anni, peraltro, ulteriori tecnologie po-tranno forse offrire una reale alternativa. Molto promettenti sembrano le cosiddettememorie olografiche. I recenti progressi in-dicano, infatti, la possibilità di costruire me-morie nelle quali un’intera pagina di infor-mazioni può essere simultaneamente me-morizzata attraverso meccanismi di interfe-renza ottica in materiali fotosensitivi, incro-ciando due raggi laser coerenti all’internodel materiale. In questo caso la grande ca-pacità di memorizzazione discende dal fattoche la memoria olografica è di tipo volume-trico e non di superficie [6]. La luce prove-niente da una fonte laser coerente viene di-visa in due fasci (beam), che sono rispetti-

vamente quello di segnale, che trasferisce idati, e quello di riferimento. Quando i duefasci di luce si intersecano sulla superficiedel supporto si crea un ologramma, ossiaun disegno formato da zone chiare e scureche possono quindi rappresentare i bit 0 e 1.L’ologramma è quindi costituito da una spe-cie di reticolo ottico che, enormemente in-grandito, potrebbe sembrare la superficie diuna scacchiera che può contenere ben piùdi 64 caselle. I dati sono quindi organizzatiin tali “scacchiere” di bit. L’ologramma vie-ne registrato, a seguito di una reazione chi-mica, in un supporto sensibile alla luce (co-me accade in una pellicola fotografica) nelpunto dove si intersecano i fasci di riferi-mento e di segnale. Modificando l’angolo ela lunghezza d’onda del fascio di riferimen-to, o la posizione del supporto, diventa pos-sibile registrare ologrammi differenti nellostesso volume. Se il materiale stesso vienecolpito da uno dei due fasci che in prece-denza aveva costruito l’ologramma si puòricostruire l’informazione originaria del se-condo fascio e quindi leggere le informazio-ni memorizzate.Alcuni costruttori come la InPhase Techno-logies e la Japan’s Optware hanno annun-ciato un dettagliato piano di evoluzione perla commercializzazione di questa tecnolo-gia. La Inphase Technologies ha recente-mente dichiarato che nel 2006 sarà dispo-nibile un disco da 300 Gbyte e nel 2009 da1.6 Tbyte, mentre la Optware, che ha deno-minato HVD (Holographic Versatile Disk) ilnuovo supporto, afferma che entro un annosaranno disponibili HVD da 100-200 Gbyteper arrivare in altri due o tre anni a 3.9 Tby-te. Supporti come gli HVD, poiché non sonoin rotazione, non devono leggere sequen-zialmente bit dopo bit e possono trasferirein parallelo fino a 10 kbyte, con un evidentegrande miglioramento nelle prestazioni didiverse applicazioni, quali soprattuttoquelle mediche, geospaziali, di business emultimediali.Ma c’è un’ulteriore possibilità, ossia quelladi utilizzare particolari polimeri per memo-rizzare in piccoli spazi enormi quantità didati. I polimeri sono materiali organici fles-sibili e robusti (come per esempio i giub-botti antiproiettile) costituiti da enormi ca-

M O N D O D I G I T A L E • n . 3 - s e t t e m b r e 2 0 0 5

1

29

0

0

0

1

Page 14: L’EVOLUZIONE DELLE MEMORIE PERIFERICHEarchivio-mondodigitale.aicanet.net/Rivista/05_numero_quattro/... · L’EVOLUZIONE DELLE MEMORIE PERIFERICHE 17 3.1. 0 ... DAL COMPUTER ALLE

0

tene di molecole identiche. Nel 1970 si èscoperto che tali materiali da isolanti pos-sono anche diventare conduttori e possonoquindi essere utilizzati per applicazionielettroniche. Negli ultimi anni sono stateesplorate diverse soluzioni tecnologichetra le quali la cosiddetta Thin Film Memorynella quale un substrato di un opportunomateriale (come il silicio) può essere rive-stito con uno strato estremamente sottile(thin film) di polimero. Il thin film è inseritotra due gruppi ortogonali di microfili (elet-trodi) che si incrociano in molteplici punti.Ogni punto di intersezione tra due microfilirappresenta una cella di memoria che con-tiene un bit. Differenti voltaggi applicati op-portunamente ai fili possono consentire discrivere o di leggere. Il meccanismo non èpoi tanto diverso da quello di una memoriaa transistor realizzata su silicio. Gli elettro-di vengono, per così dire, stampati diretta-mente sul film di polimero. Far crescere ledimensioni della memoria vuol quindi diresovrapporre un nuovo strato sul preceden-te, e così via.Ogni strato di polimero ha una sezione ver-ticale di meno di un decimillesimo di milli-metro ed è facile da depositare. Su di unascheda delle dimensioni di una carta di cre-dito diventa quindi possibile costruire unamemoria con la capacità di quasi mezzo mi-lione di CD o cinquantamila DVD. In questomomento il maggiore sforzo industriale èproprio nel cercare di mantenere le linee diproduzione di silicio, dal wafer al chip, percercare di adattarle a questo ulteriore pro-cesso costruttivo in modo da ridurre gli in-vestimenti necessari.Negli ultimi anni si è così riusciti a costruirememorie a polimeri di tipo ROM, e ora si stacercando di ampliare il processo di costru-zione alle memorie di tipo RAM.Un’ultima tecnologia molto complessa, che,di fatto, è una vera e propria nanotecnologia,la cosiddetta probe-based storage techno-logy, si avvale di tecniche basate sul micro-scopio a forza atomica (AFM) e sul microsco-pio ad effetto tunnel (STM) per raggiungeredensità di registrazione delle informazionidell’ordine di 1 Tbit, ossia mille miliardi di bit,per pollice quadrato [7]; ma sembra ancoraabbastanza lontana.

Si può infine osservare come Internet possadiventare esso stesso una gigantesca memo-ria utilizzabile da miliardi di utenti.L’università di Berkeley ha avviato nel 2002un progetto, OceanStore, per creare un si-stema in grado di memorizzare in manieraorganica le informazioni distribuite su Inter-net. Per mezzzo di OceanStore i dati dovreb-bero diventare accessibili a tutti, simulta-neamente, e in qualunque momento. Inoltrei dati non dovrebbero mai andare perduti odistrutti e al tempo stesso restare inaccessi-bili a chi non è autorizzato. Il sistema orga-nizza gli archivi e li fraziona in blocchi di da-ti che possono essere continuamente tra-sferiti e moltiplicati su altri nodi della rete.Un unico blocco può essere sufficiente perricostruire l’intero archivio.Di conseguenza se anche un nodo della retecessa di funzionare, lo specifico archivionon va perduto. OceanStore memorizzaquindi dati in maniera promiscua: ogni ser-ver può creare una replica locale di qualsivo-glia aggregato di dati e queste copie localiconsentono anche migliori prestazioni poi-ché riducono il traffico complessivo di retelocalizzandolo dove necessario. OceanStoreassegna a ciascun blocco un codice identifi-cativo univoco, denominato globally uniqueidentifier.Quando un utente necessita di un determi-nato archivio chiede al proprio nodo di ritro-vare l’insieme dei blocchi più vicini e di rico-struire l’archivio stesso. Quest’ultimo non èaccessibile quindi che agli utenti che pos-siedono le chiavi giuste. Unitamente ad op-portuni sistemi di crittografia questa tecni-ca dovrebbe garantire la sicurezza dei datimemorizzati su Internet.Alcuni componenti di OceanStore sono giàfunzionanti mentre l’intero prototipo è anco-ra in fase di sviluppo; ma quando e se doves-se completarsi realizzerebbe forse quantoBorges aveva detto già nel 1941 nel suo rac-conto “La biblioteca di Babele”:“ Quando si proclamò che la Biblioteca com-prendeva tutti i libri, la prima impressione fudi straordinaria felicità. Tutti gli uomini sisentirono padroni di un tesoro intatto e se-greto. Non v’era problema personale o mon-diale la cui eloquente soluzione non esistes-se: in un qualche esagono. L’universo era

M O N D O D I G I T A L E • n . 3 - s e t t e m b r e 2 0 0 5

1

0

0

1

30

Page 15: L’EVOLUZIONE DELLE MEMORIE PERIFERICHEarchivio-mondodigitale.aicanet.net/Rivista/05_numero_quattro/... · L’EVOLUZIONE DELLE MEMORIE PERIFERICHE 17 3.1. 0 ... DAL COMPUTER ALLE

giustificato, l’universo attingeva bruscamen-te le dimensioni illimitate delle speranza”.

Bibliografia

[1] Lyman Peter, Varian Hal R.: How Much Informa-tion 2003? http://www.sims.berkeley.edu/re-search/projects/how-much-info-2003/

[2] A Brief History of the Hard Disk Drive.http://www.storagereview.com/guide2000/ref/hdd/hist.html

[3] Chirillo John, Blaul Scott, Chirillo John, BlaulScott: Storage Security: Protecting, SANs, NASand DAS Wiley. 1 edition, December 20, 2002.

[4] Schulz Greg: Resilient Storage Network: Desi-gning Flexible Scalable Data Infrastructures. Di-gital Press, April 7, 2004.

[5] Tarnopolsky Giora J.: Areal density growth.www.thic.org/pdf/Mar03/tarnotek.gtarnopol-sky.030304.pdf

[6] Ashley J., Bernal M.-P., Burr G. W., CoufalH.,Guenther H.: Holographic data storage.http://www.research.ibm.com/journal/rd/443/ashley.html

[7] Eleftheriou E., et al: A Nanotechnology-basedApproach to Data Storage. Proc. 29-th VLDBConf., Berlin, Germany, Sep. 2003.http://www.zurich.ibm.com/pdf/sys/stora-ge/ELE_VLDB2003.pdf

M O N D O D I G I T A L E • n . 3 - s e t t e m b r e 2 0 0 5

1

31

0

0

0

1

ERNESTO HOFMANN laureato in fisica presso l’Università di Roma, ha lavorato oltre 35 anni per la IBM in Italia, inFrancia e negli USA, nei maggiori laboratori di sviluppo dei grandi computer. È autore di molteplici pubblica-zioni sia di carattere tecnico sia divulgative, nonchè di svariati articoli e interviste. È attualmente docente di“Economia e gestione delle imprese internazionali” presso l’Università Cattolica del Sacro Cuore di [email protected]