Upload
others
View
2
Download
0
Embed Size (px)
Citation preview
Cloud dell'area PadovanaStatus update
Massimo SgaravattoINFN PadovaOn behalf of the “Cloud dell'area Padovana” team
CdS, 19 Maggio 2014 Massimo Sgaravatto 2/45
LOGOCloud dell'area Padovana
● Progetto “Cloud dell'area Padovana” presentato al CdS del 30 Ottobre 2013
● Obiettivi● Uso piu` efficiente delle risorse
● Implementazione di una facility di calcolo usabile in modo “elastico” (le risorse vengono chieste quando servono, rilasciate quando non servono piu`)
● Gestione sistemistica piu` efficiente● Evitare la proliferazione di cluster dei diversi
gruppi/esperimenti
CdS, 19 Maggio 2014 Massimo Sgaravatto 3/45
LOGOCloud dell'area Padovana (cont.ed)
● Implementazione di una Cloud tra la Sezione di Padova e i Laboratori Nazionali di Legnaro
● Per sfruttare le infrastrutture, il manpower, le competenze in entrambi i siti● C'e` gia` l'ottima esperienza del Tier-2 in tal senso
● Integrata in una Cloud INFN Nazionale● Sinergie con altri progetti Cloud (v. Progetto
Cloud dell'Universita` di Padova)
CdS, 19 Maggio 2014 Massimo Sgaravatto 4/45
LOGOScelte implementative
● Uso di OpenStack come middleware Cloud● Fondato da NASA e Rackspace nel 2010● Open Source● Collaborazione di sviluppatori e utenti di dimensioni mondiali● Forte supporto da parte dell'industria● Adozione massiccia anche nel nostro ambiente
● CERN, varie sezioni INFN (a parte Torino)
● Architettura per la Cloud padovana● Unica installazione OpenStack● Risorse distribuite nei 2 siti● “Servizi” a Padova, “Compute node” (dove vengono create le macchine
virtuali) sia a Padova che a Legnaro● Situazione simmetrica wrt il Tier-2, dove i servizi sono a LNL e i Worker Node sono
distribuiti nei 2 siti
CdS, 19 Maggio 2014 Massimo Sgaravatto 5/45
LOGOCome funziona ?
● L'utente chiede la creazione di una macchina virtuale (VM)● Specificando l'immagine da usare (SL6.5, Ubuntu, etc.) e il
“flavor” (quanti cores ? quanta RAM ? quanto disco ?)● La macchina virtuale viene istanziata su un compute node
● Lo schedulatore dell'infrastruttura Openstack sceglie qual e' il compute node piu' adatto
● Quando l'utente ha terminato di usare la VM, la cancella, e le relative risorse vengono rilasciate
● Uso “elastico” delle risorse e in modalita` self-provisioning (l'utente si “arrangia” a istanziarsi la VM)
CdS, 19 Maggio 2014 Massimo Sgaravatto 6/45
LOGOStorage
● Ogni macchina virtuale (VM) ha un suo storage “ephemeral”, che viene distrutto quando la VM viene cancellata
● A una VM e` possibile “collegare” anche dello storage persistente (servizio Cinder di Openstack)● Permette di creare dischi virtuali che possono essere “attaccati” alle VM● Questi volumi Cinder sopravvivono (con tutto il loro contenuto) alla cancellazione
delle VM● OpenStack prevede anche un servizio di Object Storage chiamato Swift
● Non e` un file system (quindi non e` possibile l'accesso Posix ai file)● E` invece un sistema di archiviazione di oggetti (file) a cui si puo` accedere con
interfaccia RESTful su protocollo http(s), per leggere o scrivere oggetti● Non abbiamo previsto di installarlo, almeno al momento
● Nulla vieta di accedere a storage che sta “fuori” dalla Cloud● Es. si monta un file system via NFS/Lustre/Glusterfs..., si accede a storage esterno
via protocollo xroot, etc.
CdS, 19 Maggio 2014 Massimo Sgaravatto 7/45
LOGOHardware
● Per l'implementazione di questa Cloud sono stati fatti i seguenti acquisti:
● Padova (10 Keuro da CCR, resto [~ 60 Keuro] dalla Sezione)● 1 Blade enclosure DELL M1000e● 4 lame DELL M620 ciascuna con 1 processore E52609, 32 GB RAM● 5 lame DELL M620 ciascuna con 2 processori E5 2670v2, 80 GB RAM● 2 switch DELL Force 10 MXL● 1 server iSCSI DELL MD3620i, con 23 dischi SAS da 900 GB
● Legnaro (10 Keuro da CCR, resto [~ 17 Keuro] dal Laboratorio)● 4 Fujitsu Primergy RX300S7 (2 processori XEON E5 2650v2, 96 GB RAM) ● Server storage DELL PowerVault MD3600f (FC) con 12 dischi da 4 TB● Ottica 10 Gbps per update link con Padova
CdS, 19 Maggio 2014 Massimo Sgaravatto 8/45
LOGOHardware (funzioni)
● 4 lame di Padova con processore E52609 usate per i servizi Openstack, in modalita` High Availability (HA)
● 5 lame di Padova rimanenti e i nodi di Legnaro usati come “compute node” (dove vengono istanziate le VM)
● Storage usato per● Le immagini (servizio Glance di Openstack)● Lo storage “ephemeral” delle VM● Lo storage persistente (servizio Cinder)● Altro storage Posix (via GlusterFS)
● Storage non pre-allocato tutto: vedremo in base alle necessita` dove serve● Oltre a queste vengono usate altre risorse
● Per servizi per l’installazione e configurazione delle macchine (Foreman, Puppet), servizi di monitoring, database in HA, testing, attivita` di R&D, etc.
● Stiamo usando al momento vecchio hardware
CdS, 19 Maggio 2014 Massimo Sgaravatto 9/45
LOGOLayout
Padova LNL
10 Gb/s
10 Gb/s1 Gb/s
4 x 10 Gb/s
10 Gb/s10 Gb/s
10 Gbps(dal 20/3/2014)Qui non passa
Il traffico del Tier2
10 Gb/s
Switchblade
Compute nodes
StorageiSCSI Servizi Openstack
Compute nodes
StorageFibreChannel
CdS, 19 Maggio 2014 Massimo Sgaravatto 10/45
LOGOCloud di PreProduzione
● Implementata una cloud di preproduzione che sostanzialmente siamo pronti a fare usare a “pilot user” che vogliono provare a usare la Cloud
● Serve anche a noi per validare l'infrastruttura ● https://cloudpp-areapd.pd.infn.it:8443/dashboard● Usa la versione Havana di OpenStack● Risorse limitate
● 1 controller node a Padova, 3 compute node (2 a Padova e 1 a Legnaro)
● 112 cores, 282 GB RAM disponibili per le Virtual Machine degli utenti● Non tutti i servizi previsti per la fase di piena produzione
disponibili, ma usabile
CdS, 19 Maggio 2014 Massimo Sgaravatto 11/45
LOGOCloud di PreProduzione (accesso alla Dashboard)
CdS, 19 Maggio 2014 Massimo Sgaravatto 12/45
LOGOCloud di PreProduzione(overview dalla dashboard)
CdS, 19 Maggio 2014 Massimo Sgaravatto 13/45
LOGOCloud di PreProduzione(Creazione di una VM via dashboard)
CdS, 19 Maggio 2014 Massimo Sgaravatto 14/45
LOGOAccesso via command line
● Le funzionalita` della Cloud accessibili anche via command line, oltre che attraverso la Dashboard web (Horizon)
● Command line tool Openstack● nova boot --image SL6_5 --flavor m1.small –key-name
mykey myhost● Interfaccia EC2 (standard “de facto” per
accedere a risorse di calcolo di una Cloud)● euca-run-instances -t m1.small -k mykey
ami-00000294
CdS, 19 Maggio 2014 Massimo Sgaravatto 15/45
LOGONetworking
● Le VMs create nella Cloud sono su rete privata● Sono raggiungibili dalle macchine della LAN sia
di Padova che di Legnaro, indipendentemente dal compute node dove queste VM vengono istanziate
● Non e` invece possibile il contrario● Se necessario e` possibile assegnare IP pubblici a
Virtual Machine (floating IP)● Es. se deve essere runnato un web server accessibile
anche dall'esterno
CdS, 19 Maggio 2014 Massimo Sgaravatto 16/45
LOGOCloud di Produzione
● Evoluzione della cloud di preproduzione in una cloud di produzione, includendo progressivamente nuovi servizi e funzionalita`
● Servizi aggiuntivi● Integrazione con INFN-AAI e funzionalita` per la gestione degli utenti e dei
progetti● Nella cloud di preproduzione si usa la soluzione di Openstack: utenti e progetti
gestiti dall'amministratore ● Storage persistente (Cinder)
– Nella cloud di preproduzione oltre allo storage “ephemeral” (che viene distrutto quando la VM viene cancellata) e` comunque possibile accedere a storage esterno alla Cloud
● High Availability (HA)● Qualche servizio in HA gia` disponibile nella Cloud di preproduzione
● Scheduling efficiente wrt quello “standard” di Openstack
CdS, 19 Maggio 2014 Massimo Sgaravatto 17/45
LOGOPolitica per l'uso della Cloud padovana
● Accesso alla Cloud consentito a tutti gli utenti INFN di Padova e Legnaro● Accesso anche ad altri utenti INFN, con un numero limitato di risorse disponibili● Tutti gli utenti devono accettare le Acceptable Usage Policy (AUP) del servizio
(http://wiki.infn.it/progetti/cloud-areapd/documents/acceptable_use_policy )● Openstack organizza gli utenti in Progetti
● Un progetto rappresenta un gruppo/esperimento● Ad ogni progetto e` associata una quota sull'uso delle risorse● Un utente puo` appartenere anche a piu` progetti
● Possibilita` di provare la cloud (considerando un numero limitato di risorse) riservata a tutti gli utenti registrati● Progetto “Guests” con un numero limitato di risorse
● Progetti per singoli esperimenti/gruppi che hanno messo risorse dedicate nella Cloud
CdS, 19 Maggio 2014 Massimo Sgaravatto 18/45
LOGOIntegrazione con AAI (autenticazione)
● Nel portale di Openstack sono stati integrati i protocolli di autenticazione:
● SAML2 (Shibboleth)● OpenID 2.0
● Possibilita` di autenticarsi alla Cloud usando INFN-AAI
● Lo stesso sistema che si usa es. per autenticarsi al portale delle missioni
● Possibilita` anche di autenticare tutti gli utenti riconosciuti dalla federazione IDEM
● Possibilita` di autenticarsi con username e password
● Stiamo valutando la possibilita`di uso di social account (google, yahoo, ecc.)
CdS, 19 Maggio 2014 Massimo Sgaravatto 19/45
LOGOIntegrazione con AAI (registrazione)
● Per ogni utente e' richiesta una registrazione
● Nella registrazione puo' richiedere la creazione di un nuovo progetto o l'inserimento in uno o piu' progetti esistenti
● Un progetto rappresenta un gruppo/esperimento
● Ad ogni progetto e` assegnata una quota di risorse
CdS, 19 Maggio 2014 Massimo Sgaravatto 20/45
LOGOIntegrazione con AAI (autorizzazione)
● Ogni utente autenticato deve essere autorizzato ad accedere al servizio
● Oltre all'autorizzazione da parte dell'amministratore della Cloud, un utente che richiede l'ingresso ad un progetto deve essere approvato dall'amministratore di quel progetto
● Modificato il portale in modo da gestire un flusso di approvazione della richiesta di registrazione
● Notifiche per ogni azione intrapresa nel flusso di approvazione delle registrazioni
CdS, 19 Maggio 2014 Massimo Sgaravatto 21/45
LOGOCinder
● Possibilita` di creare volumi di storage persistente e di attaccarli a VMs
● Posso staccarlo da una VM e attaccarlo a un'altra VM
● Non posso attaccarlo a piu` VM contemporaneamente
● Come fosse una penna USB che possiamo di volta in volta montare su PC diversi
CdS, 19 Maggio 2014 Massimo Sgaravatto 22/45
LOGOHigh Availability (HA)
● Obiettivo: garantire l'operativita` della Cloud anche in presenza di failure di singoli componenti
● Gia` implementato nella cloud di pre-produzione● Cluster Mysql HA usando Percona XtraDB Multi Master formato da 3 host● Cluster HAProxy/Keepalived formato da 3 host per i servizi che
richiedono load balancing ● Da implementare
● Configurazione dei servizi Openstack in HA● L'uso dell'high availability per i servizi Openstack e` una cosa
“trasparente” per l'utente● L'utente non sa e non gli interessa come e dove sono replicati i vari servizi● Singolo end-point (https://cloud-areapd.pd.infn.it:8443/dashboard) per
accedere alla Cloud
CdS, 19 Maggio 2014 Massimo Sgaravatto 23/45
LOGOScheduling in Openstack
● Nel paradigma Cloud si assume che ci siano risorse di calcolo infinite● In Openstack se non ci sono risorse disponibili, semplicemente
c'e` un errore, e la richiesta dell'utente viene persa● Altro problema riguarda l'utilizzo delle risorse da parte
di piu` gruppi● Il modello Openstack prevede semplicemente un
partizionamento delle risorse tra piu` progetti● Se un gruppo/esperimento sta sottoutilizzando le sue risorse,
e un altro gruppo invece ha esaurito la sua quota, l'unica soluzione e` una modifica delle quote da parte dell'amministratore
CdS, 19 Maggio 2014 Massimo Sgaravatto 24/45
LOGOScheduling in Openstack (cont.ed)
● Per ovviare a questi problemi, e` stato sviluppato un prototipo di scheduler avanzato per Openstack● Le richieste degli utenti vengono memorizzate in una coda
persistente● Se una richiesta non puo` essere soddisfatta, verra` servita`
quando si liberano risorse ● Le richieste vengono soddisfatte in modo da garantire un
fair-share sull'utilizzo delle risorse– Richieste servite secondo un ordine che dipende dalla priorita` definita dal
resource provider, e dall'utilizzo passato
● Validazione di questo prototipo in corso● Valutazione sulle modalita` di integrazione di questo scheduler
nella distribuzione ufficiale di Openstack
CdS, 19 Maggio 2014 Massimo Sgaravatto 25/45
LOGOIntegrazione Grid - CLOUD
● A Padova e` stato implementato un componente Grid chiamato CREAM Computing Element● Interfaccia Grid a risorse computazionali di un sito, gestite da un batch
system● Usato in molti siti Grid di produzione nelle infrastrutture WLCG eEGI
● In revisione l'architettura CREAM per implementare l'integrazione tra Grid e Cloud● CREAM responsabile di creare e distruggere VM sull'infrastruttura Cloud,
dove poi verrebbero eseguiti i job degli utenti● Il batch system non sarebbe piu` necessario (fair share e “queuing”
implementati dallo scheduler efficiente appena discusso)● Cambiamento trasparente per le applicazioni che usano la Grid (le
interfacce non verrebbero cambiate)● Esperimento Virgo ha mostrato interesse per un'architettura di questo tipo
CdS, 19 Maggio 2014 Massimo Sgaravatto 26/45
LOGOUse cases per la Cloud Padovana
● Iniziato a discutere con alcuni potenziali clienti della Cloud Padovana
● Alcuni tra gli esperimenti/applicazioni che ci aspettiamo proveranno a usare la Cloud:● Virtual Analysis Facility (VAF) di ALICE● Altre farm di analisi● Tomografia Muonica
CdS, 19 Maggio 2014 Massimo Sgaravatto 27/45
LOGOVirtual Analysis Facility
● Attivita` gia` iniziata, fatta nel contesto di un progetto PRIN● Obiettivo: creazione di un cluster dinamico di analisi interattiva. ● No risorse preassegnate e statiche ma allocazione e rilascio dinamico
(sotto forma di macchine virtuali create e distrutte) sulla base del carico di lavoro e le esigenze del singolo utente.
● Struttura della VAF: un head node + numero scalabile di worker● Allocati nella cloud usando l'interfaccia EC2
● Strumenti● uCernVM: immagine molto “light” (SL6 compatible)● CERNVM-FS: file system http based● CernVM online: semplice interfaccia grafica per la creazione e configurazione della
VAF● HTCondor: Resource Management System● PROOF: framework basato su ROOT e dedicato all’ analisi parallela e interattiva
● Use case di ALICE (Padova e` coinvolta nelle analisi di heavy flavour): ricostruzione del mesone charmato D0 a basso momento trasverso in collisioni pp @ 7 TeV, PbPb @ 2.76 TeV, pPb @ 5.02 TeV
CdS, 19 Maggio 2014 Massimo Sgaravatto 28/45
LOGOVAF in azione (es. dalla VAF di Torino)
Accesso alla VAF, starting del cluster, richiesta e starting dei worker PROOF (richiesti 24 workers)
Avvio di PROOF e start dell’analisi
CdS, 19 Maggio 2014 Massimo Sgaravatto 29/45
LOGOFarm di analisi
● Attualmente il gruppo CMS usa un cluster di 13 host per l'analisi interattiva● Accesso interattivo da parte degli utenti● File system lustre per /home e dati● Accesso “diretto” allo storage del Tier-2● Software di esperimento disponibile via CVMFS
● Obiettivo: provare a utilizzare la Cloud per queste attivita` di analisi
● Interesse anche da altri esperimenti (LHCB, Belle-II) ● Da discutere i dettagli
CdS, 19 Maggio 2014 Massimo Sgaravatto 30/45
LOGOTomografia muonica
Use case presentatoci da S. Vanini e A. Rigoni
Server storage da loro acquistato sta per essere integrato nella Cloud
CdS, 19 Maggio 2014 Massimo Sgaravatto 31/45
LOGOWorking Group Cloud CCR
● Sinergia con il working group Cloud della Commissione Calcolo e Reti dell'INFN
● Partecipazione Padovana in diverse attivita`, anche per obiettivi a medio/lungo termine● Servizi Cloud distribuiti● QUACK (Queues in Openstack)
– Lo scheduler per Openstack efficiente prima discusso ne e` un elemento
CdS, 19 Maggio 2014 Massimo Sgaravatto 32/45
LOGOCloud INFN
● Obiettivo ultimo e` quello di dare ad ogni progetto scientifico la possibilita` di accedere a risorse cloud
● Va definito come deve essere fatta questa infrastruttura (es. una sola cloud con risorse distribuite ? N cloud in qualche modo interconnesse ? ...)
● Va implementata questa infrastruttura
PADOVA
BARI
LNGS
KeystoneSwift
● Sperimentazione in atto di una infrastruttura Cloud distribuita
● Servizi di autenticazione (Keystone) e di object storage (swift) distribuiti in modalita` High Availability tra 3 siti (Padova, LNGS, Bari)
● Risorse Cloud che usano questi servizi distribuiti in piu` sedi (Padova, LNGS, Bari, Roma2)
CdS, 19 Maggio 2014 Massimo Sgaravatto 33/45
LOGOEGI Federated Cloud
● Federazione di Cloud basate su middleware differenti (OpenStack, OpenNebula, Emotive, Synnefo)
● Attualmente 14 RC certificati (Bari e Catania per l'INFN), 4 in certificazione e 19 in preparazione (Padova, Torino, CNAF, Napoli per l'INFN). In produzione da oggi (annuncio all'EGI CF in corso)
● 12 user communities, 20 casi d'uso documentati nella wiki (musicologia, missioni spaziali, linguistica, sismologia, ambiente, biologia, medicina, etc.)
● Punti chiave
● Riuso/integrazione di componenti “core” della infrastruttura EGI grid: VOMS (AAI), APEL (Accounting), SAM/Nagios (Monitoring), GOCDB (Service Catalogue), BDII/LDAP (Information System)
● Gestione di VM e storage tramite interfacce standard OCCI (OGF) e CMDI (SNIA)
CdS, 19 Maggio 2014 Massimo Sgaravatto 34/45
LOGOEGI Federated Cloud (cont.ed)
● Perche` e` importante partecipare
● Alcune soluzioni possono essere utili anche per la Cloud dell'Area Padovana
● Il prossimo progetto H2020 EINFRA-1 topic 6 (Supporto all'evoluzione di EGI) vertera' principalmente sulla migrazione della EGI grid esistente verso la EGI FedCloud la partecipazione di INFN-Padova al progetto →e' favorita dalla presenza di un suo RC nella FedCloud
● Uno dei due progetti H2020 ICT-07 sottomessi ad Aprile in cui INFN-Padova e' coinvolto ha come riferimento la EGI FedCloud
● I 10 working group della EGI FedCloud Task Force hanno una larga sovrapposizone con le Macro aree tecnologiche del Gruppo Cloud Computing della CCR
● Maggiori informazioni in: https://wiki.egi.eu/wiki/Fedcloud-tf:Main
CdS, 19 Maggio 2014 Massimo Sgaravatto 35/45
LOGOPersone
● Padova:● Cristina Aiftimiei, Paolo Andreetto, Sara Bertocco, Alberto Crescente,
Fulvia Costa, Alvise Dorigo, Eric Frizziero, Federica Fanzago (inizia ora), Michele Michelotto, Massimo Sgaravatto, Sergio Traldi, Marco Verlato, Lisa Zangrando
● Legnaro● Massimo Biasotto , Sergio Fantinel, Michele Gulmini, Massimo Venaruzzo
● Lunga lista di persone ma nessuno lo fa a tempo pieno, e le varie persone continuano a fare anche quello che facevano prima (Servizio Calcolo, Grid middleware, Grid operations, Tier-2, attivita` negli esperimenti)
● Molto positiva la condivisione delle diverse competenze● Contributo fondamentale da parte del personale precario
CdS, 19 Maggio 2014 Massimo Sgaravatto 36/45
LOGOLogo
Creato da Mario Zago e Pina SalenteGrazie anche al Servizio Progettazione Meccanica
CdS, 19 Maggio 2014 Massimo Sgaravatto 37/45
LOGOConclusioni
● Servizio di preproduzione disponibile a utenti che vogliono iniziare a provare la cloud● Utile anche (soprattutto) per noi per testare l'infrastruttura
● Altre funzionalita` e risorse verranno integrate progressivamente
● Seminario (demo) quando alcune delle nuove funzionalita` saranno usabili (in particolare l'integrazione con INFN AAI)
● Sinergia con le attivita` del Cloud Working Group della CCR e in altre iniziative Cloud related
● Contatti: [email protected]● http://wiki.infn.it/progetti/cloud-areapd/home
CdS, 19 Maggio 2014 Massimo Sgaravatto 38/45
LOGO
THE END
CdS, 19 Maggio 2014 Massimo Sgaravatto 39/45
LOGO
Backup slides
CdS, 19 Maggio 2014 Massimo Sgaravatto 40/45
LOGOInstallazione e configurazione
● Gestione centralizzata e automatizzata dei nodi dell'infrastruttura Cloud via Foreman e Puppet.
● Sistema utilizzato sia per l’installazione, che per la configurazione di diversi servizi delle macchine di produzione o test Cloud.
● Foreman e soprattutto Puppet adottati in molti siti (es. il CERN) come installation & configuration management tool
CdS, 19 Maggio 2014 Massimo Sgaravatto 41/45
LOGOMonitoring dell'infrastruttura
● Implementata una infrastruttura di monitoring basata su Ganglia e Nagios
● Monitor dello stato delle singole macchine, e della funzionalita` ed efficienza dei singoli servizi
CdS, 19 Maggio 2014 Massimo Sgaravatto 42/45
LOGODocumentazione
● La documentazione nella wiki dell’INFN (http://wiki.infn.it/progetti/cloud-areapd/home)
● Le informazioni relative alle risorse hardware disponibili e il logbook delle operazioni effettuate vengono mantenute in DOCET● Tool sviluppato a
Padova che permette la gestione di tutte le informazioni relative ad un data centre
● Viene usato anche per le attivita` del Tier 2
CdS, 19 Maggio 2014 Massimo Sgaravatto 43/45
LOGOImmagini
● Quando si crea una VM si specifica l'immagine che deve essere usata● L'immagine specifica il sistema operativo, i pacchetti software, configurazioni, etc.
● Immagini● Pubbliche: create dall'admin e usabili da tutti gli utenti● Private: usabili solo dagli utenti dello stesso gruppo (progetto)
● Stiamo predisponendo una macchina che possa essere usata per costruirsi immagini (usando il software OZ) usabili per il proprio use case
● Posso anche creare una VM specificando uno snapshot● Si ` crea una VM usando una certa immagine esistente● Su questa VM si fanno le modifiche che interessano (es. installazione di pacchetti
software supplementari) ● Si salva uno “snapshot”● Si puo` usare questa snapshot per creare altre VMs
CdS, 19 Maggio 2014 Massimo Sgaravatto 44/45
LOGOServizio di autentivazione (Keystone) nella Cloud INFN distribuita
Cluster di tre server Openstack Keystone nelle tre sedi INFN: Padova, LNGS e Bari.
● Il database SQL usato come back-end e` replicato sui tre siti usando Percona XtraDB Cluster come soluzione di alta disponibilita` per cluster MySQL
● HAProxy e` usato come load balancer e come HA provider per il servizio Keystone
● il servizio DNS riconfigurabile dinamicamente offerto da ha.infn.it garantisce fault protection per i server proxy.
● La comunicazione tra i vari client, proxy server e server Keystone e` criptata (SSL)
CdS, 19 Maggio 2014 Massimo Sgaravatto 45/45
LOGOServizio di object storage (Swift) nella Cloud INFN distribuita
● E` stato reso operativo un servizio di object storage, basato su OpenStack Swift, distribuito geograficamente.
● Le sedi coinvolte sono Padova, LNGS, Bari
● Il setup e` ridondante e privo di singoli point of failures
● Per l'autenticazione e` usato il servizio nazionale Keystone (v. slide precedente)
● Padova partecipa con un nodo proxy e due nodi di storage