50
© 2011 IBM Corporation GPFS General Parallel File System http://www-142.ibm.com/software/products/fr/fr/software

2011 09 Gpfs Guideshareaix

Embed Size (px)

Citation preview

Page 1: 2011 09 Gpfs Guideshareaix

© 2011 IBM Corporation

GPFSGeneral Parallel File System

http://www-142.ibm.com/software/products/fr/fr/software

Page 2: 2011 09 Gpfs Guideshareaix

2 © 2011 IBM CorporationIBM System & Technology Group

Agenda� Problématique

� Historique

� GPFS : Le système de fichiers

� Qui utilise GPFS aujourd’hui ?

� Mise en œuvre & Service associé

� Support - Formation & Documentation

Page 3: 2011 09 Gpfs Guideshareaix

3 © 2011 IBM CorporationIBM System & Technology Group

Problématique

Page 4: 2011 09 Gpfs Guideshareaix

4 © 2011 IBM CorporationIBM System & Technology Group

Problématique

D’une façon fiable,partager

etéchanger simplement des fichiers

entre différentes applications

et différents OS

Page 5: 2011 09 Gpfs Guideshareaix

5 © 2011 IBM CorporationIBM System & Technology Group© Copyright IBM Corporation 2008 1-5

IBM General Parallel File System (GPFS™) – History and evolution

2005200219981995

Video streaming

Tiger Shark� Real time� Streaming� Read Perf� Wide stripe

HPC

GPFS General File

Serving� Standards� Portable

operating system interface (POSIX) semantics-Large block

� Directory and � Small file perf� Data

management

Virtual Tape Server (VTS)

Linux®Clusters (Multiple architectures)

IBM AIX®Loose Clusters

GPFS 2.1-2.3

HPC

ResearchVisualizationDigital MediaSeismicWeather explorationLife sciences

32 bit /64 bitInter-op (IBM AIX & Linux)GPFS Multicluster

GPFS over wide area networks (WAN)

Large scale clustersthousands of nodes

GPFS 3.1-3.2

2006-7

First called GPFS

First called GPFS

GPFS 3.4 introduces improvements in performance, scalability, migration and diagnostics and enhanced Windows™ high performance computing (HPC) server support, including support for homogenous Windows clusters.

GPFS 3.4

Enhanced Windows cluster support- Homogenous Windows Server

Performance and scaling improvements

Enhanced migration and diagnostics support

2009

GPFS 3.3

Restricted Admin Functions

Improved installation

New license model

Improved snapshot andbackup

Improved ILM policy engine

2010

Ease of administration

Multiple-networks/ RDMA

Distributed Token Management

Faster failover

Multiple NSD servers

NFS v4 Support

Small file performance

Information lifecycle management (ILM)

� Storage Pools� File sets� Policy Engine

Page 6: 2011 09 Gpfs Guideshareaix

6 © 2011 IBM CorporationIBM System & Technology Group

PPC64

x86

x64

Le système de fichier GPFS

Page 7: 2011 09 Gpfs Guideshareaix

7 © 2011 IBM CorporationIBM System & Technology Group

Qu’est-ce que GPFS ?GPFS (General Parrallel File System) est la solution IBM de système de fichierspartagé parallèle pour les clusters. Ses fonctionnalités en font un produit fiable et performant pour toutes les architectures nécessitant un partage de données.

Ce logiciel est disponible sur tous les serveurs IBM ayant pour systèmed’exploitation AIX, Linux ou Windows.

� Cluster: 2 à 8000+ serveurs, réseau performant fiable, administré comme un ensemble.

� Système de fichiers partagé: tous les serveurs accèdentaux données et metadonnées par une interface de type disque.

� Parallèle: les accès aux données et metadonnées se font en parallèle de tous les serveurs vers tous les disques.

Serveurs GPFS

������������� ��� ����������

������� ��������

Page 8: 2011 09 Gpfs Guideshareaix

8 © 2011 IBM CorporationIBM System & Technology Group

GPFS Fonctionnalités et Domaines d’utilisation

� Une vision unique partagée du système de fichiers.� Une interface au Standard POSIX.� Haute performance

– Grande capacité de stockage

– Très haut débit� Haute disponibilité

– Tolérance de panne

– Gestion de configuration dynamique (ajout, retrait, remplacement de disques, de serveurs)

� Domaines d’utilisation– Clusters haute performance scientifiques & commerciaux.

– Consolidation de serveurs (de fichiers, de courrier, internet …)

– Multimedia

– Bases de données

Page 9: 2011 09 Gpfs Guideshareaix

9 © 2011 IBM CorporationIBM System & Technology Group

Ce que GPFS n’est pas

Pas un système de fichiers client-serveurcomme NFS ou CIFS: pas de goulotd’étranglement d’un serveur unique, pas de surcouche de protocole dans le transfert de données.

��� ��������� ������ ������������������� �������� ������������������� ��������������� �������

Clients

Réseau

Serveur

Disques

Données

Serveur de metadonnéesMetadonnées

Disques

Page 10: 2011 09 Gpfs Guideshareaix

10 © 2011 IBM CorporationIBM System & Technology Group

3 exemples de configuration

��������������� ����������� ���

�����������������

������������������

���� ���� ������� ������������������

�������� ���

�����

�� �����������������

����� !"#��� ��� �$

Page 11: 2011 09 Gpfs Guideshareaix

11 © 2011 IBM CorporationIBM System & Technology Group

Les forces de GPFS

Grande capacité :– Regroupe de nombreux disques ou RAIDs

en un seul système de fichiers

Débit élevé pour un fichier seul– “striping” sur un grand nombre de disques

– Taille de bloc élevée “16 K à 4 Mo”

– Plusieurs serveurs écrivent en parallèle

Haute disponibilité– Serveurs: reconstruction journalisée

bascule cohérente sur serveur de secours

– Données: RAID ou réplication

– Admin. dynamique (ajout/retrait/remplacement dedisques ou serveurs sans démontage du système de fichiers)

Image unique, interface au standard POSIX– “locks” distribués sur une syntaxe lecture/écriture standard

Page 12: 2011 09 Gpfs Guideshareaix

12 © 2011 IBM CorporationIBM System & Technology Group

GPFS

�Disponibilité–Un daemon assure la surveillance des serveurs et la détection

de panne

–Un journal différent sur chaque serveur pour réparer plus vite en cas d’anomalie

–Une redondance réseau sur AIX par EtherChannel, sur Linux par bonding

–Chaque disque est accessible depuis deux serveurs au moins

�Performance–Accès simultanés de plusieurs serveurs à un fichier (MPIIO …)

–Répartition de la charge sur serveurs et disques

–Permet de manipuler de grandes quantités de données

Page 13: 2011 09 Gpfs Guideshareaix

13 © 2011 IBM CorporationIBM System & Technology Group

GPFS� Intégrité des données

– Gestion des accès par jeton

– Plusieurs chemins pour accéder la même donnée

– Possibilité de mettre en place une réplication• Pour données et métadonnées, certains ou tous les fichiers

– Les copies sont dans des « failure group » distincts

– Quorum : pas de risque d’accès simultanés incohérents si le cluster se coupe en deux ou plus

� Flexibilité– Ajout dynamique de disques, de serveurs

– Changement dynamique du nombre d’inodes …

– S’administre depuis n’importe quel serveur, diffusion automatique àtous les serveurs

– Possibilité de créer une(plusieurs!) copie logique, ou snapshot, pour un système de fichiers GPFS,

Page 14: 2011 09 Gpfs Guideshareaix

14 © 2011 IBM CorporationIBM System & Technology Group

Snapshots (ou Flashcopy)

� Snapshot: copie logique en lecture seule du système de fichiers à un instant donné

� Pour quoi faire : – Sauvegarde: sauvegarde cohérente à l’instant t

– Correction d’erreur: accès en ligne aux fichiers dans leur état au moment du snapshot

� “Copy-on-write”: le fichier n’occupe de l’espace dans le snapshot qu’au moment où il est modifié ou supprimé.

� Accès au travers de sous répertoires “.snapshots” à la racine– /gpfs/.snapshots/snap1 – état d’il y a huit jours

– /gpfs/.snapshots/snap2 – état d’hier� On peut conserver jusqu’à 256 snapshots d’un système de fichiers

Page 15: 2011 09 Gpfs Guideshareaix

15 © 2011 IBM CorporationIBM System & Technology Group

GPFS

� ILM (Information Lifecycle Management ) – « Storage pool » (groupe de luns de même performance)

– « Fileset » (sous-arborescence dans un système de fichiers)

– « Policies » (règles de placement et de migrationdes fichiers dans les « storagepool »)

– Gestion simple du placement des données, (âge, nom du fichier…)

– La politique de gestion peut être exécutée en parallèle sur l’ensemble des nœuds

– La migration des données est automatique et transparente pour le client

– Gestion du placement des données selon les types de disques

– Langage de type SQL

RULE ’migration to system pool’ MIGRATE FROM POOL ’sp1’ TO POOL ’system’ WHERE NAME LIKE ’%file%’

Page 16: 2011 09 Gpfs Guideshareaix

16 © 2011 IBM CorporationIBM System & Technology Group

Haute disponibilité

SAN

LAN

GPFS continue sur le serveur 1, dont lenom figure sur le tiebreakerDiskcomme « lease manager ».tiebreakerDisk

Serveur 1

Serveur 2

Serveur 1

Page 17: 2011 09 Gpfs Guideshareaix

17 © 2011 IBM CorporationIBM System & Technology Group

Haute disponibilité

SAN

LAN

GPFS continue sur le serveur qui a été élu« lease manager »sur le tiebreakerDiskTiebreakerDisk

Serveur 1

Serveur 2

Serveur 2

DémontageDe GPFS surLe serveur 1

Page 18: 2011 09 Gpfs Guideshareaix

18 © 2011 IBM CorporationIBM System & Technology Group

Haute disponibilité

SAN

Failure group 1RéplicationFailure group 2

LAN

Failure group 3DescOnly

GPFS continue sur lesdeux serveurs, sans Réplication.

Le failure group 3 garantit l’existence de plusde la moitié des FSDs. On peut mettre letiebreakerDisk dessus.

Filesystem descripter Quorum

Page 19: 2011 09 Gpfs Guideshareaix

19 © 2011 IBM CorporationIBM System & Technology Group

Haute disponibilité

LAN

SAN

Failure group 1 Failure group 2

Failure group 3DescOnly

GPFS continue sur leServeur 1

Serveur 1 Serveur 2

Serveur 3

Page 20: 2011 09 Gpfs Guideshareaix

20 © 2011 IBM CorporationIBM System & Technology Group

Haute disponibilité

LAN

SAN

Failure group 1 Failure group 2

Failure group 3DescOnly

GPFS continue sur lesdeux serveurs, plus de réplication.

Serveur 1 Serveur 2

Serveur 3

Page 21: 2011 09 Gpfs Guideshareaix

21 © 2011 IBM CorporationIBM System & Technology Group

Haute disponibilité

LAN

SAN

Failure group 1 Failure group 2

Failure group 3DescOnly

GPFS continue sur le serveur 2plus de réplication.

Serveur 2Serveur 1

Serveur 3

Page 22: 2011 09 Gpfs Guideshareaix

22 © 2011 IBM CorporationIBM System & Technology Group

Haute disponibilité

LAN

SAN

Failure group 1 Failure group 2

Failure group 3DescOnly

Serveur 2

Serveur 3

Serveur 1

GPFS continue à fonctionner surle serveur 1, qui voit le serveur 3.

GPFSdémontéserveurisolé.

Page 23: 2011 09 Gpfs Guideshareaix

23 © 2011 IBM CorporationIBM System & Technology Group

Haute Disponibilité

LAN

SAN

Failure group 1 Failure group 2

Failure group 3DescOnly

Serveur 1 Serveur 2

Server 3Serveur 1 accède au failuregroup 2 au travers du réseau

Page 24: 2011 09 Gpfs Guideshareaix

24 © 2011 IBM CorporationIBM System & Technology Group

Règles de quorum

� 3 serveurs avec l’attribut quorum– GPFS continue à fonctionner sur les serveurs qui voient au moins 2 serveurs ayant l’attribut

quorum

� 2 à 8 serveurs avec l’attribut quorum et 1 ou 3 tiebreakerDisks– GPFS continue à fonctionner sur les serveurs qui voient le serveur quorum élu « lease

manager » dont le nom figure sur les tiebreakerDisks.

– Par sécurité, on peut mettre 3 tiebreakerDisks, GPFS continue à fonctionner sur tous les serveurs qui voient la majorité des tiebreakerDisks et le serveur quorum élu « leasemanager ».

– Les tiebreakerDisks doivent être reliés par SCSI ou SAN aux serveurs ayant l’attribut quorum.

Page 25: 2011 09 Gpfs Guideshareaix

25 © 2011 IBM CorporationIBM System & Technology Group

Résumons nous ! Qu’est ce que GPFS ?

�Hier GPFS était un système de fichiers parallèle à haute performance

�Aujourd’hui, GPFS est un système de fichiers cluster à haute performance (incluant aussi le parallélisme )

�Demain GPFS est unsystème de fichiers d’entreprise avec de hautes performances

Page 26: 2011 09 Gpfs Guideshareaix

26 © 2011 IBM CorporationIBM System & Technology Group

Qui utilise GPFS aujourd’hui ?

Page 27: 2011 09 Gpfs Guideshareaix

27 © 2011 IBM CorporationIBM System & Technology Group

Qui utilise GPFS aujourd’hui ?

� Aviation et Automobile

� Banque et Finance

� Bio-informatiques and Sciences de la Vie

� Défense

� Média numérique

� EDA

� Laboratoires Nationaux

� Pétrole

� Université

� Modélisation climatique

� IBM

GPFS est un produit mature avec une présence bien établie sur le marché. Il estdisponible depuis 1998 après une phase de développement et de recherchecommencée en 1991.

Page 28: 2011 09 Gpfs Guideshareaix

28 © 2011 IBM CorporationIBM System & Technology Group

Government Laboratories

Army Corps of Engineers� Application: hydrological modeling� 2 256-node SPs

� Using GPFS to store model data, output visualization data

������ �� �����!

� �����"��������������"�����#��#�$����"����%���#����� �����

� &''��� ����

� (�����)*�����������"������ ��+���������� ������� �������������%���#����� ������ �����������������,�����+���������������-�����

Page 29: 2011 09 Gpfs Guideshareaix

29 © 2011 IBM CorporationIBM System & Technology Group

Géophysique

• Capture, stock et analyse des données de sondage sismique,• Les données saisies à bord,• Analyse ultérieure (hautement parallèle, plusieurs téraoctets

de systèmes de fichiers) • Archives / récupération à partir de bandes• Plusieurs entreprises géophysiques utilisent GPFS pour leurs

traitements sismique

Page 30: 2011 09 Gpfs Guideshareaix

30 © 2011 IBM CorporationIBM System & Technology Group

Ingénierie de la conception

Constructeur d’avions

� Utilisation de GPFS pour stocker les quantités de donnéesimportantes liées à la modélisation des structures et àleurs analyses

� GPFS permet le partage des modèles et des données par l’ensemble des noeuds

Page 31: 2011 09 Gpfs Guideshareaix

31 © 2011 IBM CorporationIBM System & Technology Group

������������ �������������������� ������������ ��� ���� ���������������� ������� �������� ������ �������������������

� �������������� ������� �������������� ������������� ����� ����� ������������������������� ����� �����

� ����������� ������� �������������������������������� ������������������������ ��� ���������� ��������������������������� ����� �������� ������ �������� ����������������������

� ������ ������������ �������� ��� ���������������� � �������

�� ��!��������!� � !""""�� �������������� ������� ��� ���# ���"������������� ���������� ����� ��������������

� ������$� ���������������� � %�����������������# ��$�% ���& �����'""���� ��� �������������� %� �� ��� ����$������������� �� ������� ���

� &���(��)������������������� ��������� � �������� �������������

����� ����������� ��������� ��� ����"��������*+�)�����*+$�,�-���������,$����������� �.������������"�������� ���//$///0 1 ( 5 mn par an )

TV5 Monde

Page 32: 2011 09 Gpfs Guideshareaix

32 © 2011 IBM CorporationIBM System & Technology Group

HMC1

Serveur NIM p520

Nœuds GPFS p520 (x6)

Controleurs DS4500 + Racks EXP100 X 78

Solution IBM

HMC2

SWSAN 1CISCO

MDS 9500

SWSAN 2CISCO

MDS 9500

SWLAN 2 CISCO 6500

SWLAN 1CISCO 6500

Baie DS4800 Racks EXP710

X28

x2

x4

Baie DS4800 Racks EXP710

X28

x4 x4 x4

x2x2x2x2 x2x2x2x2x2x2 x2

CtrlA CtrlB

CtrlA CtrlB CtrlA CtrlB CtrlA CtrlB

CtrlA CtrlB

CtrlA CtrlB CtrlA CtrlB CtrlA CtrlB

Réseau EthernetRéseau GPFSRéseau AdminRéseau Hardware 1

Réseau SANRéseau Hardware 2

xSeriesAdministrationX3

Page 33: 2011 09 Gpfs Guideshareaix

33 © 2011 IBM CorporationIBM System & Technology Group

ASC (Advanced Simulation and Computing)

https://asc.llnl.gov/computing_resources/purple/

Lawrence Livermore National Laboratories en Californie

2005

100 teraFLOPS

12000 POWER5

http://www.top500.org/system/8128

http://www.top500.org/2007_overview_recent_supercomputers/ibm_eserver_p575

Page 34: 2011 09 Gpfs Guideshareaix

34 © 2011 IBM CorporationIBM System & Technology Group

BlueGene/ (2004 pour BlueGene/L, 2007 pour BlueGene/P)

Lawrence Livermore National Laboratories en Californie

2007

596 teraFLOPS (crête)

130712 PowerPC

http://www-304.ibm.com/systems/support/bluegene/index.html

http://www.top500.org/system/8968

http://www.top500.org/2007_overview_recent_supercomputers/ibm_bluegene_l_p

Page 35: 2011 09 Gpfs Guideshareaix

35 © 2011 IBM CorporationIBM System & Technology Group

IDRIS - BlueGene/P

Région Parisienne

2008

139 teraFLOPS (crête)

40960 PowerPC (10 racks)

400To

http://www.idris.fr/IBM2008/index.html

Page 36: 2011 09 Gpfs Guideshareaix

36 © 2011 IBM CorporationIBM System & Technology Group

Produit IBM incluant :

- Un cluster GPFS linux sous RedHat avec un réseau interne InfiniBand, vu comme un serveur NAS pour windows et Unix- Une interface unique pour la configuration et le contrôle- Un service de surveillance à distance et de reprise- Répartition de charge- Stockage sur des supports adaptés performance/coût (tiering)- Utilisé par IBM pour sa solution de « storage cloud »

SONAS – Scale Out Network Attached Server

http://www-03.ibm.com/systems/storage/network/sonas/

Page 37: 2011 09 Gpfs Guideshareaix

37 © 2011 IBM CorporationIBM System & Technology Group

SONAS

Page 38: 2011 09 Gpfs Guideshareaix

38 © 2011 IBM CorporationIBM System & Technology Group

Mise en œuvre et service associé

Page 39: 2011 09 Gpfs Guideshareaix

39 © 2011 IBM CorporationIBM System & Technology Group

Mise en œuvre & Service associé

� IBM vous accompagne dans la découverte du produit

� Cours au catalogue IBM

� Prêt du logiciel avec accompagnement forfaitaire sur la mise en œuvre

� Un expert GPFS - Discute avec vous de votre projet- Propose une architecture- Installe une version de prêt du logiciel - Le configure avec transfert de connaissances d’une demi-journée- Répond à vos questions- Vous remet un document décrivant l'installation

� Ensuite la plupart des clients sont totalement autonomes !

Page 40: 2011 09 Gpfs Guideshareaix

40 © 2011 IBM CorporationIBM System & Technology Group

Support, Formation & Documentation

Page 41: 2011 09 Gpfs Guideshareaix

41 © 2011 IBM CorporationIBM System & Technology Group

Support GPFS

GPFS est un logiciel IBM vendu avec un « passeport avantage » :

� Correctifs en accès libre sur internet

� Un forum public de discussionhttp://www.ibm.com/developerworks/forums/forum.jspa?forumID=479

Le passeport avantage offre :

� l’ouverture d'incidents 24/24 7/7

� le support et réponse aux questions

� l’accès aux nouvelles versions

Page 42: 2011 09 Gpfs Guideshareaix

42 © 2011 IBM CorporationIBM System & Technology Group

Formation GPFS

Page 43: 2011 09 Gpfs Guideshareaix

43 © 2011 IBM CorporationIBM System & Technology Group

Documentations & liens

03/2008 A Guide to the IBM Clustered Network File System, (REDP-4400-00)

02/2008 Deploying Oracle RAC 10g on AIX Version 5 with GPFS (SG24-7541-00)…..10/2005 Configuration and Tuning GPFS for Digital Media Environments (TIPS0540)…..05/1998 GPFS: A Parallel File System (SG24-5165-00)

Doc : http://publib.boulder.ibm.com/infocenter/clresctr/vxrx/topic/com.ibm.cluster.gpfs.doc/gpfsbooks.htmlFAQ : http://publib.boulder.ibm.com/infocenter/clresctr/vxrx/index.jsp?topic=/com.ibm.cluster.gpfs.doc/gpfs_faqs/gpfs_faqs.html

http://www-03.ibm.com/systems/clusters/software/gpfs/index.htmlhttp://www.almaden.ibm.com/StorageSystems/projects/gpfs/http://en.wikipedia.org/wiki/GPFS

http://www.redbooks.ibm.com

Page 44: 2011 09 Gpfs Guideshareaix

44 © 2011 IBM CorporationIBM System & Technology Group

WebSphere MQ & GPFS

� http://www-01.ibm.com/support/docview.wss?uid=swg21392025« Testing of WebSphere MQ with IBM's General Parallel File System (GPFS) has

been more extensive and no problems have been reported to date. »

� http://www-01.ibm.com/support/docview.wss?uid=swg21433474– « WebSphere MQ V7.0.1 introduces multi-instance queue managers. For this

you will need a shared file system on networked storage, such as a NAS, or a cluster file system, such as IBM's General Parallel File System (GPFS). Shared file systems must provide data write integrity, guaranteed exclusive access to files and release locks on failure to work reliably with WebSphereMQ. »

Page 45: 2011 09 Gpfs Guideshareaix

45 © 2011 IBM CorporationIBM System & Technology Group

GPFS v3.4

Page 46: 2011 09 Gpfs Guideshareaix

46 © 2011 IBM CorporationIBM System & Technology Group

M E R C I !

Japanese

Hebrew

Thank YouEnglish

MerciFrench

Russian

DankeGerman

GrazieItalian

GraciasSpanishObrigado

Brazilian Portuguese

Arabic

Simplified Chinese

Traditional Chinese

Korean

Thai

Hindi

Tamil

go raibh maith agatGaelic

Page 47: 2011 09 Gpfs Guideshareaix

47 © 2011 IBM CorporationIBM System & Technology Group

The following terms are registered trademarks of International Business Machines Corporation in the United States and/or other countries: AIX, AIX/L, AIX/L (logo), AIX 6 (logo), alphaWorks, AS/400, BladeCenter, Blue Gene, Blue Lightning, C Set++, CICS, CICS/6000, ClusterProven, CT/2, DataHub, DataJoiner, DB2, DEEP BLUE, developerWorks, DirectTalk, Domino, DYNIX, DYNIX/ptx, e business (logo), e(logo)business, e(logo)server, Enterprise Storage Server, ESCON, FlashCopy, GDDM, i5/OS, i5/OS (logo), IBM, IBM (logo), ibm.com, IBM Business Partner (logo), Informix, IntelliStation, IQ-Link, LANStreamer, LoadLeveler, Lotus, Lotus Notes, Lotusphere, Magstar, MediaStreamer, Micro Channel, MQSeries, Net.Data, Netfinity, NetView, Network Station, Notes, NUMA-Q, OpenPower, Operating System/2, Operating System/400, OS/2, OS/390, OS/400, Parallel Sysplex, PartnerLink, PartnerWorld, Passport Advantage, POWERparallel, Power PC 603, Power PC 604, PowerPC, PowerPC (logo), Predictive Failure Analysis, pSeries, PTX, ptx/ADMIN, Quick Place, Rational, RETAIN, RISC System/6000, RS/6000, RT Personal Computer, S/390, Sametime, Scalable POWERparallel Systems, SecureWay, Sequent, ServerProven, SpaceBall, System/390, The Engines of e-business, THINK, Tivoli, Tivoli (logo), Tivoli Management Environment, Tivoli Ready (logo), TME, TotalStorage, TURBOWAYS, VisualAge, WebSphere, xSeries, z/OS, zSeries.

The following terms are trademarks of International Business Machines Corporation in the United States and/or other countries: Advanced Micro-Partitioning, AIX 5L, AIX PVMe, AS/400e, Calibrated Vectored Cooling, Chiphopper, Chipkill, Cloudscape, DataPower, DB2 OLAP Server, DB2 Universal Database, DFDSM, DFSORT, DS4000, DS6000, DS8000, e-business (logo), e-business on demand, EnergyScale, Enterprise Workload Manager, eServer, Express Middleware, Express Portfolio, Express Servers, Express Servers and Storage, General Purpose File System, GigaProcessor, GPFS, HACMP, HACMP/6000, IBM Systems Director Active Energy Manager, IBM TotalStorage Proven, IBMLink, IMS, Intelligent Miner, iSeries, Micro-Partitioning, NUMACenter, On Demand Business logo, POWER, PowerExecutive, PowerVM, PowerVM (logo), Power Architecture, Power Everywhere, Power Family, POWER Hypervisor, Power PC, Power Systems, Power Systems (logo), Power Systems Software, Power Systems Software (logo), PowerPC Architecture, PowerPC 603, PowerPC 603e, PowerPC 604, PowerPC 750, POWER2, POWER2 Architecture, POWER3, POWER4, POWER4+, POWER5, POWER5+, POWER6, POWER6+, pure XML, Quickr, Redbooks, Sequent (logo), SequentLINK, Server Advantage, ServeRAID, Service Director, SmoothStart, SP, System i, System i5, System p, System p5, System Storage, System z, System z9, S/390 Parallel Enterprise Server, Tivoli Enterprise, TME 10, TotalStorage Proven, Ultramedia, VideoCharger, Virtualization Engine, Visualization Data Explorer, Workload Partitions Manager, X-Architecture, z/Architecture, z/9.

A full list of U.S. trademarks owned by IBM may be found at: http://www.ibm.com/legal/copytrade.shtml.The Power Architecture and Power.org wordmarks and the Power and Power.org logos and related marks are trademarks and service marks licensed by Power.org.UNIX is a registered trademark of The Open Group in the United States, other countries or both. Linux is a trademark of Linus Torvalds in the United States, other countries or both.Microsoft, Windows, Windows NT and the Windows logo are registered trademarks of Microsoft Corporation in the United States, other countries or both.Intel, Itanium, Pentium are registered trademarks and Xeon is a trademark of Intel Corporation or its subsidiaries in the United States, other countries or both.AMD Opteron is a trademark of Advanced Micro Devices, Inc.Java and all Java-based trademarks and logos are trademarks of Sun Microsystems, Inc. in the United States, other countries or both. TPC-C and TPC-H are trademarks of the Transaction Performance Processing Council (TPPC).SPECint, SPECfp, SPECjbb, SPECweb, SPECjAppServer, SPEC OMP, SPECviewperf, SPECapc, SPEChpc, SPECjvm, SPECmail, SPECimap and SPECsfs are trademarks of the Standard Performance Evaluation Corp (SPEC).NetBench is a registered trademark of Ziff Davis Media in the United States, other countries or both.AltiVec is a trademark of Freescale Semiconductor, Inc.Cell Broadband Engine is a trademark of Sony Computer Entertainment Inc.InfiniBand, InfiniBand Trade Association and the InfiniBand design marks are trademarks and/or service marks of the InfiniBand Trade Association. Other company, product and service names may be trademarks or service marks of others. Revised January 15, 2008

Special notices (cont.)

Page 48: 2011 09 Gpfs Guideshareaix

48 © 2011 IBM CorporationIBM System & Technology Group

The IBM benchmarks results shown herein were derived using particular, well configured, development-level and generally-available computer systems. Buyers should consult other sources of information to evaluate the performance of systems they are considering buying and should consider conducting application oriented testing. For additional information about the benchmarks, values and systems tested, contact your local IBM office or IBM authorized reseller or access the Web site of the benchmark consortium or benchmark vendor.

IBM benchmark results can be found in the IBM Power Systems Performance Report at http://www.ibm.com/systems/p/hardware/system_perf.html.

All performance measurements were made with AIX or AIX 5L operating systems unless otherwise indicated to have used Linux. For new and upgraded systems, AIX Version 4.3, AIX 5L or AIX 6 were used. All other systems used previous versions of AIX. The SPEC CPU2006, SPEC2000, LINPACK, and Technical Computing benchmarks were compiled using IBM's high performance C, C++, and FORTRAN compilers for AIX 5L and Linux. For new and upgraded systems, the latest versions of these compilers were used: XL C Enterprise Edition V7.0 for AIX, XL C/C++ Enterprise Edition V7.0 for AIX, XL FORTRAN Enterprise Edition V9.1 for AIX, XL C/C++ Advanced Edition V7.0 for Linux, and XL FORTRAN Advanced Edition V9.1 for Linux. The SPEC CPU95 (retired in 2000) tests used preprocessors, KAP 3.2 for FORTRAN and KAP/C 1.4.2 from Kuck & Associates and VAST-2 v4.01X8 from Pacific-Sierra Research. The preprocessors were purchased separately from these vendors. Other software packages like IBM ESSL for AIX, MASS for AIX and Kazushige Goto’s BLAS Library for Linux were also used in some benchmarks.

For a definition/explanation of each benchmark and the full list of detailed results, visit the Web site of the benchmark consortium or benchmark vendor.

TPC http://www.tpc.orgSPEC http://www.spec.orgLINPACK http://www.netlib.org/benchmark/performance.pdfPro/E http://www.proe.comGPC http://www.spec.org/gpcNotesBench http://www.notesbench.orgVolanoMark http://www.volano.comSTREAM http://www.cs.virginia.edu/stream/ SAP http://www.sap.com/benchmark/ Oracle Applications http://www.oracle.com/apps_benchmark/ PeopleSoft - To get information on PeopleSoft benchmarks, contact PeopleSoft directly Siebel http://www.siebel.com/crm/performance_benchmark/index.shtmBaan http://www.ssaglobal.comMicrosoft Exchange http://www.microsoft.com/exchange/evaluation/performance/default.aspVeritest http://www.veritest.com/clients/reports Fluent http://www.fluent.com/software/fluent/index.htmTOP500 Supercomputers http://www.top500.org/Ideas International http://www.ideasinternational.com/benchmark/bench.htmlStorage Performance Council http://www.storageperformance.org/results

Revised January 15, 2008

Notes on benchmarks and values

Page 49: 2011 09 Gpfs Guideshareaix

49 © 2011 IBM CorporationIBM System & Technology Group

Revised January 15, 2008

Notes on HPC benchmarks and valuesThe IBM benchmarks results shown herein were derived using particular, well configured, development-level and generally-available computer systems. Buyers should consult other sources of information to evaluate the performance of systems they are considering buying and should consider conducting application oriented testing. For additional information about the benchmarks, values and systems tested, contact your local IBM office or IBM authorized reseller or access the Web site of the benchmark consortium or benchmark vendor.

IBM benchmark results can be found in the IBM Power Systems Performance Report at http://www.ibm.com/systems/p/hardware/system_perf.html.

All performance measurements were made with AIX or AIX 5L operating systems unless otherwise indicated to have used Linux. For new and upgraded systems, AIX Version 4.3 or AIX 5L were used. All other systems used previous versions of AIX. The SPEC CPU2000, LINPACK, and Technical Computing benchmarks were compiled using IBM's high performance C, C++, and FORTRAN compilers for AIX 5L and Linux. For new and upgraded systems, the latest versions of these compilers were used: XL C Enterprise Edition V7.0 for AIX, XL C/C++ Enterprise Edition V7.0 for AIX, XL FORTRAN Enterprise Edition V9.1 for AIX, XL C/C++ Advanced Edition V7.0 for Linux, and XL FORTRAN Advanced Edition V9.1 for Linux. The SPEC CPU95 (retired in 2000) tests used preprocessors, KAP 3.2 for FORTRAN and KAP/C 1.4.2 from Kuck & Associates and VAST-2 v4.01X8 from Pacific-Sierra Research. The preprocessors were purchased separately from these vendors. Other software packages like IBM ESSL for AIX, MASS for AIX and Kazushige Goto’s BLAS Library for Linux were also used in some benchmarks.

For a definition/explanation of each benchmark and the full list of detailed results, visit the Web site of the benchmark consortium or benchmark vendor.SPEC http://www.spec.orgLINPACK http://www.netlib.org/benchmark/performance.pdfPro/E http://www.proe.comGPC http://www.spec.org/gpcSTREAM http://www.cs.virginia.edu/stream/ Veritest http://www.veritest.com/clients/reports Fluent http://www.fluent.com/software/fluent/index.htmTOP500 Supercomputers http://www.top500.org/AMBER http://amber.scripps.edu/FLUENT http://www.fluent.com/software/fluent/fl5bench/index.htmGAMESS http://www.msg.chem.iastate.edu/gamessGAUSSIAN http://www.gaussian.comABAQUS http://www.abaqus.com/support/sup_tech_notes64.html

select Abaqus v6.4 Performance DataANSYS http://www.ansys.com/services/hardware_support/index.htm

select “Hardware Support Database”, then benchmarks.ECLIPSE http://www.sis.slb.com/content/software/simulation/index.asp?seg=geoquest&MM5 http://www.mmm.ucar.edu/mm5/MSC.NASTRAN http://www.mscsoftware.com/support/prod%5Fsupport/nastran/performance/v04_sngl.cfmSTAR-CD www.cd-adapco.com/products/STAR-CD/performance/320/index/htmlNAMD http://www.ks.uiuc.edu/Research/namdHMMER http://hmmer.janelia.org/

http://powerdev.osuosl.org/project/hmmerAltivecGen2mod

Page 50: 2011 09 Gpfs Guideshareaix

50 © 2011 IBM CorporationIBM System & Technology Group

Revised October 9, 2007

Notes on performance estimates

rPerf

rPerf (Relative Performance) is an estimate of commercial processing performance relative to other IBM UNIX systems. It is derived from an IBM analytical model which uses characteristics from IBM internal workloads, TPC and SPEC benchmarks. The rPerf model is not intended to represent any specific public benchmark results and should not be reasonably used in that way. The model simulates some of the system operations such as CPU, cache and memory. However, the model does not simulate disk or network I/O operations.

� rPerf estimates are calculated based on systems with the latest levels of AIX and other pertinent software at the time of system announcement. Actual performance will vary based on application and configuration specifics. The IBM eServer pSeries 640 is the baseline reference system and has a value of 1.0. Although rPerf may be used to approximate relative IBM UNIX commercial processing performance, actual system performance may vary and is dependent upon many factors including system hardware configuration and software design and configuration. Note that the rPerf methodology used for the POWER6 systems is identical to that used for the POWER5 systems. Variations in incremental system performance may be observed in commercial workloads due to changes in the underlying system architecture.

All performance estimates are provided "AS IS" and no warranties or guarantees are expressed or implied by IBM. Buyers should consult other sources of information, including system benchmarks, and application sizing guides to evaluate the performance of a system they are considering buying. For additional information about rPerf, contact your local IBM office or IBM authorized reseller.