July 5, 2011

Un SANFS chez Infortrend

Infortrend (www.infortrend.com |TPE:2495), fournisseur alternatif de stockage, annonce ESVA Cluster File System. Misère, Infortrend commet l'erreur de qualifier son produit de Cluster File System alors qu'il s'agit d'un SAN File system ou SAN File Sharing System. Revenons sur les différences déja évoquées lors d'un très ancien post (juillet 2006):

  • Cluster File System (CFS): L'esprit est ici de partager le système de fichiers, sa srtucture et sa logique. L'ensemble des machines mises-en-jeu "comprend" la structure du système de fichiers "générée" sur les unités de stockage visibles nativement en mode bloc, on parle alors de mode disque partagé ou shared-disk. Pour évoquer l'exemple d'Unix, tous les noeuds interprètent le super-block et l'acte de montage natif, c'est aussi la raison pour laquelle les CFS sont homogènes dans les OS, seul VERITAS pouvait se permettre d'envisager un CFS hétérogne vu la présence sur des OS différents du même file sytem. Ce point est important car les file system natifs fournis en standrad avec les OS sont souvent propriétaires à l'OS en question confirmant alors le point de l'homogénéité précédent. La grappe de machines est généralement limitée à quelques dizaines de machines avec une proximité importante du à la cohérence de cache nécessaire. On distingue ensuite des implémentations dites symétriques ou asymétriques suivant qu'une machine ou plusieurs possèdent un rôle particulier comme la journalisation globale, la gestion des verrous... C'est aussi le maintien de la sémantique Posix, de la cohérences des caches qui permet l'utilisation de tels souches avec des bases de données parallèles comme la plus connue Oracle RAC. Pour mémoire, je citerai quelques fournisseurs avec HP/Compaq/Digital, IBM, Sanbolic, SANique, Sequent, Sun, VERITAS ou VMware.
  • SAN File System (SANFS): On parle ici plus d'un mécanisme de partage de fichier sur un SAN d'où le nom SAN File Sharing System réduit à SAN FS, le système de fichier n'est pas partagé seuls le sont à la demande les fichiers résidant sur les unités de stockage. Les machines obéissent globalement à 2 catégories: les serveurs de stockage nommés MDS pour Meta-Data Server ou Meta-Data Controller qui supervisent les unités de stockage et les requêtes des machines clientes et ces clients vus commes des consommateurs de données, ces 2 types de systèmes sont bien sûr connectés au stockage. Les clients accédent au stockage par l'information fournie par le MDS qui répond aux requêtes d'écriture et de lecture, positionne des verrous et opére des fonctions de maintenance. Par nature ces 2 types de machines tournent des OS différents comme Unix, Linux ou Windows pour les MDSs et Windows, Mac et Linux pour les clients et le nombre de machines mises en jeu est bien supérieur à un CFS. Les applications sont orientées "fichier pur" à savoir que les modèles structurés comme une base de données ne peuvent être utiliser sur un tel système de partage qui ne propose pas les facilités de verrouillage nécessaire. Le protocole entre les clients et les MDSs est souvent propriétaire d'où la présence d'un agent sur les postes consommateurs, certaines implémentations utilisent NFS pour communiquer les meta-data fichier, ensuite le client court-circuite le protocole et accédent directement en raw aux unités disques. Et c'est sans évoquer pNFS - fichier, bloc et objet - notamment disponibel avec NFSv4.1.
Un mode mixte peut être décliné avec les MDS en mode Cluster FS servant des clients connectés au stockage en mode SANFS asservis aux MDSs. Les MDSs peuvent être aussi simplement configurés en failover comme la majorité des SANFS le proposent, plus simple à mettre en place. Dans les 2 cas, la configuration entre les serveurs et les clients répond aux caractéristiques d'un SANFS.

Parlons du produit Infortrend en gardant les remarques ci-dessus à l'esprit. ESVA CFS est composé de 2 Meta-Data serveurs, d'agent logiciel à installer sur chaque poste client, une gateway LAN optionnelle et des unités de stockage connectées en mode bloc iSCSI (1 et 10GbE) ou FC à 8Gb/s. Les clients supportés sont Windows, Mac et Linux pour une capacité maximale de 4Po. La gateway LAN permet de partager les fichiers avec des postes connectés aux réseux mais non aux unités de stockage. Les performances avancées par ESVA CFS sont intéressantes avec une pointe à 24000Mo/s en lecture et la moitiè en écriture de quoi satisfaire nombre de besoins pour les projets multimédias, broadcasts, pétroliers ou HPC. Le produit ressemble à s'y méprendre à Quantum StorNext, la référence des SANFS pour les environnements multimédias. De là à penser à un accord non révélé, nous y sommes presque. A voir mais je ne perdrai pas mon temps à essayer le copie, je préfère l'original donc Quantum StorNext.

Architecture d'Infortrend ESVA Cluster File System
Share:

1 commentaires:

Anonymous said...

Merci pour ce rappel Nicolas