Plusieurs acteurs notamment SSD justifient leur approche par un critère de performance bien sûr et heureusement mais aussi de coût qui se veut être inférieur ou de l'ordre de solutions HDD équivalentes. Sans revenir sur les éléments qui permettent de réussir ce pari, citons que ces fournisseurs intègrent plusieurs technologies comme la déduplication, la compression, le thin provisioning et d'autres mécanismes couplés à une batterie de disques SSD à base de Flash MLC donc moins chers mais à priori moins fiables. La suite est évidente: pourquoi continuer à acheter un baie HDD ?
La question est légitime mais demeure incomplète quand on sait que les volumes explosent et que les entreprises considèrent de nouvelles applications qui elles-mêmes sont créatrices de forts volumes. On ne voit pas une entreprise configurer 1Po de stockage SSD sauf peut-être les Cloud Service Providers qui doivent honorer une qualité de service de grande quantité d'application. Le volume de SSD ici est donc multi-client, on dit multi-tenant dans le monde Cloud, et revient à considérer une petite partie pour chacun et le reste devrait être composé d'unités plus traditionnelles. C'est le cas de SolidFire qui offre une solution jusqu'à 100 noeuds SF3010 chacun pouvant stocker jusqu'à 12To en considérant un ratio de réduction de 4:1. Pure Storage confirme mes dires ci-dessus avec une baie dense mais d'une capacité raisonnable, le FA-320 propose 22To avec les modules d'extension capable de stocker de l'ordre de 100To basé sur le taux de réduction 5:1, parfaite pour des applications exigeantes. Ces unités s’intègrent simplement dans un univers où plusieurs niveaux de stockage cohabitent. Dans ces 2 cas, on comprend aisément la nécessité de considérer un mécanisme de migration automatique de données avec un souci néanmoins, il doit être extérieur aux unités. Là se pose un problème de plateforme, de transparente et d'intégration suivant les besoins: fichiers, messageries ou bases de données. Ces 2 axes sont souvent représentées par des acteurs différents introduisant une complexité et des coûts supplémentaires. D'autres acteurs ont fait le choix d'intégrer plusieurs nature de stockage avec l'intelligence de déplacement des données. Bien sûr, les grands faiseurs comme EMC, HDS, NetApp, HP ou IBM proposent tous ce type de solution mais ils obligent l'utilisateur à renouveler ses unités voire son parc. Cette considération s'inscrit donc dans une réflexion plus globale qui invite à considérer le cycle de vie des données et le coût du stockage vis-à-vis de la donnée qu'il héberge. Dans le même ordre d'idée mais de façon plus ouverte, une approche logicielle, indépendante de tout vendeur et suffisamment souple pour être intégrée sur l'existant semble être la meilleure de solutions. Considérons les volumes importants et leur accumulation, les besoins de performances, le renouvellement ou l'ajout du matériel quelque soit les applications, on voit bien que le choix d'une couche logicielle est le différenciateur qui répond à ces différents soucis. L'acteur Français Scality propose la solution logicielle Ring Organic Storage qui permet de constituer un pool de stockage potentiellement gigantesque sur tout type de matériel à base de serveurs x86, très standard et économique et de proposer des fonctionnalités d'entreprise à un coût 5 fois inférieur à Amazon S3 de l'ordre 20 cents le GB et prés de 40 fois mois cher qu'une solution équivalente propriétaire !! Parmi ses fonctionnalités, l'Auto-Tiering offre ce déplacement naturel, automatique et transparent vers un niveau secondaire constitué d'un pool Scality ou autre. L'ensemble est contrôlé par le moteur distribué Scality, paramétrable, qui vient épouser les racks de serveurs. Tout est dynamique et les applications viennent consommer l'espace au travers de connecteurs, points d'entrée à l'espace de stockage assimilable au contrôleur classique des baies de disques. Ces connecteurs sont très ouverts et proposent plusieurs interfaces comme le mode objet, natif, ou plus classique en mode fichier ou bloc. Au niveau protection de données, Scality intégre plusieurs mécanimes, certains s'appuient sur les éléments présents sur chaque serveur comme les assemblages RAID locaux mais Ring Organic Storage propose la réplication jusqu'à 5 exemplaires de la même donnée et un mode baptisé RAIN* qui réduit la quantité de données copiées, baissent aussi le coût matériel et permet toujours un niveau de robustesse très élevé. Rappelez-vous j'avais couvert la partie RAIN en Avril 2006, Février 2007 pour Omneon ou lors d'un traitement spécifique à Avamar, déjà en 2006.
Finalement, la solution semble donc de considérer un tier 0 SSD représentant 10 à 20% des données et le reste, les Tiers 1 et 2 éventuellement - en HDD classique avec des caratéristiques éventuellement différentes entre SAS, SATA... Le second élément tient dans la technique de migration où un existant existe déjà soumis à une logique de tiering ou non. L'ajout ne doit pas être en tier 1 ou 2 mais directement en tier 0 où l'administrateur fera "remonter" les données sur ce nouveau niveau, l'expérience utilisateur en sera grandement améliorée. Et puis le tout-en-un adapté et paramétré de façon adéquate aux besoins reste un choix évident pour les utilisateurs...
* RAIN : Reliable|Redundant|Random Array of Inexpensive|Independant Nodes
0 commentaires:
Post a Comment