Thursday, October 30, 2014

Nouvelle version majeure pour Cloudian

Cloudian (www.cloudian.com), éditeur de la solution de stockage object HyperStore, continue son développement et développe une offre tarifaire agressive. La société a récemment annoncé la version 5.0 avec plusieurs fonctionnalités intéressantes. Parmi celles-ci, nous retrouvons la notion de vNodes, chère à Cassandra utilisée dans HyperStore, une déclinaison matérielle de l'offre, le mode Hybrid Cloud streaming, la protection type erasure coding configurable, la compression et le chiffrement. L'offre matérielle se décline en 3 modèles qui illustrent parfaitement le prix symbolique sur lequel se fixe Cloudian: 0,01$/GB/mois !! Wow...


Share:

Monday, October 27, 2014

Un nouveau venu Peaxy

Peaxy (www.peaxy.net), éditeur d'une solution de stockage innovante, vient de dévoiler son offre Hyperfiler 2.0. La société, fondée en 2012, a levée 17M$ en tour A en août 2013 en plus de son tour initial de 2,5M$ et nous noterons la présence des anciens leaders techniques de MaxiScale comme Francesco Lacapra, CTO et VP Engr, de quoi penser que la solution possède certains héritages intéressants. Hyperfiler est un serveur de contenu qui se présente sous forme purement logicielle pour gérer de grands volumes de données sur du matériel standard et qui cible les environnements verticaux. Sur le papier, l'offre est séduisante, dédiée au monde non structuré et marketée autour de 3 axes forts: l'agrégation de stockage pour stocker plus de volumes, le search et l'accès aux données.
Le produit introduit la notion d'Hyperserver, une instance de serveurs de fichiers purement logique, qui peut exister en millions d'exemplaires et qui est distribué sur 4 noeuds maximum. Un seul namespace, maintenu en mémoire, est accessible aux clients, il est distribué entre tous les hyperservers dédiés à la gestion du name space. Ainsi les accès disques sont limités pour favoriser un service rapide des données. Il existe 2 types d'Hyperservers, ceux dédiés aux data space et ceux dédiés au name space. Pour chaque namespace, le système peut maintenir jusqu'à 3 copies des données et l'intégrité est assurée par un mécanisme de scrubbing qui facilite le maintien en conditions opérationnelles.
Le produit permet de créer des Data policies et des Migration policies qui jouent sur le placement de données et le cycle de vie au sein du cluster pour déplacer les données vers le bon sous-ensemble de stockage. Le fonctionnement est super simple grâce à la mise en place du concept de classes de stockage, la policy met en relation la classe et les données entrantes ou existantes au cluster lors d'un besoin éventuel de migration vers une autres classe, moins coûteuse, moins rapide ou simplement plus durable... La policy de Migration est programmable, celles de placement de données entrantes sont actives dés leur création.


Le produit s'installe sur des serveurs x86 très standards qui tournent une distribution Linux 64 bits type Centos 6.4 ou RHEL 6.4. Pour fournir une performance d'accès optimale, Peaxy a envisagé une méthode par client dédié pouvant tiré parti de l'Hyperfiler. Ainsi, sur Linux, l'accès aux données se fait grâce à un mode FUSE, pour Windows un client spécifique est nécessaire et un mode gateway est possible avec Samba.
En terme de protection, Hyperfiler est assez limité puisque seule la réplication au sein du cluster ou entre clusters en mode asynchrone est proposée. Suivant la densité des serveurs, le mode RAID est possible donc des méthodes assez rustiques et pas tournées vers la super scalabilité. Peaxy ne propose pas d'erasure coding par exemple. Cela l'offre semble bien née, le produit existe, Peaxy annonce quelques clients, attendons une confirmation par le marché, le seul juge de paix...
Share:

Monday, October 20, 2014

Hortonworks sort Ozone

Hortonworks (www.hortonworks.com), éditeur de la distribution open source Hadoop Data Platform rencontré à 2 reprises par l'IT Press Tour, dévoile Ozone dans un blog post sur son propre site accessible ici. Ozone est un Object Store qui se veut une extension naturelle de HDFS. HDFS est depuis l'origine synonyme de scalabilité, pour ceux qui en doutent, il suffit de voir les tailles de cluster chez Yahoo ou ailleurs et on comprend par le nombre de noeuds ou la capacité de stockage cumulé ce que cela signifie. Et pour ceux qui n'aiment pas le terme cluster qu'ils estiment réservé à des petites grappes de machines en haute-disponibilité, il se reconnaitront, je maintiens le terme cluster même pour des centaines de noeuds.
HDFS est bien le file system hyper-scalable pour le data lake d'entreprise, il lui restait à devenir Web-scale. Il lui manque certes quelques points comme des fonctionnalités globales géographiques, une dimension key/value (objet)... mais l'adoption est là. Et je ne trahirai rien en insistant sur mon adage constant qu'il n'y a qu'une seule vérité celle du marché qui a toujours raison. Le marché le montre tous les jours, HDFS est le File System le plus prometteur pour les data centers d'entreprise au-delà des file systems des postes de travail ou des serveurs applicatifs, le rouleau compresseur a été lancé dès 2006. Vous le savez, mon préféré des file system était VxFS, je rappelle juste que Veritas a dévoilé VxFS en 1991 avec des fonctionnalités uniques qui sont arrivés que bien plus tard dans les autres systèmes de fichiers.
Il est bon de noter qu'Hortonworks et d'autres acteurs reconnaissent et valident le besoin d'un object store avec l'introduction d'Ozone. Comme beaucoup de réflexions autour des object stores, celle-ci passe par le besoin:
  • de supporter un nombre colossal d'objets (on parle de trillions),
  • de traiter des tailles différentes d'objets allant de quelques Ko à des centaines de Mo,
  • de garantir l'intégrité des données (fondamentale pour les entreprises),
  • d'exposer une API REST pour l'accès et la manipulation des données
  • et de fournir un mécanisme de protection géographique des données.
Hortonworks ajoute à cette liste la contrainte ou la nécessité de s'appuyer sur HDFS. Effectivement, HDFS est largement présent, déployé et éprouvé, il suffira donc d'upgrader sa couche HDFS pour bénéficier d'Ozone. Bien vu.

Ozone s'appuie sur les data nodes HDFS pour supporter des informations autres que des fichiers ici les objets. La notion de bucket est introduite ici, un bucket possède un nom, chaque objet est unique dans un bucket car sa clef est unique par bucket. La fonction de metadata de l'objet, habituelle dans HDFS, sert à identifier et accéder de façon unique à l'objet ainsi le nom du bucket combiné à la clef de l'objet souhaité pointe vers un seul et unique lieu de résidence de la data. Un block sur HDFS appartient exclusivement à un bucket nommé. Nous obtenons un modèle asymétrique, assez similaire au name node HDFS, où il existe des services de metadata qui permet de localiser les data nodes qui hébergent les données elles-mêmes. Pour en savoir plus, je vous renvoie à la page du projet Apache accessible ici, ce n'est à ce jour qu'une proposition. HDFS confirme avec ce développement son rôle central pour le stockage des données d'entreprise de façon finalement universelle de part l'adoption du file system par tout le monde et partout.
Ce message arrive quelques jours après celui de Caringo qui avait déjà annoncé SwarmFS pour supporter HDFS 2+. Le marché se resserre, les acteurs object storage se multiplient, tout le monde veut son offre, il y aura des morts peu d'élus mais le marché est large pour que plusieurs puissent s'exprimer et s'épanouir librement au moins pour un temps. Mais pour le data center d'entreprise du futur, il y aura ceux qui ignorent Hadoop et ceux qui surfent dessus...
Share:

Thursday, October 16, 2014

Scality signe avec HP

Scality (www.scality.com), éditeur de SDS avec son produit RING, annonce un accord global de revente avec HP (http://bit.ly/1pgtioA). Illustrant une nouvelle fois parfaitement que l'innovation vient des petits acteurs agiles et réactifs, le deal démontre la difficulté persistante des géants IT à s'adapter et à fournir une solution en ligne avec les attentes du marché. HP avait acquis Ibrix en 2009 et avait depuis proposer le produit sous différents modes avec la possibilité de l'utiliser en mode objet. Là encore, le terme objet était utilisé pour signifier le mode d'accès à la donnée mais n'impliquait pas une organisation interne du produit dans un tel mode. Le produit était (est) toujours limité à moins de 20PB ce qui n'est pas l'esprit d'une solution objet pensée pour être très évolutive en capacité voire illimité. Scality arrive donc au catalogue HP couplé avec les serveurs ProLiant SL4500 et DL380/360 pour cibler les 5 grands cas d'usage: Active Archives, Content Distribution, Web et Services Cloud, Distributed Computing and Global Enterprise Cloud. A lire les différents supports au sujet de SDS, on comprend la difficulté à définir le terme et le concept, une bonne idée serait simplement de suivre Scality très en ligne avec les attentes du marché et la vraie volonté d'indépendance vis-à-vis du matériel et de la valeur apportée par le logiciel. Nouvelle étape clef pour Scality, nouvelle ère dirons-nous, nouvelle espérance aussi...
Share:

Wednesday, October 08, 2014

Après le SDS voilà le Software-based Storage

Gag ou pas, certains y vont de leur petit discours. Après les errements de Wikibon sur le Server SAN qui finalement se résume à un SDS en mode bloc, voici que Chuck Hollis, dans son post du 9 Septembre, décline le SDS en Software-Based Storage. On croit rêver, on va avoir bientôt le Software-Controlled Storage ou un autre truc du genre comme si nous n'avions pas assez d'acronymes ou de termes que les utilisateurs ne comprennent pas et finalement rangent comme nouveau jargon marketing. Pour lui le SBS est différent du SDS car il tolère et se base sur des serveurs x86 standard. Et boom ! Maintenant le SBS de Chuck Hollis est synonyme du terme Server SAN de Wikibon si on garde le mode bloc. Et que dire si la même approche est conservée avec un mode d'accès fichier ou object, on n'est plus alors en Server SAN mais en Server File ou Server Object. Et que dire des modes unifiés bien réels sur le marché. Quelle pagaille ! Et le gag continue avec un nouvel acronyme qu'IDC aurait sorti le SDS-P pour Software-Defined Storage Platform. Disons tout net, si c'est pour considérer des unités de stockage qu'on vient agréger, virtualiser, "pooler", segmenter alors il s'agit de Virtualisation de Stockage. Nous connaissons ça depuis la fin des années 90 avec DataCore, FalconStor, Store-Age, StorageApps... pour parler du mode bloc. Nous nous souvenons du FAN (File Area Network) qui avait tenté de décliner le SAN pour la partie fichier avec quelques acteurs comme Acopia, Attune, Nuview, NeoPath ou Rainfinity. Admettons que les travaux récents et les initiatives à base d'API REST influent un peu le modèle et alors nous obtenons une version 3 du même concept. Tous les acteurs qui viennent du stockage matériel ont le même souci, ils ne comprennent et n'admettent pas que l'on puisse faire du stockage avec des serveurs équipés de disques internes et plus avec des baies de disques. C'est incroyable, Chuck Hollis vient d'EMC qui a acquis FilePool en 2001 (cf. mon post en Mai 2007) pour devenir Centera et c'était déjà l'approche d'unités de serveurs indépendantes avec des disques internes. Il existe bien Atmos chez EMC... Et l'article de Chuck est encore plus éloquent quand il évoque les modes de protection avec 2 copies au sein des serveurs. Si vous faites une recherche sur le terme RAIN, il n'y a rien non plus. Et pourtant Rainfinity a été achetée par EMC en 2005 ayant prolongée des travaux de la NASA (cf. mon post d'Avril 2006 ou de Février 2007). Belle confusion qui continue à être alimentée par ce type de post, allez, disons presque inutile. C'est navrant...
Share: