NetApp Data Fabric ou comment garder le contrôle de ses données
Le défi du cloud hybride : relier et gérer les données issues d’environnements différents. Pour NetApp c’est via Data Fabric.
Aujourd’hui, selon IDC, le premier facteur à retarder les déploiements dans le cloud est l’incapacité à gérer les données à la fois dans des environnements sur site et dans le cloud. C’est aussi l’avis de NetApp.
«Les départements IT ne combinent pas de la même manière les systèmes de stockage, de calcul et d’infrastructure sur le cloud et dans le data center, explique Sven Schoenaerts, Managing Director, Benelux Area, NetApp. La gestion et le stockage des données dans les diverses ressources sont difficiles. Vous pouvez externaliser les calculs ou les applications. Toutefois, dès que vous générez des données, c’est à vous de les contrôler tout au long de leur existence. Contrôler les données dans votre data center est une chose, mais les contrôler lorsqu’elles se trouvent sur plusieurs environnements en est une autre…»
On s’en doute, les éléments les plus problématiques à contrôler concernant la gestion des données, entre autres la protection des données, les performances des applications et la gouvernance des données. Dans tous les cas, le problème est le manque de contrôle : une fois que les données ont quitté le data center de l’entreprise, les départements IT ont très peu de contrôle ou de visibilité sur la protection des données, leur gouvernance ainsi que les niveaux de service fournis pour assurer leur disponibilité.
De plus, chaque fournisseur de services utilise des plateformes, protocoles ou technologies différents pour les données. Par exemple, le stockage des données peut varier d’un fournisseur de services à un autre, ce qui peut influencer le mode de stockage dans le data center de l’entreprise et entraîner des divergences.
Il ne suffit pas de savoir transférer les données du cloud public vers le data center de l’entreprise. Les départements IT doivent être en mesure de déplacer des données entre les clouds publics, mais aussi depuis et vers leur cloud privé, de manière à pouvoir s’adapter aux besoins à mesure que ces derniers changent et à optimiser les avantages de la flexibilité et de l’évolutivité du cloud.
«La valeur des données n’est effective que si elles se trouvent au bon endroit, au bon moment, insiste Sven Schoenaerts. Il est essentiel de savoir gérer les données dans divers environnements cloud et de les importer ou les exporter selon les besoins, tout comme il est essentiel d’être cohérent pour faire des économies d’échelle et être souple à ce niveau-là aussi.»
Les entreprises comptent sur leurs fournisseurs de services cloud pour pouvoir déplacer leurs données. Cette attitude peut expliquer les difficultés rencontrées dans la gestion des données à travers différentes plateformes et applications (sur site et dans le cloud). Ici encore, IDC nous apprend que les principaux facteurs d’évaluation des solutions de cloud hybride sont multiples : l’intégration des technologies de différents fournisseurs, la gestion et le contrôle des données dans des clouds privés et publics, et le contrôle de la croissance des données et des coûts associés.
Les services de cloud computing sont en perpétuelle évolution et les fournisseurs offrent de nouvelles options. Cependant, il n’est pas toujours dans leur intérêt de permettre la mobilité des données. Comme les départements IT jouent de plus en plus le rôle de courtiers en services dans l’entreprise, c’est à eux de prendre les commandes et de veiller à ce que les technologies des différents fournisseurs s’intègrent en toute transparence.
Avec Data Fabric, NetApp propose un cadre dans lequel les données, les applications et les ressources peuvent être déplacées entre le data center et le cloud public ou entre différents fournisseurs de services cloud. En somme, une manière cohésive et bien intégrée de gérer des données d’entreprise indépendamment de l’infrastructure sur laquelle elles résident. Car sans approche commune, insiste Sven Schoenaerts, l’environnement informatique peinera toujours à harmoniser les pratiques de gestion des données sur de multiples silos de données isolés et incompatibles. «L’idée n’est pas de simplement copier les données dans le cloud -pour les utiliser en DevOps, pour des back-up ou des plans de reprise d’activité- en utilisant toute la bande passante disponible, mais de travailler sur l’optimisation de la données avec déduplication et compression pour un snapshot incrémental avant de transporter les informations clefs et éviter les transferts inutiles.»
NetApp Data Fabric repose sur 3 éléments clés
> Gestion des données communes – Ce modèle opérationnel commun pour les données offre une cohérence d’exécution, et renforce l’efficacité et le contrôle informatiques. Les entreprises peuvent appliquer leurs pratiques opérationnelles et professionnelles à l’ensemble du cloud, ce qui élimine tout problème de protection ou de gouvernance des données.
> Transfert des données communes – Cette capacité à déplacer des données d’un cloud à un autre permet de les positionner au bon endroit au bon moment et de les mettre à disposition des applications de la manière la plus efficace et la plus économique. Les équipes ICT sont alors en mesure de créer des solutions cloud innovantes et d’éviter toute dépendance envers un fournisseur de services.
> Format de données commun – Ce format supprime le besoin de réécrire des applications pour le cloud. Le déplacement des données à l’échelle de l’entreprise peut présenter des difficultés. Par ailleurs, la réécriture de données est un processus très lourd et onéreux. En disposant d’un format de données commun, les équipes IT peuvent déplacer les applications vers le cloud plus rapidement ou les déplacer entre les plateformes cloud pour optimiser les résultats de l’entreprise.