© APPEX 2012 - Reproduction interdite sans autorisation écrite préalable
APPEX, 42, Rue Galilée 75016 PARIS - Fixe : +33 (0) 1 49 24 93 61 Page 1 / 2
Virtualisation de bases de données : régime sec pour le Big Data !
Source : IT Business Edge,
Auteur : Jed Hueh, CEO DELPHIX
Date : 18 juillet 2012
Les entreprises sont saturées par des volumes de
données en croissance constante.
Les Data Centers ingèrent des données issues d'une
multitude de sources qui, elles-mêmes augmentent
chaque année.
Les utilisateurs aujourd'hui génèrent et consultent de
grands volumes de données à partir de supports
variés : smartphones, tablettes tactiles, ordinateurs
personnels portables ou fixes, ou serveurs.
Les satellites, capteurs, signaux GPS, réseaux sociaux,
appareils photos et caméras, tous contribuent à
enrichir, en volumétrie, le Big Data.
De nouvelles technologies ont émergé pour gérer
toutes ces données (Hadoop, NoSQL, etc.).
Ces nouvelles technologies ne sont pas parvenues
encore à traiter efficacement la source la plus
importante, et certainement la plus onéreuse du Big
Data dans les entreprises aujourd'hui : les applications
qui accèdent aux bases de données relationnelles.
Le commerce mondial dépend étroitement de ces
applications qui accèdent à ces bases, comme les
ERP, le CRM, la Business Intelligence, les sites de
commerce électronique, etc.
Les bases de données de l’entreprise constituent un
patrimoine informationnel vital. Il est de la
responsabilité du département informatique de le
maintenir et de le protéger des agressions potentielles.
De manière à se prémunir, entre autres, contre les
incidents des applications en production, les
organisations informatiques créent des environnements
structurés, en couches, pour le développement, les
tests, l'assurance qualité, l'intégration, le reporting
opérationnel, la formation et les projets pilotes. Puis, les
organisations informatiques créent des copies
supplémentaires de tous ces environnements pour les
sauvegardes et les restaurations en cas de sinistre.
Une base de production, unique, d'1To, peut facilement
générer 30 To au regard de cette succession de
couches supplémentaires. Cette masse de données
finale n’a pour conséquence que d’augmenter la
quantité de matériel nécessaire et peut parfois étouffer
certaines organisations informatiques.
Une fois crée un environnement de développement ou
de test, celui-ci peut aussitôt devenir obsolète, ne
reflétant plus les derniers enregistrements de
l'environnement de production. En conséquence de
quoi, les organisations informatiques doivent rafraîchir
ces environnements, distribuant les données d'un lieu à
un autre. Dans le but de sauvegarder ces
environnements, des copies systématiques doivent être
réalisées de manière journalière ou hebdomadaire,
ajoutant encore une manipulation supplémentaire au
niveau des données.
Chaque rafraîchissement des données, sauvegarde ou
restauration ajoute une charge sur les serveurs, les
baies de stockage, le réseau, et se conclut par une
copie redondante des données. La gestion de cette
diffusion de données nécessite des efforts coordonnés
d'équipes informatiques multiples : les DBAs de
production, les gestionnaires d'infrastructures, les
administrateurs système, les DBAs projet.
Toutes ces différentes couches et ces multiples tâches
alourdissent considérablement les charges et les
processus des organisations informatiques, ralentissant
leur capacité d'innovation et limitant l’agilité des
Directions Métiers à répondre à des opportunités
commerciales ou à des menaces de la concurrence.
C'est l’une des principales raisons du retard et du
dépassement de budgets des projets informatiques.
Ces dernières années, les technologies de virtualisation
ont participé à la transformation des data centers, en
consolidant des CPUS et des serveurs sous-utilisés et
en réduisant les coûts et les délais de mise à
disposition des serveurs. L’adoption de cette notion de
virtualisation dans l’écosystème des bases de données
a connu une forte résistance et offert de faibles retours
sur investissement. Aujourd'hui, l'opportunité majeure
pour la virtualisation et la consolidation n'est plus au
niveau du serveur mais au niveau des données. C’est
tout le positionnement de Delphix.