Stockage et gestion des données : les étapes clés en 2015

Du côté d’Hitachi Data Systems, on s’intéresse aux nouvelles tendances pour l’année 2015 et plus particulièrement au marché du stockage et de la gestion des données.

Une collaboration plus étroite entre l’informatique et les métiers par les biais des quatre grandes tendances que sont

Hu Yoshida, Vice-Président et CTO d’Hitachi Data Systems

Hu Yoshida, Vice-Président et CTO d’Hitachi Data Systems

la mobilité, le cloud, les réseaux sociaux et le Big Data devrait se développer cette année. Les DSI vont consacrer un budget plus important aux initiatives commerciales et les entreprises contrôleront d’avantage les dépenses liées à l’informatique. Afin de se focaliser sur les résultats plutôt que sur l’infrastructure, les entreprises vont adopter des solutions capables de faire converger, de coordonner, d’automatiser et d’intégrer leur infrastructure.

Avec l’adoption de l’informatique métier, les entreprises cherchent des solutions capables de s’intégrer aux systèmes et à la pile applicative et c’est dans ce contexte que les plates-formes convergées et hyperconvergées apportent une aide précieuse. En effet, les services qu’offrent les plates-formes convergées permettent d’être personnalisées, coordonnées et optimisées à partir d’un tableau de bord unique. La concurrence faisant loi, la baisse des tarifs d’entrée de gamme, l’intégration plus étroite entre les logiciels et l’infrastructure ainsi que l’imbrication d’hyperviseurs vont pousser les petites et moyennes entreprises à assimiler les plates-formes convergées et hyperconvergées.

Gestion et automatisation sont deux critères que les entreprises vont rechercher au cours de l’année. De nouvelles fonctionnalités comme la surveillance des exceptions, la génération d’alertes, l’analyse de la cause des problèmes et l’application automatique de mesures correctives vont permettre de gagner un temps précieux au profit de la sécurité et de la prévention.

Le Software Defined devrait de plus en plus accaparer les esprits des éditeurs avec la commercialisation de nombreux produits. Etape obligatoire dans la simplification et l’automatisation de l’architecture informatique, ce concept devrait créer de nombreuses sociétés avec des logiciels de classe entreprise couplés à du matériel de base peu onéreux.

La virtualisation du stockage globale va permettre, par le simple fait de s’étendre à des systèmes de stockage distants gérant des machines virtuelles accessibles par plusieurs systèmes physique, d’assurer les objectifs en matière de sauvegarde et de disponibilité.

La protection des données et leur sauvegarde en rapport avec le volume de données toujours plus lourds augmentent la durée maximale d’interruption admissible (DMIA) et la perte de données maximale admissible (PDMA). Les entreprises vont donc chercher de nouvelles techniques pour éviter ces interruptions comme par exemple l’utilisation intensive des archives actives pour réduire la plage de travail nécessaire à la reprise, l’utilisation accrue d’instantanés et de clones basés sur des technologies de copie légères ou le stockage à l’état d’objet des données non structurées à répliquer mais pas à sauvegarder.

2015 va être l’année où les entreprises vont chercher à optimiser l’intelligence des modules flash qui offrent une puissance de traitement pouvant répondre aux exigences en matière de performances, de durabilité et de capacité.

Mots sur toutes les lèvres, Big Data et Internet des objets vont avoir un réel impact sur nos vies. Grâce à la multitude de données générées par l’IoT, le Big Data de demain par des solutions d’analyse comme SAP HANA ou Hadoop et les plates-formes convergées et hyperconvergées, va devenir un outil pour simplifier, améliorer et optimiser le quotidien.

Conséquence direct du Big Data, les constructeurs de système de stockage et de calcul évolutif vont devoir s’adapter pour faire face à la multiplication des données non structurées et à l’intérêt qu’elles présentent pour l’analyse. Ces sources de données accessibles par les interfaces web et fichiers vont demander une protection et une sauvegarde ainsi qu’une restauration en cas d’incidents. L’open Source va permettre d’abaisser les coûts des licences et optimiser les systèmes de calcul.

Le cloud continue de séduire les entreprises et le cloud hybride alliant cloud privé et public devient l’option privilégiée pour stocker les données du Big Data et de l’Internet des objets peu souvent utilisées. Un lien est donc indispensable entre cloud privé qui conserve les données utilisées fréquemment ou sensibles et le cloud public qui permet de profiter d’un stockage à moindre coût. Via des protocoles RESTful, il devient aisé d’opérer des transferts de vases communicants.

Source : itpro.fr

Share