La virtualisation du stockage résume le stockage physique de plusieurs périphériques dans un pool logique unique géré de manière centralisée.

Qu’est-ce que la virtualisation du stockage ?
Rangements la virtualisation est une couche d'abstraction définie par logiciel qui découple application- volumes de stockage visibles à partir des supports physiques et des interconnexions sous-jacents.
Au lieu d'applications s'adressant à des disques ou à des baies spécifiques RAID groupes, ils lisent et écrivent sur des volumes virtuels dont les adresses de blocs logiques sont mappées à des extensions réparties sur plusieurs périphériques et niveaux. Cette indirection permet provisionnement dynamique, instantanés de copie sur écriture, clones, hiérarchisation et réplication basée sur des politiques indépendantes de toute baie unique.
La couche de virtualisation peut s'exécuter dans l'hôte, dans la structure du réseau ou sur la baie elle-même, mais dans tous les cas, elle sépare le plan de contrôle (allocation, placement, services de données, QoS, et les politiques de résilience) du plan de données (I / O chemin), exposant un stockage uniforme tout en orchestrant le placement à travers SSD, Disques durset cloud/backends d'objets.
Types de virtualisation du stockage
Voici les principaux types de virtualisation du stockage et leur fonctionnement :
- Virtualisation au niveau des blocs (SAN)La virtualisation au niveau des blocs présente des LUN/volumes virtuels à servers tout en les mappant à des blocs physiques en arrière-plan. Il permet également le provisionnement léger, les snapshots, la réplication et la migration sans interruption des données entre baies hétérogènes. Ce type de virtualisation du stockage est principalement utilisé pour bases de données, VM magasins de données, et latence-charges de travail sensibles.
- Virtualisation au niveau des fichiers (NAS/Espace de noms global)La virtualisation au niveau des fichiers regroupe plusieurs fichiers servers/exporter les chemins vers un seul espace de noms (par exemple, \corp\projects ou /mnt/data), en redirigeant les clients vers la bonne backend Partage transparent. Simplifie l'extension de capacité et la migration des données sans modifier les points de montage client. Convient aux répertoires personnels et aux contenus non structurés.
- Object storage virtualisation. Object storage la virtualisation expose des buckets de type S3/Swift tout en distribuant des objets sur des nœuds ou des niveaux (sur site et/ou cloud). Métadonnées Les services localisent les objets, permettant la géoréplication, les politiques de cycle de vie et le codage d'effacement. Il est idéal pour backups, archives, données analytiques et cloud-originaire de applications.
- Basé sur l'hôte (in-kernel ou pilote) virtualisationIl s'agit d'une couche logicielle sur le server (par exemple, LVM, device-mapper, ZFS, mdraid, espaces de stockage) qui compose des volumes virtuels à partir de périphériques locaux/distants. Il offre des snapshots, RAID, la mise en cacheet chiffrement proche de la charge de travail et facile à automatiser par hôte ou cluster.
- Virtualisation basée sur une matrice (côté contrôleur)Les contrôleurs de la baie virtualisent les capacités internes et externes, en mutualisant les disques, les étagères et même certaines baies tierces derrière un plan de gestion unique. Cette solution offre des services de données riches avec une latence minimale et est courante dans les SAN d'entreprise.
- Virtualisation basée sur le réseau (appliance ou fabric)Un module d'appliance intrabande ou de commutateur (fabric) se situe entre les hôtes et les baies de stockage, regroupant plusieurs systèmes back-end dans un seul pool virtuel. Il est particulièrement adapté à la consolidation hétérogène et aux migrations sans interruption, et centralise les politiques et la qualité de service. On parle souvent de virtualisation SAN.
- HyperconvergéVirtualisation de style /vSAN. Des grappes de x86 les nœuds regroupent les NVMe/SSD/HDD directement connectés dans une banque de données partagée et distribuée via le hyperviseur ou couche de stockage (par exemple, vSAN, HCI de style Nutanix, Ceph RBD). Il Balance linéairement, colocalise calcul et stockage, et prend en charge les politiques de stockage par machine virtuelle pour les performances et la résilience.
- Virtualisation de mise en cache/hiérarchisation. Ce type de virtualisation insère une couche de virtualisation qui favorise les données chaudes vers des supports plus rapides (RAM/NVMe) et rétrograde les données froides vers des niveaux plus économiques (disque dur/objet). Il fonctionne également à la granularité des blocs ou des fichiers pour équilibrer automatiquement le coût par gigaoctet et la performance.
- Cloud virtualisation passerelle/hybride. La virtualisation hybride présente des interfaces de blocs/fichiers locaux tout en hiérarchisant ou en mettant en miroir les données cloud magasins d'objets (S3, Azure Blob, etc.). Il offre des performances locales avec cloud élasticité, plus instantanés interrégionaux et reprise après sinistre.
- Bibliothèques de bandes virtuelles (VTL). Émule une bibliothèque de bandes pour backup logiciel lors du stockage des données sur disque ou object storageCela préserve les flux de travail centrés sur la bande et les attentes en matière de conformité, tout en permettant des restaurations et des cloud hiérarchisation.
Qu’est-ce qu’un exemple de virtualisation du stockage ?
Imaginez une entreprise qui possède deux baies de stockage différentes dans son data center; un ancien système en fin de vie et un nouveau système 100 % flash. Ils insèrent une appliance de virtualisation (ou module fabric) dans le chemin d'E/S SAN. L'appliance découvre les deux baies, mutualise leur capacité et présente les LUN virtuels à un cluster VMware via Fibre Channel.
Chaque LUN virtuel est alloué de manière dynamique et mappé aux tables d'extensions gérées par l'appliance. Les VM continuent de lire et d'écrire sur les mêmes identifiants de périphérique, tandis que l'appliance migre à chaud les extensions de l'ancienne baie vers la nouvelle en arrière-plan, limitant les taux de copie pour éviter les pics de latence. Les snapshots et les politiques de réplication sont appliqués au niveau de la couche virtuelle, indépendamment de chaque baie.
Une fois la migration terminée, l'ancien tableau est détaché sans aucun invité les temps d'arrêt, et la future extension ajoute simplement plus d'étagères backend sans modifier les mappages d'hôtes.
Comment fonctionne la virtualisation du stockage ?
La virtualisation du stockage insère une couche logicielle entre les applications et les disques physiques, traduisant chaque lecture/écriture logique en opérations sur les périphériques sous-jacents. Les hôtes voient les volumes virtuels (LUN, partages ou buckets), tandis qu'un service de métadonnées conserve des tables de mappage reliant chaque bloc, fichier ou objet logique à des extensions physiques réparties sur des disques, des nœuds, des niveaux, voire des volumes. clouds. Lors des E/S, le chemin de données consulte ces métadonnées pour acheminer les requêtes, les fusionner et appliquer des services de données (mise en cache, compression, chiffrement, QoS) avant de les valider sur le support.
À un niveau élevé, il y a deux plans coopérants.
- plan de contrôle provisionne les volumes, définit les politiques (facteur de réplication, disposition du codage d'effacement, planifications de snapshots, règles de placement, quotas par locataire) et met à jour les métadonnées de mappage à mesure que la capacité est ajoutée ou que les données sont déplacées.
- plan de données gère le chemin rapide et conserve les journaux d'écriture ou les journaux d'intention pour la cohérence des pannes, place les écritures en fonction des politiques (par exemple, miroir sur deux domaines de pannes ou bande + parité), reconnaît lorsque les critères de durabilité sont remplis et effectue ensuite des déplacements vers des emplacements optimaux (NVMe → SSD/HDD → objet).
Les lectures consultent d'abord les caches (RAM/NVMe), puis récupèrent les extensions nécessaires. Ainsi, s'il existe plusieurs réplicas, le système choisit celui présentant la latence la plus faible et rééquilibre les points chauds en favorisant les extensions fréquemment utilisées.
La virtualisation peut être hébergée sur l'hôte (par exemple, LVM/ZFS), sur le réseau (appliances de virtualisation SAN ou modules fabric) ou sur la baie/le cluster lui-même (contrôleurs scale-out ou nœuds hyperconvergés). Quel que soit son emplacement, la couche expose des protocoles standards, tels que le bloc sur iSCSI/FC/NVMe-oF, le fichier sur NFS/SMB et l'objet sur S3. Apis, afin que les applications ne changent pas. Grâce à l'indirection du mappage, le système peut migrer les données sans interruption (repointer les extensions dans la table), augmenter ou réduire instantanément les volumes (provisionnement léger), prendre des instantanés via la copie/redirection à l'écriture, hiérarchiser les données sur les supports et appliquer une gestion par charge de travail. SLAs.
La résilience provient de la réplication ou du codage par effacement des données dans les domaines de défaillance et de l'utilisation de méthodes rapides. basculement Les métadonnées permettent de remapper les E/S autour des composants défaillants. Les principaux compromis concernent la mise à l'échelle des métadonnées et les sauts supplémentaires si la couche est en bande passante. Sa conception atténue ce problème grâce à des cartes d'étendue compactes, un consensus distribué pour la durabilité des métadonnées et matériel accélération sur les chemins chauds.
À quoi sert la virtualisation du stockage ?

Voici à quoi servent généralement les organisations à utiliser la virtualisation du stockage et pourquoi elle est utile :
- Consolidation et mutualisation des capacités. Une couche de virtualisation regroupe des disques et des baies disparates dans un pool logique unique, permettant ainsi la découpe de volumes à la demande, une utilisation plus élevée et moins de silos.
- Migration de données sans interruption. Le remappage des métadonnées déplace les données en direct entre les tableaux, les niveaux ou les sites tout en gardant les ID de périphérique stables afin que les hôtes/VM restent en ligne.
- Provisionnement léger et sursouscription. Les volumes virtuels présentent des tailles logiques importantes mais consomment de l'espace physique uniquement en écriture, ce qui retarde les achats et simplifie la croissance.
- Instantanés, clones et développement/test rapide. La copie sur écriture/redirection sur écriture crée des copies instantanées et peu encombrantes pour backups, récupération à un instant T et environnements CI/dev.
- Réplication et reprise après sinistre. La réplication synchrone/asynchrone basée sur des politiques (souvent par volume ou machine virtuelle) répond RPO/RTO cibles à travers racks, chambres ou régions.
- Hiérarchisation et mise en cache sur tous les supports. Les moteurs de placement conservent les données chaudes sur NVMe/SSD et les données froides sur HDD/objet pour équilibrer les performances et les coûts au niveau de la granularité des blocs ou des fichiers.
- Isolation des performances et QoS. Les limites/réservations par locataire ou par volume sur les IOPS, le débit et la latence empêchent les effets de voisinage bruyant dans a partagé la publication de successions.
- Espace de noms global pour les fichiers. Un seul chemin NFS/SMB s'étend sur plusieurs têtes NAS, permettant une extension transparente et des remaniements du backend sans remontage du client.
- Hybride/multi-cloud mobilité des données. Un bloc/fichier local frontend hiérarchise ou met en miroir les données cloud magasins d'objets, permettant cloud l'éclatement, la reprise après sinistre et le stockage d'archives à long terme.
- Ransomware résilience et conformité. La couche de virtualisation du stockage combine des instantanés immuables, des répliques isolées et un chiffrement de bout en bout avec une auditabilité centralisée.
- Croissance évolutive. L'ajout de nœuds ou d'étagères augmente la capacité et les IOPS de manière linéaire tandis que le rééquilibrage en arrière-plan redistribue les étendues.
- Gestion unifiée et automatisation. Un plan de contrôle unique standardise les opérations de provisionnement, de surveillance et de cycle de vie via des API/plug-ins sur des fournisseurs et des protocoles hétérogènes.
Comment la virtualisation du stockage est-elle mise en œuvre ?
Voici un guide pratique pour la mise en œuvre de la virtualisation du stockage :
- Définir les exigences et les SLACela inclut les charges de travail d'inventaire, les profils d'E/S (IOPS/latence/débit), la croissance de la capacité, le RPO/RTO, la conformité et les besoins de chiffrement pour piloter l'architecture et les politiques.
- Choisir le modèle de virtualisation. Choisissez entre un système basé sur l'hôte (par exemple, LVM/ZFS), basé sur une baie, un réseau/une structure (appliance ou module SAN), un système hyperconvergé/vSAN ou un système hybride avec cloud hiérarchisation basée sur la latence, l'hétérogénéité et le budget.
- Concevoir la topologie et les services de donnéesCartographiez les domaines de pannes (racks/salles/sites), choisissez les schémas de protection (RAID/codage d'effacement/réplication), les niveaux de mise en cache, la cadence des snapshots et le mode de réplication (synchronisation/asynchronisation) alignés sur les SLA.
- Préparer l'infrastructure. Valider commutateurs/fabric (FC/iSCSI/NVMe-oF), MTU/contrôle de flux, zonage/VSAN/VLAN, synchronisation horaire et multivoie. Confirmer firmware/driver/DSM/HBA versions et paramètres de l'initiateur hôte.
- Déployer le plan de contrôle. Installez/regroupez les contrôleurs de virtualisation/services de métadonnées, activez le consensus/quorum et sécurisez l'accès à la gestion (RBAC (Contrôle d'accès basé sur le rôle), MFA, ACL, certificats).
- Créer des pools de stockage et des classesRegroupez les périphériques/tableaux en niveaux, activez la compression/déduplication le cas échéant et définissez des classes de stockage (par exemple, Gold NVMe, Silver SSD, Bronze HDD) avec des règles QoS/de placement explicites.
- Intégrer identité et accès. Configurez le zonage CHAP/FC/les groupes d'hôtes, les politiques d'exportation (NFS/SMB), l'isolation des locataires et le chiffrement au repos/en vol (intégration KMIP/KMS).
- Volumes/parts/seaux de provisionnementActivez le provisionnement léger, définissez des limites ou des réservations d'IOPS/débit, attribuez des stratégies de snapshot et de rétention et étiquetez les ressources en fonction du coût/de la présentation.
- Intégration et cheminement de l'hôte. Découvrez les cibles, configurez le multipath DM-Multipath/MPIO/NVMe, enregistrez les hôtes/WWPN/IQN et formatez/montez avec les systèmes de fichiers appropriés (XFS/EXT4/NTFS/ZFS).
- Plan et projet pilote de migration des donnéesChoisissez une méthode de migration (copie de bloc, réplication, parcours d'arborescence au niveau des fichiers ou de type stockage vMotion), exécutez un pilote représentatif, mesurez l'impact et validez la restauration.
- Exécuter une migration par étapesRéduisez les taux de copie, maintenez la cohérence (fenêtres de capture/coupure ou miroir synchrone), maintenez les ID de périphérique/points de montage stables et vérifiez l'état de l'application après chaque vague.
- Tests de résilience et de défaillanceSimulez les pannes de contrôleur/nœud/disque/structure. Confirmez les temps de haute disponibilité/basculement, les restaurations de snapshots et les runbooks de reprise après sinistre (basculement/retour arrière) conformes aux objectifs RPO/RTO.
- Observabilité et alerteConnectez-vous à la surveillance (exportateurs/API), définissez des SLO et des alertes pour la latence, la profondeur de la file d'attente, le taux de réussite du cache, le temps de reconstruction, le décalage de réplication et la marge de capacité.
- Automatisation et garde-fous. Exposer les flux de travail IaC/SDK (Ansible/Terraform/PowerShell), implémentez des quotas, des contrôles d'admission et des vérifications de politique pour empêcher les voisins bruyants et le provisionnement léger incontrôlable.
- Documentation et formationPubliez des guides d'exploitation pour le provisionnement, l'extension, la réponse aux incidents et la reprise après sinistre. Formez également les équipes opérationnelles et applicatives aux flux de demandes et aux portails en libre-service.
- Optimisation et gouvernance continuesConsultez les cartes thermiques, rééquilibrez les niveaux, optimisez la qualité de service (QoS), effectuez la rotation des clés/certificats et suivez le coût par To/IOPS pour la rétrofacturation. Planifiez les mises à jour du cycle de vie et les augmentations de capacité.
Avantages et inconvénients de la virtualisation du stockage
La virtualisation du stockage rationalise la manière dont la capacité est fournie, mais elle introduit également des compromis en matière de conception et d'exploitation.
Quels sont les avantages de la virtualisation du stockage ?
Voici ce que les équipes gagnent généralement grâce à la virtualisation du stockage :
- Meilleure utilisation de la capacité mutualisée. Résume de nombreux périphériques/tableaux dans un seul pool afin que l'espace libre soit partagé, réduisant ainsi les To bloqués et reportant les nouveaux achats.
- Croissance et migrations non perturbatricesLes volumes peuvent être étendus instantanément et les données peuvent être déplacées entre les niveaux/tableaux en remappant les étendues, évitant ainsi les temps d'arrêt des applications.
- Provisionnement léger et efficacité de l'espace. Alloue des blocs physiques uniquement en écriture. Lorsqu'il est combiné avec compression/déduplication, cela réduit l'encombrement et le coût par charge de travail.
- Instantanés et clones rapides et peu encombrants. La copie sur écriture/redirection sur écriture permet des backups, restaurations ponctuelles et copies de développement/test rapides avec une surcharge minimale.
- Hiérarchisation et mise en cache intelligente. Place automatiquement les données chaudes sur NVMe/SSD et les données plus froides sur le disque dur/objet pour équilibrer les performances et le rapport $/Go.
- Amélioration de la résilience et de la protection des donnéesPermet le codage de réplication/d'effacement sur les domaines de pannes, ainsi que les restaurations instantanées à partir d'instantanés immuables, renforçant ainsi le RPO/RTO.
- Isolation des performances avec QoSLes limites/réservations par volume ou par locataire empêchent les voisins bruyants de dégrader les charges de travail critiques.
- Gestion unifiée à travers l'hétérogénéitéUn plan de contrôle et une API automatisent le provisionnement, les politiques et la surveillance entre différents fournisseurs et protocoles.
- Hybride/multi-cloud mobilitéLes politiques peuvent hiérarchiser ou refléter les ensembles de données pour cloud object storage pour l'archivage, la reprise après sinistre ou la capacité d'éclatement sans modifier les montages d'application.
- Simplification et automatisation opérationnelles. Flux de travail standardisés (IaC/SDK) et le placement basé sur des politiques réduisent billet charge et erreur humaine tout en accélérant la livraison.
- Des performances évolutivesLes architectures évolutives ajoutent des contrôleurs/nœuds pour augmenter les IOPS/le débit de manière linéaire à mesure que la capacité augmente.
Quels sont les inconvénients de la virtualisation du stockage ?
Voici les principaux défis à surveiller avec la virtualisation du stockage :
- Latence et surcharge ajoutéesLa couche d'indirection (recherches de mappage, services de données, sauts de réseau) peut introduire des délais de l'ordre de la microseconde à la milliseconde et Processeur coût, ce qui peut avoir un impact sur les charges de travail sensibles à la gigue.
- Échelle et cohérence des métadonnéesLes cartes étendues et les arbres d'instantanés sollicitent les services de métadonnées. Les conceptions nécessitent un partitionnement, une journalisation et un quorum rigoureux pour éviter les goulots d'étranglement ou la corruption après des pannes.
- Dépannage de la complexitéLes E/S traversent désormais les hôtes, la structure, les contrôleurs, les caches et les politiques. L'identification des points chauds ou des sources de latence nécessite une observabilité approfondie et une télémétrie corrélée entre les couches.
- Domaines de défaillance et rayon d'explosionLes contrôleurs centraux ou les structures partagées peuvent devenir des points critiques. Des réplicas mal placés ou un codage d'effacement mal configuré peuvent concentrer les risques au sein d'un même rack, d'une même rangée ou d'un même site.
- Voisin bruyant et dérive de la qualité de service.Conflit pour le cache, les files d'attente ou le backend bande passante Peut se propager entre les locataires. Une qualité de service mal réglée entraîne une latence imprévisible sous charge ou lors des reconstructions.
- Risque de provisionnement légerUn abonnement excessif sans alertes strictes ni politiques d'extension automatique peut entraîner des événements de manque d'espace, des échecs d'écriture ou des achats de capacité d'urgence.
- Prolifération des instantanés/réplicationsLa création rapide de copies est simple, mais la gestion du cycle de vie est complexe. Les snapshots orphelins et les réplicas excessifs augmentent la capacité, les délais de reconstruction et l'exposition aux RPO/RTO.
- Reconstruire et resynchroniser la douleurLes pannes de disque/nœud ou le rééquilibrage après une mise à l'échelle peuvent saturer les E/S du backend, dégradant ainsi les performances du premier plan, à moins qu'elles ne soient limitées et planifiées.
- Interopérabilité et verrouillage du fournisseurLes baies hétérogènes et les protocoles mixtes (FC/iSCSI/NVMe-oF/NFS/SMB/S3) ne se comportent pas toujours de manière uniforme, de sorte que les fonctionnalités propriétaires peuvent piéger des données ou limiter les options de migration.
- Sécurité et gestion des clésLe chiffrement omniprésent augmente la charge opérationnelle. La perte de clés ou une faible intégration KMIP/KMS compromet la capacité de récupération et la conformité.
- Risque de mise à niveau et de plan de contrôle. Mises à niveau progressives, incompatibilités de micrologiciel ou schéma les modifications peuvent perturber les chemins de données si elles ne sont pas mises en scène avec canaris et des basculements testés.
- Goulots d'étranglement du réseau/de la structureLes liens sous-provisionnés, les problèmes de zonage ou de contrôle de flux (par exemple, les tempêtes PFC, les ToR/leaf-spine sursouscrits) apparaissent comme une latence de stockage plutôt que comme des alarmes réseau évidentes.
- Prévisibilité des coûtsLicences par To/fonctionnalité, variabilité de réduction des données et cloud la sortie pour les niveaux hybrides complique TCO modélisation et showback/chargeback.
- Complexité de sortie et de récupérationLe déplacement d'une couche de virtualisation (ou la restauration après une panne catastrophique) peut nécessiter de longues copies au niveau des blocs, des outils spécialisés et des basculements soigneusement planifiés.
FAQ sur la virtualisation du stockage
Voici les réponses aux questions les plus fréquemment posées sur la virtualisation du stockage.
Quelle est la différence entre Server et la virtualisation du stockage ?
Examinons les différences entre server et la virtualisation du stockage.
| Aspect | Server virtualisation | Virtualisation du stockage |
| Objectif principal | Exécutez de nombreuses instances de calcul isolées (VM/conteneurs) sur du matériel partagé. | Regroupez et résumez la capacité/performance de nombreux périphériques/tableaux dans des volumes/partages/buckets logiques. |
| Qu'est-ce qui est virtualisé | CPU, mémoire, vNIC, firmware/périphériques virtuels. | Blocs (LUN), fichiers (espace de noms NAS) ou objets (buckets) et leurs services de données. |
| Unité d'abstraction | VM/vCPU/RAM (et parfois conteneurs via un hyperviseur). | Volume/LUN, système de fichiers/partage ou bucket d'objets. |
| Placement de la couche | Sur l'hôte (hyperviseur) avec cluster de gestion facultatif. | Hôte (LVM/ZFS), baie/contrôleur, dispositif réseau/fabric ou cluster évolutif. |
| Plan de données | E/S invité → hyperviseur vSwitch/vHost → carte réseau/HBA physique. | Hôte → couche de virtualisation → étendues mappées sur les disques/nœuds/niveaux. |
| Avion de contrôle | Les planificateurs placent les machines virtuelles ; fonctionnalités telles que vMotion/HA/DRS. | Politiques de mappage, d'instantanés, de réplication, de hiérarchisation, de qualité de service et de règles de placement. |
| Protocoles clés | Axé sur le calcul ; utilise des commutateurs/cartes réseau virtuels (VMware vSwitch/OVS) et des API de gestion. | Bloc : iSCSI/FC/NVMe-oF · Fichier : NFS/SMB · Objet : compatible S3/Swift. |
| CARACTERISTIQUES de base | Consolidation, migration en direct de VM, HA/FT, modèles, snapshots (au niveau de la VM). | Provisionnement léger, snapshots/clones (niveau volume/fichier), réplication, hiérarchisation, espace de noms global. |
| Plateformes typiques | VMware ESXi/vSphere, Hyper-V, KVM, Xen, Proxmox. | Contrôleurs de baie, virtualisation SAN (appliances/fabric), ZFS/LVM, Ceph, vSAN/Nutanix. |
| Modèle de mise à l'échelle | Hôtes à grande échelle ; évolutivité horizontale via des clusters/pools d'hyperviseurs. | Mettez à l'échelle des baies ou des clusters de stockage ; ajoutez des étagères/nœuds de manière transparente. |
| Accent sur les performances | Planification vCPU, reconnaissance NUMA, surcharge de mémoire, débit vNIC. | IOPS/débit/latence, taux de réussite du cache, réduction des données, temps de reconstruction, décalage de réplication. |
| Isolement | Limites de VM appliquées par l'hyperviseur ; segmentation vSwitch. | QoS par volume/locataire ; isolation multi-locataire pour la bande passante/IOPS/capacité. |
| Disponibilité | VM HA/FT, clustering d'hôtes, migration en direct loin des pannes. | Codage de réplication/effacement sur les domaines de pannes ; basculement et reconstruction rapides. |
| Sémantique de la migration | Déplacez les machines virtuelles en cours d'exécution entre des hôtes avec une identité de stockage/réseau stable. | Déplacez les données entre les tableaux/niveaux/sites en remappant les étendues ; les hôtes conservent les mêmes identifiants/montages de périphériques. |
| Risques opérationnels | Contention CPU/RAM entre voisins bruyants ; dérive du pilote/des VMtools. | Latence d'indirection, échelle/cohérence des métadonnées, épuisement du provisionnement fin. |
| Observabilité | Mesures VM/hôte : CPU prêt, gonflement de la mémoire, statistiques vSwitch. | SLI de stockage : latence, profondeur de la file d'attente, hits de cache, capacité, santé de la réplication. |
| Facteurs de coûts | Licence par CPU/hôte/VM, matériel hôte, support. | Licences par To/fonctionnalités, niveaux de support, contrôleurs/fabric, cloud sortie (hybride). |
| Cas d'utilisation les mieux adaptés | Server consolidation, VDI, hébergement d'applications mixtes, clusters lab/dev. | Mise en commun de capacités hétérogènes, migration de données non perturbatrice, DR/BC, copies de développement/test. |
| Exemple « unité de récupération » | Restaurer une machine virtuelle ou la basculer vers un autre hôte/cluster. | Restaurez un volume/partage/bucket (ou un instantané à un instant T) et rattachez-le aux hôtes. |
La virtualisation du stockage est-elle la même chose que le stockage défini par logiciel (SDS) ?
Non, la virtualisation du stockage et stockage défini par logiciel (SDS) ne sont pas les mêmes, même s'ils se chevauchent.
La virtualisation du stockage est une technique : une couche d'indirection qui agrège et extrait la capacité d'un ou plusieurs périphériques/baies en volumes logiques, partages ou buckets. Elle peut être hébergée sur une baie existante, une appliance réseau, l'hôte (par exemple, LVM/ZFS) ou un cluster scale-out. Son objectif est de dissocier ce que voient les applications de l'emplacement physique des données.
SDS est une architecture et un modèle d'exploitation : tous les services de stockage de base (provisionnement, protection des données, qualité de service, placement, automatisation) sont fournis par un logiciel exécuté sur matériel de base, avec des plans de contrôle et de données définis par logiciel et exposés via des API. De nombreuses plateformes SDS utilisé virtualisation du stockage en interne, mais SDS implique également l'indépendance matérielle, le contrôle programmatique et les opérations de mise à l'échelle.
La virtualisation du stockage peut-elle affecter les performances ?
Oui, positivement ou négativement, selon la conception et la charge de travail.
- Où cela peut aider : La mise en cache globale, la hiérarchisation (NVMe pour les données chaudes), le striping parallèle sur de nombreux appareils et la sélection intelligente des répliques sont souvent réduire latence et augmenter le débit par rapport aux baies cloisonnées. Les clones/snapshots légers accélèrent le développement/test et backup sans E/S supplémentaires, et les clusters évolutifs ajoutent des contrôleurs/chemins qui augmentent les IOPS agrégés.
- Là où ça peut faire mal : L'indirection (recherche de cartes d'étendue, consensus de métadonnées, sauts supplémentaires via un appareil/une structure) augmente la consommation de CPU et la latence de l'ordre de la microseconde à la milliseconde, particulièrement visible sur les petites E/S aléatoires et fortement synchronisées (par exemple, les bases de données). Services de données (chiffrement, compression, déduplication, checksums) consomment des cycles, tandis que les reconstructions, resynchronisations ou migrations peuvent perturber le trafic de premier plan. Les structures mal configurées (surabonnement, profondeurs de file d'attente, problèmes PFC/ECN) se traduisent par une gigue de stockage.