Selon les et les, les lectures flash NAND brutes prennent environ 100 microsecondes. Cependant,, tandis que les SSD NVMe atteignent 20 ¨¤ 100 microsecondes, ce qui montre comment les frais g¨¦n¨¦raux du protocole peuvent ¨ºtre ¨¦gaux ou sup¨¦rieurs au temps d¡¯acc¨¨s r¨¦el au support.
IOPS et impact r¨¦el
Un seul p¨¦riph¨¦rique NVMe peut fournir par seconde pour des lectures al¨¦atoires de 4KB, avec des performances n¨¦cessitant des dizaines de SSD SATA. Les bases de donn¨¦es Oracle sur NVMe de bout en bout montrent?:
- Plus de transactions par seconde
- R¨¦duction du temps de r¨¦ponse aux requ¨ºtes
- Moins d¡¯¨¦v¨¦nements d¡¯attente li¨¦s au stockage
Rendement ¨¦nerg¨¦tique
³¢¡¯efficacit¨¦ du NVMe accentue ses avantages en termes de performances. En ¨¦liminant les frais de protocole?:
- SSD SATA?: ~10 000 IOPS par watt
- SSD NVMe ?: ~50 000 IOPS par watt
NVMe-oF?: ?tendre le NVMe au-del¨¤ de l¡¯attachement direct
NVMe over Fabrics ¨¦tend les avantages du NVMe ¨¤ tous les datacenters, ce qui permet un stockage partag¨¦ sans sacrifier les avantages de latence. Mais les choix de mise en ?uvre ont un impact consid¨¦rable sur les performances.
NVMe sur fibre channel (FC-NVMe)
FC-NVMe exploite l¡¯infrastructure SAN existante, ce qui la rend attrayante pour les entreprises qui investissent dans la fibre channel. Elle n¨¦cessite des commutateurs Gen 5 (16 Gbit/s) ou Gen 6 (32 Gbit/s) qui prennent en charge le transfert NVMe. Les commutateurs plus anciens qui affirment ??prise en charge NVMe?? effectuent souvent la traduction des protocoles, ce qui r¨¦introduit les frais g¨¦n¨¦raux.
NVMe sur RoCE
RoCE garantit la latence r¨¦seau la plus faible gr?ce au bypass du noyau?: les op¨¦rations RDMA se terminent en . Mais RoCE n¨¦cessite un Ethernet sans perte avec contr?le de flux prioritaire sur chaque commutateur et chaque adaptateur. Un port mal configur¨¦ peut entra?ner une baisse des performances. En r¨¦alit¨¦, de nombreux d¨¦ploiements ??RoCE?? ex¨¦cutent en fait iWARP, car la v¨¦ritable RoCE s¡¯av¨¨re trop fragile. Lorsqu¡¯elle est correctement mise en ?uvre, la technologie RoCE peut offrir une latence de stockage de 160 ¨¤ 180 microsecondes.
NVMe sur TCP
NVMe/TCP fonctionne sur Ethernet standard sans mat¨¦riel sp¨¦cial. Les critiques jugent cela ??lent??, mais les impl¨¦mentations modernes peuvent atteindre une latence proche de la microseconde de 200 ¨¤ 250 microsecondes, plus rapide que les SSD SATA malgr¨¦ le franchissement du r¨¦seau.
Le principal avantage?: la simplicit¨¦. NVMe/TCP fonctionne avec les commutateurs existants, les cartes r¨¦seau standard et les r¨¦seaux de fournisseurs cloud.
Mise en ?uvre du NVMe en production
Le simple fait d¡¯installer des disques NVMe offre rarement les avantages attendus. ³¢¡¯ensemble de la pile de stockage doit prendre en charge les op¨¦rations NVMe de bout en bout.
Le pi¨¨ge de la traduction du protocole
De nombreuses organisations ach¨¨tent des SSD NVMe pour les baies existantes et s¡¯attendent ¨¤ une transformation. Les disques communiquent via NVMe, mais le contr?leur convertit tout en SCSI pour assurer la compatibilit¨¦. Cette traduction ajoute des microsecondes, ¨¦liminant ainsi les avantages du NVMe.
Exigences relatives au OS d¡¯exploitation et ¨¤ la migration
Le NVMe n¨¦cessite un Operating System d¡¯exploitation moderne. Chacune n¨¦cessite des configurations sp¨¦cifiques?: affinit¨¦ d¡¯interruption, modules multichemins et ajustements de profondeur de file d¡¯attente.
Pour une migration r¨¦ussie?:
- Commencez par les charges de travail non critiques pour la validation
- Mettre en ?uvre une surveillance de la latence ¨¤ chaque couche
- Prioriser d¡¯abord les bases de donn¨¦es sensibles ¨¤ la latence
- V¨¦rifier le NVMe de bout en bout avec des outils comme NVMe-cli
NVMe pour l¡¯AI et les charges de travail modernes
Les processeurs graphiques co?teux sont souvent inactifs et attendent les donn¨¦es. Gr?ce au , la technologie NVMe permet aux disques de transf¨¦rer des donn¨¦es directement vers la m¨¦moire GPU.
Pour l¡¯entra?nement AI, cela signifie?:
- Un entra?nement plus rapide
- ?criture de point de contr?le plus rapide
- Utilisation accrue des GPU graphiques?
- Lib¨¦ration du processeur pour le pr¨¦traitement
Les bases de donn¨¦es ne se limitent pas ¨¤ la vitesse brute. La latence pr¨¦visible du NVMe ¨¦limine les incertitudes li¨¦es ¨¤ la planification des requ¨ºtes. Les optimiseurs prennent de meilleures d¨¦cisions en sachant que les donn¨¦es arrivent rapidement. Les applications con?ues pour un stockage lent se comportent diff¨¦remment lorsque le stockage devient pr¨¦visible.
³¢¡¯avantage NVMe de É«¿Ø´«Ã½ de bout en bout
Alors que le secteur d¨¦bat des strat¨¦gies d¡¯adoption, É«¿Ø´«Ã½ a d¨¦ploy¨¦ NVMe de bout en bout sur des milliers de d¨¦ploiements clients, g¨¦n¨¦rant ainsi des t¨¦l¨¦m¨¦tries qui r¨¦v¨¨lent ce qui fonctionne r¨¦ellement. Ce qui diff¨¦rencie l¡¯application de la technologie flash NAND, c¡¯est qu¡¯elle ¨¦limine toutes les traductions de protocoles.
DirectFlash?: ?limination des frais g¨¦n¨¦raux cach¨¦s
Les SSD NVMe traditionnels contiennent des contr?leurs redondants et un surallocation. Les modules É«¿Ø´«Ã½? DirectFlash? exposent la NAND brute directement ¨¤ l¡¯interface NVMe de la baie, offrant?:
- Plus de capacit¨¦ utilisable
- R¨¦duction de la consommation d¡¯¨¦nergie
- Latence pr¨¦visible sans collecte de d¨¦chets
- Un contr?le de l¡¯usure global sur l¡¯ensemble du stockage flash
Architecture NVMe de bout en bout
Le logiciel Purity maintient NVMe de l¡¯h?te ¨¤ la NAND tout en prenant en charge les syst¨¨mes traditionnels. Pour les h?tes NVMe, il offre un acc¨¨s direct ¨¤ l¡¯espace de nom. Pour les h?tes traditionnels, elle se traduit une fois ¨¤ la p¨¦riph¨¦rie de la baie, et non en interne.
La baie FlashArray//X? de É«¿Ø´«Ã½ garantit une latence constante inf¨¦rieure ¨¤ 200 microsecondes en ¨¦liminant les conversions de protocoles internes?:
- Baies É«¿Ø´«Ã½?: latence moyenne de 150 ¦Ìs
- Baies traditionnelles ??NVMe?? avec traduction interne?: 400-600 ¦Ìs
- La diff¨¦rence?: ¨¦limination des frais de traduction du protocole
?volution sans interruption
³¢¡¯architecture Evergreen de É«¿Ø´«Ã½ ?permet l¡¯adoption du NVMe sans mises ¨¤ niveau titanesques. Les contr?leurs passent ¨¤ des versions compatibles NVMe sans migration de donn¨¦es.
³¢¡¯avenir du NVMe
³¢¡¯¨¦volution du NVMe va bien au-del¨¤ de la vitesse. La ?introduit le stockage informatique, qui est trait¨¦ dans le p¨¦riph¨¦rique de stockage lui-m¨ºme. Le filtrage des bases de donn¨¦es, la compression et l¡¯inf¨¦rence AI se produisent l¨¤ o¨´ r¨¦sident les donn¨¦es, ¨¦liminant ainsi les frais de d¨¦placement.
Conclusion
Le NVMe permet d¡¯¨¦liminer les goulets d¡¯¨¦tranglement artificiels qui limitent les applications pendant des d¨¦cennies. Lorsqu¡¯elle est mise en ?uvre de bout en bout sans traduction de protocole, la technologie NVMe offre une latence proche de la microseconde de 150 microseconde qui transforme tout, des transactions de base de donn¨¦es ¨¤ l¡¯entra?nement par l¡¯AI.
Les informations strat¨¦giques?: La traduction des protocoles d¨¦truit les avantages du NVMe. NVMe-oF ¨¦tend les avantages ¨¤ tous les datacenters, mais la mise en ?uvre est importante. Les charges de travail modernes n¨¦cessitent la technologie NVMe de bout en bout pr¨¦visible et ¨¤ faible latence.
Une impl¨¦mentation de bout en bout de É«¿Ø´«Ã½, valid¨¦e par des milliers de clients, prouve que la latence proche de la microseconde est une r¨¦alit¨¦ op¨¦rationnelle. Gr?ce aux ?modules ?, les entreprises atteignent les performances NVMe promises. ? mesure que le stockage ¨¦volue vers des capacit¨¦s de calcul et des vitesses de m¨¦moire, l¡¯?architecture ?Evergreen de É«¿Ø´«Ã½ garantit que les investissements d¡¯aujourd¡¯hui offrent les innovations de demain sans interruption.