Systèmes de stockage Intel. Technologies modernes des systèmes de stockage sur disque Protocoles de stockage de données

Ils ont évolué des cartes et bandes les plus simples avec des trous, utilisées pour stocker des programmes et des données, aux disques SSD. Sur ce chemin, de nombreux dispositifs différents ont été créés - ce sont des bandes magnétiques, des tambours, des disques et des disques optiques. Certains d'entre eux appartiennent au passé : supports perforés, tambours magnétiques, disquettes et disques optiques, tandis que d'autres vivent et vivront longtemps. Ce qui est parti aujourd'hui peut être vu et nostalgique au Museum Of Obsolete Media. Et en même temps, les restes apparemment voués à l'échec. A un moment ils ont prédit la fin des bandes magnétiques, mais aujourd'hui plus rien n'interfère avec leur existence, c'est exactement la même chose pour les disques durs rotatifs (HDD), les prophéties sur leur fin sont dénuées de tout fondement, ils ont atteint un tel niveau de perfection qu'ils resteront leur propre niche, quelles que soient les innovations.

Dans le paysage actuel du stockage hiérarchisé, il existe des bibliothèques de bandes pour Réserver une copie et archives, rapide et lent Disques durs, disques SSD SSD sur mémoire flash, imitant (interfaces, facteur de forme) pour les disques durs principalement pour s'harmoniser avec les logiciels et les constructions existants, ainsi que les derniers lecteurs flash au format de cartes connectées via l'interface NVMe. Cette image s'est développée sous l'influence de plusieurs facteurs, dont le schéma de John von Neumann, qui divise la mémoire en opérationnelle, directement accessible au processeur, et secondaire, destinée à stocker des données. Cette division s'est renforcée après que la mémoire à semi-conducteur, qui conserve son état actuel, a été remplacée par une mémoire à semi-conducteur, qui nécessite le chargement de programmes pour commencer à travailler. Et bien sûr, le coût unitaire du stockage affecte ce que appareil plus rapide, plus ce coût est élevé, donc dans un avenir prévisible, il y aura de la place pour les bandes et les disques. En savoir plus sur l'évolution du stockage.

Comment les données étaient stockées auparavant

Supports de stockage utilisant la perforation

Cartes perforées

Avant l'avènement des ordinateurs au cours des siècles dans les appareils les plus simples avec gestion de programme(métiers à tisser, orgues de barbarie, horloges à carillon) utilisaient des supports perforés de différentes tailles et formats et des tambours à broches. En gardant vivant ce principe d'écriture, Herman Hollerith, fondateur de TMC, qui deviendra plus tard une partie d'IBM, a fait une découverte. C'est en 1890 qu'il réalise comment les cartes perforées peuvent être utilisées pour enregistrer et traiter des données. Il a mis en œuvre cette idée dans le traitement des statistiques du recensement, et l'a ensuite transférée à d'autres applications, ce qui a assuré le bien-être d'IBM pour les décennies à venir.

Pourquoi des cartes ? Ils peuvent être triés et, relativement parlant, un « accès direct » peut leur être fourni afin d'automatiser partiellement le traitement des données sur un dispositif tabulateur spécial, suivant un programme simple.

Le format des cartes a changé et depuis les années 1920, les cartes à 80 colonnes sont devenues la norme internationale. Jusqu'au début des années 60, IBM en avait le monopole.

Ces cartons simples avec des trous rectangulaires sont restés le support de stockage dominant pendant plusieurs décennies, étant produits par milliards. Le volume de consommation de cartes peut être jugé par au moins un exemple du Centre de décodage des radiogrammes allemands à Bletchley Park : une semaine de travail - 2 millions de cartes, c'est un camion de taille moyenne ! L'entreprise d'après-guerre s'est également construite sur le stockage de données sur cartes. Quand on parle de cartes perforées, rappelez-vous qu'elles étaient utilisées en Allemagne pour collecter des données sur les personnes à détruire.

Rubans perforés

Il semblerait que les bandes perforées soient des supports plus pratiques, mais elles n'étaient pratiquement pas utilisées dans les affaires, bien que les dispositifs d'entrée et de sortie soient beaucoup plus simples et plus légers. Leur prolifération a été entravée par un accès séquentiel, une capacité inférieure et des vitesses d'entrée et de sortie faibles, et la complexité de l'archivage. Depuis 1857, des bandes perforées étroites à 5 colonnes sont utilisées pour la préparation et la transmission ultérieure des données par télégraphe afin de ne pas limiter la vitesse d'entrée par les capacités physiques de l'opérateur et ainsi mieux utiliser la bande passante du canal. La large bande perforée de 24 colonnes a été créée pour enregistrer des programmes dans une calculatrice électromécanique Harvard Mark I en 1937. En tant que support qui n'est pas affecté par diverses études électromagnétiques et de rayons gamma, les bandes perforées ont été largement utilisées comme dispositifs embarqués, elles sont toujours utilisées dans certains systèmes de défense.

Bandes magnétiques

Une méthode d'enregistrement du son sur un support magnétique à bobine, d'abord sur un fil, a été proposée en 1928. Ce type de magnétophone était utilisé dans l'UNIVAC-1. Le début de l'histoire des bandes magnétiques informatiques est considéré comme le modèle IBM 726, qui faisait partie de l'ordinateur IBM modèle 701. La largeur de la bande pour le modèle IBM 726 et d'autres appareils de l'époque était égale à un pouce, mais tel les bandes se sont avérées peu pratiques à utiliser. En raison de leur grande masse, des entraînements puissants étaient nécessaires, ils ont donc été rapidement remplacés par une "bobine ouverte" d'un demi-pouce, dans laquelle bobine à bobine était rembobinée. Elles étaient disponibles en trois densités d'enregistrement 800, 1600 et 6250. Ces bandes amovibles de protection en écriture sont devenues la norme pour l'archivage des données jusqu'à la fin des années 1980.

Le modèle 726 utilisait des bobines de film, le ruban mesurait donc un pouce de large et le diamètre de la bobine était de 12 pouces. Le modèle 726 était capable de stocker 1,4 Mo de données, avec une densité d'enregistrement sur 9 pistes de 800 bpi ; lorsque la bande se déplaçait à 75 pouces par seconde, 7 500 octets par seconde ont été transférés à l'ordinateur. La bande elle-même pour le modèle 726 a été développée par 3M (maintenant Imation).

Très vite, les bandes en pouces ont été abandonnées, en raison de leur poids lorsqu'elles fonctionnaient en mode marche-arrêt, des lecteurs trop puissants et des poches à vide étaient nécessaires, et pendant une longue période, une domination presque monopolistique des "bobines ouvertes" d'un demi-pouce a été établie, dans lequel le rebobinage était effectué d'une bobine à l'autre (bobine à bobine). La densité d'enregistrement est passée de 800 à 1600 et même 6250 bpi. Ces bandes avec anneaux de protection en écriture amovibles étaient populaires sur les ordinateurs EC et CM. "bobine ouverte" d'un demi-pouce, dans laquelle le rembobinage était effectué d'une bobine à l'autre (bobine à bobine). La densité d'enregistrement est passée de 800 à 1600 et même 6250 bpi. Ces bandes avec anneaux de protection en écriture amovibles étaient populaires sur les ordinateurs EC et CM.

L'impulsion pour le développement ultérieur était le fait qu'au milieu des années 80, la capacité des disques durs a commencé à être mesurée en centaines de mégaoctets ou même en gigaoctets, ils avaient donc besoin de disques de sauvegarde de la capacité appropriée. Les inconvénients des bandes ouvertes étaient compréhensibles, même dans la vie de tous les jours, les magnétophones à cassette ont rapidement remplacé les magnétophones à bobines. La transition naturelle vers les cartouches s'est faite de deux manières : la première - pour créer des appareils spécialisés axés sur les ordinateurs (utilisant la technologie linéaire) ; la seconde - se tourner vers les technologies inventées pour l'enregistrement vidéo et audio avec des têtes rotatives (utilisant la technologie à vis). Depuis, il y a eu une division en deux camps, ce qui donne au marché du stockage une spécificité unique.

En trente ans, plusieurs dizaines de normes de cartouches ont été développées, la plus courante aujourd'hui est la norme LTO (Linear Tape-Open), au cours de laquelle les cartouches ont été améliorées, leur fiabilité, capacité, vitesse de transfert et autres caractéristiques opérationnelles augmentées. La cartouche moderne est un appareil complexe équipé d'un processeur et d'une mémoire flash.

Le passage aux cartouches a été facilité par le fait que les bandes fonctionnent désormais exclusivement en mode streaming. Les cartouches sont utilisées soit dans des périphériques autonomes, soit dans le cadre de bibliothèques de bandes. La première bibliothèque robotique pour 6 000 cartouches a été publiée par StorageTek en 1987.

Les analystes et les fabricants de disques ont prédit à plusieurs reprises la disparition des bandes. Le slogan « Les bandes doivent mourir » est connue, mais elles sont vivantes et vivront longtemps, car elles sont conçues pour le stockage à long terme de grandes archives. La taille de l'activité de bandes, de bandes et de bibliothèques de bandes était estimée à environ 5 milliards de dollars en 2017. Et plus il y a d'informations pouvant être stockées sur des disques durs, plus le besoin d'archivage et de sauvegarde est important. Sur quoi? Sur les bandes, bien sûr : aucune alternative économiquement viable aux bandes magnétiques n'a encore été trouvée. La 8e génération actuelle de la norme LTO vous permet d'économiser systématiquement jusqu'à 12 To, et dans le mode compressé de 30 To, à l'avenir, ces chiffres augmenteront d'un ordre de grandeur ou plus, avec le changement de génération, non seulement les indicateurs quantitatifs, mais aussi d'autres caractéristiques opérationnelles augmentent.

Tambour magnétique

Un moyen temporaire de résoudre les contradictions entre la technologie de l'enregistrement séquentiel sur bande et la nécessité d'un accès direct aux données sur un périphérique externe est devenu un tambour magnétique, ou plutôt un cylindre à têtes fixes. Il a été inventé par l'Autrichien Gustav Tuchek en 1932.

Magnétique n'est pas un tambour dans lequel, comme on le sait, le fond sert de surface de travail, mais un cylindre avec un revêtement ferrimagnétique appliqué sur sa surface latérale, divisé en pistes, et celles-ci, à leur tour, sont divisées en secteurs. Chacune des pistes a sa propre tête de lecture/écriture, et toutes les têtes peuvent fonctionner simultanément, c'est-à-dire que les opérations de lecture/écriture sont effectuées en parallèle.

Les tambours ont été utilisés pour plus qu'un simple périphérique. Avant la transition vers les noyaux de ferrite, la RAM était extrêmement chère et peu fiable, donc dans certains cas, les tambours jouaient le rôle de RAM, il y avait même des ordinateurs appelés tambours. Les tambours magnétiques étaient généralement utilisés pour les opérations (fréquemment changées) ou une information important auquel vous aviez besoin d'un accès rapide. Dans des conditions de limitation de la taille de la RAM en raison de son coût élevé, une copie du système d'exploitation y a été stockée, les résultats intermédiaires de l'exécution du programme ont été enregistrés. Pour la première fois, une procédure de swap a été mise en place sur les bobines, représentant la virtualisation de la mémoire au détriment de l'espace sur le tambour, et plus tard sur le disque.

Les entraînements à tambour magnétique avaient une capacité inférieure à celle des disques, mais fonctionnaient plus rapidement car, contrairement aux disques, les têtes sont immobiles, ce qui élimine le temps nécessaire pour s'approcher de la piste souhaitée.

Les tambours ont été activement utilisés jusqu'au début des années 80, pendant un certain temps ils ont vécu en parallèle avec les disques. Le BESM 6 et ses contemporains étaient équipés de tambours. On sait de sources ouvertes que les derniers tambours sont restés dans les systèmes de contrôle des missiles Minuteman jusqu'au milieu des années 90.

Disquettes

La durée de vie active des disquettes s'est étendue sur 30 ans, de la fin des années 70 à la fin des années 90. Ils se sont avérés extrêmement demandés en raison du fait que les PC sont apparus avant que les utilisateurs aient la possibilité de transférer des données sur le réseau. Dans ces conditions, les disquettes servaient non seulement à leur destination de stockage de sauvegardes, mais, peut-être, dans une plus grande mesure, à l'échange de données entre utilisateurs, c'est pourquoi elles sont également appelées baskets, comme les baskets, chaussures typiques des programmeurs. En échangeant des disquettes, ils ont créé une sorte de réseau - sneakernet.

Il y avait 3 principaux types de disques et de nombreuses modifications différentes. Les disquettes de 8 pouces ont été créées en 1967 par IBM, elles ont été conçues comme un périphérique d'amorçage pour le mainframe IBM / 370 pour remplacer le plus cher mémoire permanente(mémoire morte non volatile), il était équipé de la génération précédente d'IBM/360. Cependant, réalisant la valeur commerciale du nouveau produit, en 1971, IBM a transformé la disquette en un produit indépendant, et en 1973, le responsable du développement Alan Shugart a créé Shugart Associates, qui est devenu le premier fabricant de disques de 8 pouces avec une capacité maximale de 1,2 Mo. Ces gros disques étaient utilisés sur des PC fabriqués avant l'IBM XT. Ce type de disquette est particulièrement apprécié grâce au système d'exploitation CP/M de Harry Kildall.

Quant aux disquettes d'un diamètre de 5,25 pouces, leur apparence rappelle une anecdote sur Nicolas II, ce qui explique de manière assez particulière la largeur accrue de la voie ferrée russe par rapport à celle européenne. Dans notre cas, En Wang, le propriétaire de Wang Laboratories, a rencontré dans un bar des gens de Shugart Associates, qui lui ont proposé de fabriquer un lecteur de disquette moins cher pour ses ordinateurs, mais ils n'ont pas pu décider d'un diamètre spécifique. Alors Wang a pris une serviette à cocktail et a dit qu'il lui semblait que la taille devrait être celle-là. Des disques de cinq pouces d'une capacité de 360 ​​et 720 Ko ont été produits jusqu'à la fin des années 90, ils étaient contemporains des ordinateurs IBM XT et IBM AT, fonctionnant Systèmes MS-DOS et DR-DOS, au service fidèle de l'émergence d'une nouvelle industrie.

Une cartouche alternative, proposée par Sony en 1983, mesurait 90,0 mm x 94,0 mm, mais elle était traditionnellement appelée 3,5 pouces. Dans le milieu professionnel américain, on l'appelle raide (disque rigide, la traduction vaut la peine d'être cherchée dans le dictionnaire). Après un certain nombre d'améliorations, la norme industrielle de 3,5 pouces HD (haute densité) a été adoptée en 1987 avec une capacité de 1,44 Mo. Initialement, ces disques ont été complétés par IBM PS/2 et Macintosh IIx, et plus tard, ils sont devenus une norme universelle pour PC et Macintosh. Les tentatives de fabrication dans la seconde moitié des années 90 de disques avec une densité étendue (ED) de plus grande capacité de 2,88 Mo, ainsi que le disque Floptical magnéto-optique apparemment prometteur 25 Mo, SuperDisk 120-240 Mo et HiFD 150-240 Mo n'ont pas avoir du succès sur le marché.

Pourquoi il y avait un besoin de stockage

Selon les recherches d'IDC Perspectives, le stockage de données se classe au deuxième rang des dépenses informatiques et représente environ 23 % de toutes les dépenses. Selon The InfoPro, Wave 11 « Les coûts de stockage des entreprises moyennes du Fortune 1000 ont augmenté de plus de 50 % par an. »

Selon l'opinion générale des analystes, le volume d'informations stockées et traitées augmente chaque minute dans les organisations du monde entier. L'information unique devient de plus en plus chère, son volume augmente plusieurs fois chaque année et son stockage nécessite des coûts. Dans cette optique, les organisations s'efforcent non seulement de façonner le développement de l'infrastructure de stockage, mais également de rechercher des opportunités pour améliorer et augmenter l'efficacité économique du stockage : pour réduire la consommation d'énergie, les coûts de service, le coût total de possession et l'achat de sauvegarde et systèmes de stockage.

La croissance des volumes de données, les exigences accrues en matière de fiabilité du stockage et de vitesse d'accès aux données rendent nécessaire l'allocation des installations de stockage dans un sous-système distinct du complexe informatique (VC). La capacité d'accéder aux données et de les gérer est une condition préalable à l'exécution des processus métier. La perte irrécupérable de données constitue une menace sérieuse pour votre entreprise. Les ressources informatiques perdues peuvent être restaurées et les données perdues, en l'absence d'un système de sauvegarde bien conçu et mis en œuvre, ne peuvent plus être restaurées.

Il existe un développement notable de la nécessité non seulement d'acquérir des systèmes de stockage par les entreprises clientes, mais également d'une comptabilité, d'un audit et d'un contrôle stricts de l'utilisation de ressources coûteuses. Il n'y a rien de pire que l'arrêt des processus métier en raison de l'impossibilité d'obtenir en temps voulu les données nécessaires (ou leur perte totale), et cela peut entraîner des conséquences irréversibles.

Facteurs contribuant au développement du stockage

Le facteur principal était la croissance de la concurrence et la complication de sa nature dans tous les segments de marché. V Europe de l'Ouest ces phénomènes ont pu être observés avant, et en Europe de l'Est - au cours des cinq dernières années. Il y a cinq ans, un opérateur mobile avait 25 à 25 millions de cartes SIM enregistrées et aujourd'hui, 50 à 70 millions. Ainsi, presque tous les résidents du pays bénéficient de communications mobiles de ces sociétés, et il existe également des opérateurs régionaux. Voici le vrai niveau de concurrence : il n'y a plus personne sur le marché qui n'ait pas de téléphone mobile. Et maintenant, les opérateurs ne peuvent pas se développer de manière extensive en vendant leurs produits à ceux qui n'ont pas encore de produits similaires. Ils ont besoin de clients qui travaillent avec des concurrents et qui doivent trouver un moyen de les obtenir. Nous devons comprendre leur comportement, ce qu'ils veulent. Extraire informations utilesà partir des données disponibles, vous devez le mettre dans le référentiel.

Un autre facteur est l'émergence de nombreuses entreprises sur le marché qui proposent leurs solutions pour soutenir le business des entreprises : ERP, systèmes de facturation, systèmes d'aide à la décision, etc. Toutes permettent de collecter des données détaillées de nature très différente dans des volumes énormes. Si votre organisation dispose d'une infrastructure informatique solide, ces données peuvent être rassemblées et analysées.

Le facteur suivant est technologique. Jusqu'à un certain temps, les fournisseurs d'applications développaient indépendamment différentes versions de leurs solutions pour différentes plates-formes de serveurs ou proposaient des solutions open source. Une tendance technologique importante pour l'industrie est devenue la création de plates-formes adaptables pour résoudre divers problèmes analytiques, qui incluent le composant matériel et le SGBD. Les utilisateurs ne se soucient plus de savoir qui a fabriqué le processeur ou la RAM de leur ordinateur - ils considèrent le stockage de données comme une sorte de service. Et c'est un changement majeur dans la conscience.

Des technologies qui permettent d'utiliser des entrepôts de données pour optimiser les processus métier opérationnels en temps quasi réel, non seulement pour les analystes hautement qualifiés et les top managers, mais aussi pour les employés du front office, en particulier pour les employés des bureaux de vente et des centres de contact. La prise de décision est déléguée aux employés aux échelons inférieurs de l'échelle de l'entreprise. Les rapports dont ils ont besoin sont généralement simples et concis, mais ils en nécessitent beaucoup et le temps de formation doit être court.

Portée du stockage

Les entrepôts de données traditionnels sont omniprésents. Ils sont conçus pour générer des rapports pour aider à trier ce qui s'est passé dans l'entreprise. Cependant, c'est la première étape, la base.

Il ne suffit pas que les gens sachent ce qui s'est passé, ils veulent comprendre pourquoi cela s'est passé. Il utilise des outils de business intelligence pour vous aider à comprendre ce que disent les données.

Vient ensuite l'utilisation du passé pour prédire l'avenir, en construisant des modèles prédictifs : quels clients resteront et lesquels partiront ; quels produits auront du succès et lesquels échoueront, etc.

Certaines organisations sont déjà à un stade où les entrepôts de données commencent à être utilisés pour comprendre ce qui se passe dans les affaires aujourd'hui. Par conséquent, la prochaine étape consiste à « activer » les systèmes frontaux avec des solutions basées sur les données, souvent automatiquement.

Les volumes d'informations numériques augmentent comme une avalanche. Dans le secteur des entreprises, cette croissance est tirée, d'une part, par une réglementation plus stricte et l'exigence de conserver de plus en plus d'informations liées à la conduite des affaires. D'autre part, la concurrence croissante nécessite des informations de plus en plus précises et détaillées sur le marché, les clients, leurs préférences, les commandes, les actions des concurrents, etc.

Dans le secteur public, la croissance du volume de données stockées soutient la transition généralisée vers la gestion électronique interministérielle des documents et la création de ressources analytiques ministérielles, qui sont basées sur une variété de données primaires.

Une vague tout aussi puissante est créée par les utilisateurs ordinaires qui publient leurs photos, vidéos sur Internet et échangent activement du contenu multimédia sur les réseaux sociaux.

Exigences de stockage

En 2008, le groupe d'entreprises TIM a mené une enquête auprès des clients afin de connaître les caractéristiques les plus importantes pour eux lors du choix des systèmes de stockage. Les premières positions ont été prises par la qualité et la fonctionnalité de la solution proposée. Dans le même temps, le calcul du coût total de possession pour un consommateur russe n'est pas un phénomène typique. Souvent, les clients ne comprennent pas bien quels sont les coûts attendus, par exemple le coût de location et d'équipement des locaux, l'électricité, la climatisation, la formation et les salaires du personnel qualifié, etc.

Lorsqu'il devient nécessaire d'acheter des systèmes de stockage, le maximum que l'acheteur estime pour lui-même est les coûts directs passant par le service comptabilité pour l'achat de cet équipement. Cependant, le prix en termes d'importance était à la neuvième place sur dix. Bien entendu, les clients prennent en compte les éventuelles difficultés liées à la maintenance des équipements. Ceux-ci sont généralement évités par les packages de support de garantie prolongée, qui sont généralement proposés dans les projets.

Fiabilité et résilience. Le système de stockage assure une redondance totale ou partielle de tous les composants - alimentations, chemins d'accès, modules processeurs, disques, cache, etc. Il est impératif de disposer d'un système de surveillance et d'alerte sur les problèmes possibles et existants.

Disponibilité des données. Fourni avec des fonctions bien pensées de préservation de l'intégrité des données (utilisation de la technologie RAID, création de copies complètes et instantanées des données dans un rack de disques, réplication des données sur un système de stockage distant, etc.) et la possibilité d'ajouter (mettre à jour) du matériel et des logiciels en mode chaud sans arrêter le complexe ;

Installations de gestion et de contrôle. La gestion du stockage s'effectue via l'interface Web ou la ligne de commande, il existe des fonctions de surveillance et plusieurs options pour informer l'administrateur des problèmes. Des technologies de diagnostic des performances basées sur le matériel sont disponibles.

Performance. Il est déterminé par le nombre et le type de disques, la quantité de mémoire cache, la puissance de traitement du sous-système de processeur, le nombre et le type d'interfaces internes et externes, ainsi que les possibilités de personnalisation et de configuration flexibles.

Évolutivité. Dans les systèmes de stockage, il est généralement possible d'augmenter le nombre de disques durs, la quantité de mémoire cache, les mises à niveau matérielles et l'extension des fonctionnalités à l'aide d'un logiciel spécial. Toutes les opérations ci-dessus sont effectuées sans reconfiguration significative ni perte de fonctionnalité, ce qui permet une approche économe et flexible de la conception de l'infrastructure informatique.

Types de stockage

Systèmes de stockage sur disque

Ils sont utilisés pour le travail opérationnel avec les données, ainsi que pour la création de sauvegardes intermédiaires.

Il existe les types de systèmes de stockage sur disque suivants :

  • Stockage des données de travail (matériel haute performance) ;
  • Système de stockage pour les sauvegardes (bibliothèques de disques) ;
  • Stockage pour stockage à long terme archives (systèmes CAS).

Stockage sur bande

Conçu pour créer des sauvegardes et des archives.

Il existe les types de systèmes de stockage sur bande suivants :

  • lecteurs séparés ;
  • Chargeurs automatiques (un lecteur et plusieurs emplacements de bande) ;
  • bibliothèques de bandes (plus d'un lecteur, plusieurs emplacements de bande).

Options de connexion de stockage

Diverses interfaces internes sont utilisées pour connecter des périphériques et des disques durs à l'intérieur d'un même stockage :

Les interfaces de stockage externes les plus courantes :

L'interface de cluster Infiniband populaire est désormais également utilisée pour l'accès au stockage.

Options de topologie de stockage

L'approche traditionnelle du stockage de données consiste à attacher directement les serveurs au stockage à attachement direct, le stockage DAS (stockage à attachement direct). En plus du stockage en attachement direct, DAS, il existe des périphériques de stockage en réseau - NAS (Network Attached Storage), ainsi que des composants de réseau de stockage - SAN (Storage Area Networks). Les systèmes NAS et SAN sont devenus une alternative à l'architecture de stockage à attachement direct, DAS. De plus, chaque solution a été développée en réponse aux exigences croissantes des systèmes de stockage de données et était basée sur l'utilisation des technologies disponibles à l'époque.

Les architectures de stockage en réseau ont été développées dans les années 1990 pour remédier aux principales lacunes du stockage en attachement direct, DAS. En général, les solutions de stockage en réseau devaient remplir trois objectifs : réduire le coût et la complexité de la gestion des données et réduire le trafic réseaux locaux, améliorer la disponibilité des données et les performances globales. Ce faisant, les architectures NAS et SAN abordent divers aspects du problème commun. Le résultat est la coexistence simultanée de deux architectures de réseau, chacune avec ses propres avantages et fonctionnalités.

Systèmes de stockage à connexion directe (DAS)

RAID matériel et logiciel

Marché russe du stockage

Au cours des dernières années, le marché russe du stockage s'est développé et augmenté avec succès. Ainsi, fin 2010, le chiffre d'affaires des fabricants de systèmes de stockage vendus sur le marché russe dépassait 65 millions de dollars, soit 25 % de plus qu'au deuxième trimestre de la même année et 59 % de plus qu'en 2009. Capacité totale des systèmes de stockage vendus s'élevaient à environ 18 000 téraoctets, ce qui est un indicateur de croissance de plus de 150 % par an.

Les grandes étapes des projets de création d'entrepôts de données

Un entrepôt de données est une entité très complexe. L'une des principales conditions de sa création est la disponibilité de spécialistes compétents qui comprennent ce qu'ils font - non seulement du côté du fournisseur, mais aussi du côté du client. La consommation de stockage devient une partie intégrante de la mise en œuvre de solutions d'infrastructure complexes. En règle générale, nous parlons d'un investissement impressionnant sur 3 à 5 ans, et les clients s'attendent à ce que tout au long de la vie du système, il réponde pleinement aux exigences de l'entreprise.

De plus, il est nécessaire de posséder les technologies pour créer des entrepôts de données. Si vous avez commencé à créer un référentiel et que vous développez un modèle logique pour celui-ci, vous devriez avoir un vocabulaire qui définit tous les concepts de base. Même des concepts aussi courants que « client » et « produit » ont des centaines de définitions. Ce n'est qu'après avoir eu une idée de ce que signifient ces ou ces termes dans une organisation donnée que vous pouvez déterminer les sources des données nécessaires qui doivent être chargées dans l'entrepôt.

Vous pouvez maintenant commencer à créer votre modèle de données logique. C'est critique étape importante projet. Il est nécessaire d'obtenir l'accord de tous les acteurs du projet de création d'un entrepôt de données sur la pertinence de ce modèle. À la fin de ce travail, il devient clair ce dont le client a vraiment besoin. Et alors seulement, il est logique de parler d'aspects technologiques, par exemple, de la taille du stockage. Le client se retrouve face à face avec un modèle de données géant qui contient des milliers d'attributs et de relations.

Gardez à l'esprit qu'un entrepôt de données ne doit pas être un jouet pour le service informatique et un objet de coût pour l'entreprise. Avant tout, un entrepôt de données doit aider les clients à résoudre leurs problèmes les plus critiques. Par exemple, aidez les entreprises de télécommunications à empêcher le détournement de clientèle. Pour résoudre le problème, il est nécessaire de remplir certains fragments grand modèle données, puis vous aider à sélectionner des applications qui aideront à résoudre ce problème. Il peut s'agir d'applications très simples comme Excel. La première étape consiste à essayer de résoudre le problème sous-jacent avec ces outils. Essayer de remplir le modèle entier à la fois, en utilisant toutes les sources de données, serait une grosse erreur. Les données des sources doivent être soigneusement analysées pour garantir leur qualité. Après avoir résolu avec succès un ou deux problèmes critiques, au cours desquels la qualité des sources de données requises pour cela a été assurée, vous pouvez commencer à résoudre les problèmes suivants, en remplissant progressivement d'autres fragments du modèle de données, ainsi qu'en utilisant le fichier précédemment rempli. fragments.

Un autre problème sérieux est la modernisation des systèmes de stockage. Souvent, les systèmes de stockage achetés il y a trois à cinq ans ne peuvent plus faire face aux volumes croissants de données et aux exigences de vitesse d'accès, c'est pourquoi un nouveau système est acheté vers lequel les données du précédent sont transférées. Fondamentalement, les clients remboursent la quantité de stockage nécessaire pour héberger les données et, en plus, supportent le coût d'installation et de transfert des données vers le nouveau système de stockage. Dans le même temps, les anciens systèmes de stockage, en règle générale, ne sont pas encore assez obsolètes pour être complètement abandonnés, de sorte que les clients essaient de les adapter à d'autres tâches.

2009

L'évolution rapide introduit chaque année des changements majeurs dans les principales tendances du développement du stockage. Ainsi, en 2009, l'accent a été mis sur la capacité à allouer économiquement les ressources (Thin Provisioning), les dernières années se sont passées sous le signe des systèmes de stockage dans les « clouds ». La gamme de systèmes proposés est diversifiée : un grand nombre de modèles présentés, diverses options et combinaisons de solutions de l'entrée de gamme à la classe haut de gamme, des solutions clé en main et un assemblage par composants utilisant les solutions de remplissage, logicielles et matérielles les plus modernes de la Russie fabricants.

S'efforcer de réduire les coûts d'infrastructure informatique nécessite un équilibre constant entre le coût des ressources de stockage et la valeur des données qui y sont stockées. ce moment temps. Les experts des centres de données sont guidés non seulement par les approches ILM et DLM, mais également par la hiérarchisation des pratiques de stockage des données pour décider de la manière la plus efficace d'allouer les ressources sur les logiciels et le matériel. Chaque unité d'information à traiter et à stocker se voit attribuer certaines métriques. Ceux-ci incluent le degré d'accessibilité (la vitesse à laquelle les informations sont fournies), l'importance (le coût de la perte de données en cas de panne matérielle et logicielle), la période pendant laquelle les informations passent à l'étape suivante.

Un exemple de division des systèmes de stockage conformément aux exigences de stockage et de traitement des informations à l'aide de la méthode de stockage de données à plusieurs niveaux.

Dans le même temps, les exigences de performance des systèmes transactionnels ont augmenté, ce qui implique une augmentation du nombre de disques dans le système et, par conséquent, le choix de systèmes de stockage d'une classe supérieure. En réponse à ce défi, les fabricants ont équipé les systèmes de stockage de nouveaux disques SSD qui surpassent les précédents en termes de performances de plus de 500 fois dans des opérations de lecture-écriture "courtes" (typiques pour les systèmes transactionnels).

La popularisation du paradigme du cloud a contribué à augmenter les exigences de performances et de fiabilité du stockage, car en cas de panne ou de perte de données, plus d'un ou deux serveurs directement connectés en souffriront - il y aura un déni de service pour tous les clouds. utilisateurs. En vertu du même paradigme, il y a eu une tendance à la fédération d'appareils de différents fabricants. Il crée un pool de ressources à la demande avec la possibilité de déplacer dynamiquement des applications et des données entre des sites et des fournisseurs de services géographiquement dispersés.

Un virage certain a été constaté en 2011 dans le domaine de la gestion du Big Data. Auparavant, ces projets étaient au stade de la discussion, mais ils sont maintenant passés au stade de la mise en œuvre, après avoir parcouru tout le chemin de la vente à la mise en œuvre.

Il y a une percée sur le marché, qui s'est déjà produite sur le marché des serveurs, et, peut-être, déjà en 2012, nous verrons des systèmes de stockage prenant en charge la technologie de déduplication et de surabonnement dans le segment de masse. En conséquence, comme dans le cas de la virtualisation des serveurs, cela garantira une utilisation à grande échelle de la capacité de stockage.

Le développement ultérieur de l'optimisation du stockage consistera à améliorer les méthodes de compression des données. Pour les données non structurées, qui représentent 80 % du volume total, le taux de compression peut atteindre plusieurs ordres de grandeur. Cela réduira considérablement le coût unitaire du stockage pour les SSD modernes.

  • Andrey Zakharov, Systèmes de stockage de données de base et leurs caractéristiques
  • Mise à niveau4_08_05 Journal
  • La dépendance des processus métier de l'entreprise vis-à-vis de la sphère informatique ne cesse de croître. Aujourd'hui, non seulement les grandes entreprises, mais aussi les représentants des moyennes et souvent des petites entreprises sont attentifs à la question de la continuité des services informatiques.

    L'un des éléments centraux pour garantir la tolérance aux pannes est un système de stockage de données (DSS) - un dispositif sur lequel toutes les informations sont stockées de manière centralisée. Le système de stockage se caractérise par une évolutivité élevée, une tolérance aux pannes, la capacité d'effectuer toutes les opérations de service sans interrompre le fonctionnement de l'appareil (y compris le remplacement de composants). Mais le coût même d'un modèle de base se mesure en dizaines de milliers de dollars. Par exemple, Fujitsu ETERNUS DX100 avec 12 disques Nearline SAS 1 To SFF (RAID10 6 To) vaut la commande 21 000 USD, ce qui est très coûteux pour une petite entreprise.

    Dans notre article, nous proposons de considérer options pour organiser le stockage budgétaire, qui ne perd pas en performances et en fiabilité par rapport aux systèmes classiques. Pour le mettre en œuvre, nous proposons d'utiliser CEPH.

    Qu'est-ce que le CEPH et comment ça marche ?

    CEPH- le stockage basé sur des logiciels libres, est une combinaison d'espaces disques de plusieurs serveurs (le nombre de serveurs en pratique se mesure en dizaines et centaines). CEPH vous permet de créer un stockage hautement évolutif avec des performances élevées et une redondance des ressources. CEPH peut être utilisé à la fois comme stockage d'objets (pour stocker des fichiers) et comme périphérique de bloc (pour servir des disques durs virtuels).

    La tolérance aux pannes de stockage est assurée par la réplication de chaque bloc de données sur plusieurs serveurs. Le nombre de copies stockées simultanément de chaque bloc est appelé facteur de réplication, par défaut sa valeur est 2. Le schéma d'opération de stockage est illustré à la figure 1, car nous voyons que les informations sont divisées en blocs, chacun étant réparti sur deux différents nœuds.

    Figure 1 - Répartition des blocs de données


    Si les serveurs n'utilisent pas de baies de disques tolérantes aux pannes, nous vous recommandons d'utiliser un facteur de réplication plus élevé pour un stockage de données fiable. En cas de panne de l'un des serveurs, le CEPH corrige l'inaccessibilité des blocs de données (Figure 2), qui s'y trouvent, attend un certain temps (le paramètre est configuré, par défaut 300 secondes), après quoi il commence à recréer les blocs d'informations manquants à un autre endroit (Figure 3 ).

    Figure 2 - Défaillance d'un nœud


    Figure 3 - Restauration de la redondance


    De même, si un nouveau serveur est ajouté au cluster, le stockage est rééquilibré afin de remplir uniformément les disques sur tous les nœuds. Le mécanisme qui contrôle la distribution des blocs d'informations dans le cluster CEPH est appelé CRUSH.

    Pour obtenir des performances d'espace disque élevées dans les clusters CEPH, il est recommandé d'utiliser la fonctionnalité de hiérarchisation du cache. Son sens est de créer un pool hautes performances séparé et de l'utiliser pour la mise en cache, tandis que les informations principales seront placées sur des disques moins chers (Figure 4).

    Figure 4 - Vue logique des pools de disques


    La mise en cache à plusieurs niveaux fonctionnera comme suit : les demandes d'écriture client seront écrites dans le pool le plus rapide, puis déplacées vers le niveau de stockage. De même, pour les demandes de lecture, les informations lors de l'accès seront élevées au niveau de la mise en cache et traitées. Les données restent au niveau du cache jusqu'à ce qu'elles deviennent inactives ou jusqu'à ce qu'elles deviennent inutiles (Figure 5). Il convient de noter que la mise en cache peut être configurée pour la lecture seule, auquel cas les demandes d'écriture seront écrites directement dans le pool de stockage.

    Figure 5 - Le principe de fonctionnement du cash-thyrring


    Considérons des scénarios réels d'utilisation de CEPH dans une organisation pour créer un entrepôt de données. Les petites et moyennes entreprises sont considérées comme un client potentiel, là où cette technologie sera la plus demandée. Nous avons calculé 3 scénarios d'utilisation de la solution décrite :

    1. Une entreprise de fabrication ou de commerce avec une exigence de disponibilité d'un système ERP interne et d'un stockage de fichiers à 99,98 % par an, 24 heures sur 24, 7 jours sur 7.
    2. Une organisation qui a besoin de déployer un cloud privé sur site pour ses besoins commerciaux.
    3. Une solution très économique pour organiser un stockage de données en bloc tolérant aux pannes, totalement indépendant de Matériel avec une disponibilité de 99,98 % par an et une mise à l'échelle à faible coût.

    Cas d'utilisation 1 : entrepôt de données basé sur le CEPH

    Examinons un exemple concret de CEPH appliqué dans une organisation. Par exemple, nous avons besoin d'un stockage hautes performances tolérant aux pannes de 6 To, mais les coûts, même pour un modèle de stockage de base avec disques, sont de l'ordre de $21 000 .

    Constitution d'un référentiel basé sur CEPH. Nous proposons d'utiliser la solution comme serveurs Supermicro jumeau(Illustration 6). Le produit représente 4 plates-formes de serveurs dans un seul boîtier de 2 unités de hauteur, tous les nœuds principaux de l'appareil sont dupliqués, ce qui garantit son fonctionnement continu. Pour mettre en œuvre notre tâche, il suffira d'utiliser 3 nœuds, le 4ème sera en réserve pour la suite.




    Figure 6 - Supermicro jumeau


    Nous complétons chacun des nœuds comme suit : 32 Go de RAM, 4 processeur nucléaire 2,5 GHz, 4 disques SATA de 2 To chacun pour le pool de stockage sont combinés en 2 baies RAID1, 2 disques SSD pour le pool de mise en cache sont également combinés en RAID1. Le coût de l'ensemble du projet est indiqué dans le tableau 1.

    Tableau 1. Composants pour le stockage basé sur CEPH

    Composants Prix ​​(USD Qté Coût, USD
    4 999,28 1 4 999,28
    139,28 6 835,68
    Processeur Ivy Bridge-EP 4 cœurs 2,5 GHz (LGA2011, 10 Mo, 80 W, 22 nm) 366,00 3 1 098,00
    416,00 12 4 992,00
    641,00 6 3 846,00
    LE TOTAL 15 770,96

    Sortir:À la suite de la construction du stockage, nous obtenons une baie de disques de 6 To avec des coûts de l'ordre de $16 000 , Quel 25% de moins que l'achat d'un système de stockage minimum, tandis qu'aux capacités actuelles, vous pouvez exécuter des machines virtuelles qui fonctionnent avec le stockage, économisant ainsi sur l'achat de serveurs supplémentaires. En fait, c'est une solution complète.

    Les serveurs à partir desquels le stockage est construit peuvent être utilisés non seulement comme stockage pour les disques durs, mais également comme stockage pour les machines virtuelles ou les serveurs d'applications.

    Cas d'utilisation 2 : Créer un cloud privé

    L'enjeu est de déployer l'infrastructure pour construire un cloud privé à moindre coût.

    Construire même un petit nuage composé, par exemple, de 3 transporteurs sur environ $36 000 : 21 000 $ - le coût du stockage + 5000 $ pour chaque serveur avec 50 % de contenu.

    L'utilisation de CEPH comme stockage vous permet de combiner les ressources informatiques et disque sur le même matériel. C'est-à-dire que vous n'avez pas besoin d'acheter des systèmes de stockage séparément - les disques installés directement sur les serveurs seront utilisés pour héberger les machines virtuelles.

    Référence rapide:
    La structure cloud classique est un cluster de machines virtuelles dont le fonctionnement est assuré par 2 composants matériels principaux :

    1. Partie informatique (calcul) - serveurs remplis de RAM et de processeurs, dont les ressources sont utilisées par les machines virtuelles pour le calcul
    2. Système de stockage (stockage) - un appareil rempli de disques durs, qui stocke toutes les données.

    Nous prenons les mêmes serveurs Supermicro que l'équipement, mais en installons plus processeurs puissants8 cœurs avec une fréquence de 2,6 GHz, ainsi que 96 Go de RAM dans chaque nœud, puisque le système sera utilisé non seulement pour stocker des informations, mais aussi pour le fonctionnement des machines virtuelles. Nous prenons un ensemble de disques similaire au premier scénario.

    Tableau 2. Matériel de cloud privé CEPH

    Composants Prix ​​(USD Qté Coût, USD
    Supermicro Twin 2027PR-HTR : 4 systèmes enfichables à chaud (nœuds) dans un facteur de forme 2U. Dual socket R (LGA 2011), jusqu'à 512 Go ECC RDIMM, IPMI 2.0 intégré avec KVM et LAN dédié. 6 baies de disque dur SATA remplaçables à chaud de 2,5 ". Alimentations redondantes de 2 000 W 4 999,28 1 4 999,28
    Module mémoire Samsung DDR3 16Go Enregistré ECC 1866Mhz 1.5V, Dual rank 139,28 18 2 507,04
    Processeur Intel Xeon E5-2650V2 Ivy Bridge-EP 8 cœurs 2,6 GHz (LGA2011, 20 Mo, 95 W, 32 nm) 1 416,18 3 4 248,54
    Disque dur SATA 2To 2.5" Capacité Entreprise SATA 6Gb/s 7200rpm 128Mb 512E 416 12 4 992,00
    Disque SSD SSD 2,5 "" 400 Go DC S3710 Series. 641 6 3 846,00
    LE TOTAL 20 592,86

    Le cloud collecté disposera des ressources suivantes, en tenant compte de la préservation de la stabilité lors de la défaillance du 1er nœud :

    • RAM : 120 Go
    • Espace disque 6000 Go
    • Cœurs de processeur physiques : 16 pièces.

    Le cluster assemblé pourra prendre en charge environ 10 machines virtuelles moyennes avec les caractéristiques suivantes : 12 Go de RAM / 4 cœurs de processeur / 400 Go d'espace disque.

    Il convient également de considérer que les 3 serveurs ne sont remplis qu'à 50 % et, si nécessaire, ils peuvent être réapprovisionnés, doublant ainsi le pool de ressources pour le cloud.

    Sortir: Comme vous pouvez le voir, nous avons à la fois un cluster de basculement complet de machines virtuelles et un stockage de données redondant - la défaillance de l'un des serveurs n'est pas critique - le système continuera à fonctionner sans s'arrêter, tandis que le coût de la solution est environ 1,5 fois inférieur que d'acheter des systèmes de stockage et des serveurs séparés.

    Cas d'utilisation 3 : Créer un entrepôt de données très bon marché

    Si le budget est complètement limité et qu'il n'y a pas d'argent pour l'achat du matériel décrit ci-dessus, vous pouvez acheter des serveurs d'occasion, mais vous ne devez pas économiser sur les disques - il est fortement recommandé d'en acheter de nouveaux.

    Nous proposons de considérer la structure suivante : acheté 4 nœuds de serveur, chaque serveur a 1 disque SSD pour la mise en cache et 3 disques SATA... Les serveurs Supermicro avec 48 Go de RAM et des processeurs de la série 5600 peuvent désormais être achetés pour environ $800 .

    Les disques ne seront pas assemblés en baies tolérantes aux pannes sur chaque serveur, mais seront présentés comme un périphérique distinct. À cet égard, pour améliorer la fiabilité du stockage, nous utiliserons le facteur de réplication 3. C'est-à-dire que chaque bloc aura 3 copies. Avec cette architecture, la mise en miroir du disque de cache SSD n'est pas requise, car les informations sont automatiquement dupliquées vers d'autres nœuds.

    Tableau 3. Accessoires de stockage

    Sortir: Si nécessaire, cette solution peut utiliser des disques plus volumineux, ou les remplacer par SAS, si vous avez besoin d'obtenir performance maximum pour le fonctionnement du SGBD. V cet exemple le résultat est 8 To de stockage avec un coût très faible et une tolérance aux pannes très élevée. Le prix d'un téraoctet s'est avéré 3,8 fois moins cher que lors de l'utilisation du stockage industriel pour 21 000 $.

    Tableau récapitulatif, conclusions

    Configuration Stockage Fujitsu ETERNUS DX100 + 12 Nearline SAS 1 To SFF (RAID10) Stockage Fujitsu ETERNUS DX100 + 12 Nearline SAS 1 To SFF (RAID10) + Supermicro Twin Notre scénario 1 : stockage basé sur CEPH Notre scénario 2 : construire un cloud privé Notre scénario 3 : construire du stockage ultra bon marché
    Volume utile, Go 6 000 6 000 6 000 6000 8 000
    Prix ​​(USD 21000 36000 15 770 20 592 7 324
    Coût de 1 Go, USD 3,5 6 2,63 3,43 0,92
    Nombre d'IOP * (lecture 70 % / écriture 30 %, taille de bloc 4K) 760 760 700 700 675
    Rendez-vous Espace de rangement Stockage + Informatique Stockage + Informatique Stockage + Informatique Stockage + Informatique

    * Le calcul du nombre d'IOPS a été effectué pour les matrices créées de disques SAS NL sur les systèmes de stockage et de disques SATA sur le stockage CEPH, la mise en cache a été désactivée pour la pureté des valeurs obtenues. Avec la mise en cache, les IOPS seront considérablement plus élevées jusqu'à ce que le cache soit plein.

    En conséquence, nous pouvons dire que des entrepôts de données fiables et bon marché peuvent être construits sur la base du cluster CEPH. Des calculs ont montré que l'utilisation de nœuds de cluster uniquement pour le stockage n'est pas très efficace - la solution est moins chère que l'achat de systèmes de stockage, mais pas de beaucoup - dans notre exemple, le coût du stockage sur CEPH était d'environ 25 % inférieur à celui du Fujitsu DX100. Les vraies économies se font sentir en combinant la partie informatique et le stockage sur le même matériel - dans ce cas, le coût de la solution sera 1,8 fois moins élevé que lors de la construction d'une structure classique utilisant un stockage dédié et des machines hôtes séparées.

    EFSOL met en œuvre cette solution en fonction des besoins individuels. Nous pouvons utiliser l'équipement dont vous disposez, ce qui réduira davantage les coûts d'investissement liés à la mise en œuvre du système. Contactez-nous et nous effectuerons une étude de votre équipement pour son utilisation dans la création de systèmes de stockage.

    Les systèmes de stockage à attachement direct (DAS) implémentent le type de connexion le plus connu. Lors de l'utilisation de DAS, le serveur a communication personnelle avec les systèmes de stockage et est presque toujours le seul utilisateur de l'appareil. Dans ce cas, le serveur reçoit un accès en bloc au système de stockage de données, c'est-à-dire qu'il accède directement aux blocs de données.

    Les systèmes de stockage de ce type sont assez simples et généralement peu coûteux. L'inconvénient de la méthode de connexion directe est distance courte entre le serveur et le périphérique de stockage. L'interface DAS typique est SAS.

    Stockage en réseau (NAS)

    Les systèmes de stockage en réseau (NAS), également appelés serveurs de fichiers, fournissent leurs ressources réseau aux clients via le réseau sous la forme de fichiers partagés ou de points de montage de répertoire. Les clients utilisent des protocoles d'accès aux fichiers réseau tels que SMB (anciennement CIFS) ou NFS. Le serveur de fichiers, à son tour, utilise des protocoles d'accès de bloc à son stockage interne pour traiter les demandes de fichiers des clients. Étant donné que le NAS fonctionne sur un réseau, le stockage peut être très éloigné des clients. De nombreux systèmes de stockage en réseau offrent des fonctions supplémentaires telles que l'imagerie de stockage, la déduplication ou la compression de données, etc.

    Réseau de stockage (SAN)

    Un réseau de stockage (SAN) fournit aux clients un accès de niveau bloc aux données sur un réseau (tel que Fibre Channel ou Ethernet). Les périphériques d'un SAN n'appartiennent pas à un seul serveur, mais peuvent être utilisés par tous les clients du réseau de stockage. Il est possible de diviser l'espace disque en volumes logiques qui sont alloués à des serveurs hôtes distincts. Ces volumes sont indépendants des composants SAN et de leur emplacement. Les clients accèdent à la banque de données à l'aide d'un accès de type bloc, tout comme une connexion DAS, mais étant donné que le SAN utilise un réseau, les périphériques de stockage peuvent être situés loin des clients.

    Actuellement, les architectures SAN utilisent le protocole Small Computer System Interface (SCSI) pour envoyer et recevoir des données. Les SAN Fibre Channel (FC) encapsulent le protocole SCSI dans des trames Fibre Channel. Les SAN utilisant iSCSI (Internet SCSI) utilisent des paquets SCSI TCP/IP comme transport. Fibre Channel over Ethernet (FCoE) encapsule le protocole Fibre Channel dans des paquets Ethernet en utilisant relativement nouvelle technologie DCB (Data Center Bridging), qui apporte un ensemble d'améliorations à l'Ethernet traditionnel et peut actuellement être déployé sur une infrastructure 10GbE. Parce que chacune de ces technologies permet aux applications d'accéder au stockage de données en utilisant le même protocole SCSI, il devient possible de toutes les utiliser dans une entreprise ou de migrer d'une technologie à une autre. Les applications exécutées sur le serveur ne peuvent pas distinguer FC, FCoE, iSCSI ou même DAS de SAN.

    Il y a beaucoup de discussions sur le choix de FC par rapport à iSCSI pour construire un SAN. Certaines entreprises se concentrent sur le faible coût des déploiements SAN iSCSI initiaux, tandis que d'autres optent pour des SAN Fibre Channel haute disponibilité et haute disponibilité. Bien que les solutions iSCSI bas de gamme soient moins chères que Fibre Channel, l'avantage de coût disparaît à mesure que les performances et la fiabilité du SAN iSCSI augmentent. Dans le même temps, certaines implémentations FC sont plus faciles à utiliser que la plupart des solutions iSCSI. Par conséquent, le choix d'une technologie particulière dépend des besoins de l'entreprise, de l'infrastructure existante, de l'expertise et du budget.

    La plupart des grandes entreprises qui utilisent des SAN choisissent Fibre Channel. Ces entreprises ont généralement besoin d'une technologie éprouvée, d'un débit élevé et d'un budget suffisant pour acheter le matériel le plus fiable et le plus performant disponible. Ils ont également du personnel pour gérer le SAN. Certaines de ces sociétés prévoient de continuer à investir dans l'infrastructure Fibre Channel, tandis que d'autres investissent dans des solutions iSCSI, notamment 10GbE, pour leurs serveurs virtualisés.

    Les petites entreprises sont plus susceptibles de choisir l'iSCSI en raison des barrières à l'entrée à faible coût, tout en étant toujours en mesure d'étendre davantage leurs SAN. Les solutions peu coûteuses utilisent généralement la technologie 1GbE ; Les solutions 10GbE sont nettement plus chères et ne sont généralement pas considérées comme des SAN d'entrée de gamme.

    Stockage unifié

    Le stockage unifié combine les technologies NAS et SAN dans une seule solution intégrée. Ces référentiels polyvalents permettent à la fois l'accès aux blocs et aux fichiers aux ressources partagées, et sont plus faciles à gérer avec un logiciel de gestion centralisé.

    Un système de stockage de données (DSS) est un ensemble de logiciels et de matériel conçu pour gérer et stocker de grandes quantités d'informations. Les principaux supports de stockage à l'heure actuelle sont les disques durs, dont les volumes ont récemment atteint 1 téraoctet. Les principaux stockages d'informations dans les petites entreprises sont les serveurs de fichiers et les serveurs de SGBD, dont les données sont stockées sur des disques durs... Dans les grandes entreprises, la quantité d'informations peut atteindre des centaines de téraoctets, et des exigences encore plus élevées en termes de vitesse et de fiabilité leur sont imposées. Aucun lecteur de disque connecté localement ne peut répondre à ces besoins. C'est pourquoi les grandes entreprises introduisent des systèmes de stockage de données (DSS).

    Les principaux composants des systèmes de stockage sont : les supports de stockage, les systèmes de gestion de données et les réseaux de transmission de données.

    • Les porteurs d'informations. Comme mentionné ci-dessus, les principaux supports de stockage sont désormais les disques durs (ils seront peut-être remplacés dans un proche avenir par des circuits électroniques à semi-conducteurs. disques SSD). Les disques durs sont divisés en 2 types principaux : les SAS (Serial Attached SCSI) fiables et efficaces et les SATA plus économiques. Dans les systèmes de sauvegarde, des lecteurs de bande (streamers) sont également utilisés.
    • Systèmes de gestion de données. Le stockage offre de puissantes capacités de gestion des données. Le système de stockage fournit des fonctions de mise en miroir et de réplication des données entre les systèmes, prend en charge les baies auto-réparatrices tolérantes aux pannes, fournit des fonctions de surveillance, ainsi que des fonctions de sauvegarde au niveau matériel.
    • Réseaux de transmission de données. Les réseaux de données fournissent un support par lequel la communication entre les serveurs et les systèmes de stockage ou la communication d'un système de stockage avec un autre est effectuée. Les disques durs sont divisés par type de connexion : DAS (Direct Attached Storage) - disques directement connectés au serveur, NAS (Network Attached Storage) - disques connectés sur un réseau (les données sont accessibles au niveau du fichier, généralement via FTP, NFS ou SMB) et SAN (Storage Area Network) - réseaux de stockage (fournir un accès en bloc). V grands systèmes Stockage Le type de connexion principal est SAN. Il existe 2 méthodes pour créer un SAN basé sur Fibre Channel et iSCSI. Fibre Channel (FC) est principalement utilisé pour l'interconnexion au sein d'un seul centre de données. ISCSI est un protocole de commande sur IP SCSI qui peut être routé par des routeurs IP classiques. iSCSI vous permet de créer des clusters géo-distribués.

    Solution de stockage basée sur des baies HP et des commutateurs CISCO, volume de données supérieur à 1 Po (1 pétaoctet).

    Les principaux fabricants d'appareils utilisés pour construire des systèmes de stockage sont HP, IBM, EMC, Dell, Sun Microsystems et NetApp. Cisco Systems propose une grande variété de commutateurs Fibre Channel qui assurent la connectivité entre les périphériques de stockage.

    LanKey possède une vaste expérience dans la construction de systèmes de stockage de données basés sur les équipements des fabricants ci-dessus. Lors de la construction de systèmes de stockage, nous coopérons avec les fabricants et construisons des systèmes de stockage d'informations hautes performances et très fiables. Nos ingénieurs concevront et mettront en œuvre des systèmes de stockage qui répondent aux spécificités de votre entreprise, ainsi que développeront un système de gestion de vos données.

    2021 wisemotors.ru. Comment ça fonctionne. Le fer. Exploitation minière. Crypto-monnaie.