Together, your Internet even better

Articles taggés avec : DC

Jaguar Network lance la construction d’un 3ᵉ DC à Lyon

Le vendredi, 06 novembre 2020. Posté dans Archives Rezopole

Jaguar Network lance la construction d’un 3ᵉ DC à Lyon

Après avoir racheté DCforData et son datacenter à Limonest en 2018, Jaguar Network inaugure son deuxième datacenter baptisé “Rock” un an plus tard dans le 8ᵉ arrondissement de Lyon. L’opérateur et hébergeur, filiale B2B du Groupe Iliad, lance aujourd’hui la construction d’un troisième site.

 

Une construction permettant de répondre à la demande exponentielle d’hébergement de données en région Auvergne-Rhône-Alpes et ainsi préserver cette souveraineté en proximité immédiate. L’objectif étant de proposer immédiatement de nouveaux services complémentaires pour des secteurs précurseurs comme l’industrie 4.0 et la e-Santé.

 

Les architectures d’hébergement désormais réparties sur trois sites actifs permettront d’adresser des demandes en provenance de toute la métropole lyonnaise et de sa région tout en garantissant la diversification et la sécurité de l’alimentation électrique.

Interconnecté aux opérateurs internationaux de premier rang ainsi qu’aux opérateurs nationaux et régionaux, ce nouveau de nœud de communication à très haut débit permettra d’accompagner les nouveaux usages et la transformation de la ville en optimisant la connectivité.

Spécialisé dans la smartcity et les enjeux de l’IA et du big data, ce nouveau datacenter, aura pour vocation de créer de nouveaux partenariats avec l’écosystème et d’ouvrir de nouvelles opportunités pour un bassin d’emplois en pleine mutation.

 

Une annonce confirmant l’investissement du Groupe Iliad dans la fibre optique pusiqu’il vise à raccorder 100 % des entreprises de la région AuRA d’ici 2024.

Et c’est l’affirmation pour Jaguar Network de son installation au sein de la deuxième région économique française en lien avec son marché historique des PME, ETI et grands comptes. Ceci préfigurant l’arrivée prochaine du Groupe Iliad dans le marché de l’entreprise.

 

 

 Lire l'article

 

Source : Datacenter Magazine

 

 

 

 

Canicule : pourquoi les DC français tiennent le coup

Le jeudi, 01 août 2019. Posté dans Archives Rezopole Archives GrenoblIX Archives LyonIX

Canicule : pourquoi les DC français tiennent le coup

Les épisodes de chaleur ne sont pas pris à la légère par les opérateurs de datacenters. En France, « nous sommes passés de 40 degrés à 46 degrés en quelques années. Nous avons rejoint les spécifications de l’Espagne » dit Marie Chabanon, directrice technique de DATA4 groupe.

 

Afin de contrer tout coup de chaud, la résistance des datacenters aux températures a augmenté « La grande crainte, c’est l’effet domino […] Si tout ou partie de l’infrastructure de froid a des problèmes, cela joue sur le reste de l’équipement. Et si le groupe froid s’arrête, c’est le pire qui puisse nous arriver avec la panne complète d’électricité » ajoute le Directeur Général d’Interxion, Fabrice Coquio. Un risque également lié à la qualité de la distribution électrique de RTE ou Enedis. « Nous devons anticiper un risque de perte électrique ou d’incident électrique » explique Marie Chabanon.

 

Mais les opérateurs de datacenters ont une botte secrète pour lutter contre cet effet domino. « Les systèmes électriques des datacenters sont construits pour être opérationnels a 100 % de la charge. Or ce n’est jamais le cas. La conséquence, c’est qu’en cas de sollicitation, comme un besoin de froid plus fort, nous avons de la puissance non allouée que nous pouvons utiliser » explique Fabien Gautier, d'Equinix. On appelle cela la redondance de capacité.

 

D’autant plus que la densification de puissance de calcul par unité d’espace ces dernières années, avec la démocratisation de la virtualisation, provoque plus de consommation et plus de chaleur. « Avec des baies de 14 ou 15 kvA on occasionne des points chauds, plus sensibles à des périodes de canicule » détaille Fabien Gautier. Le travail d’urbanisation de l’architecture IT déployée dans les salles est donc essentiel. « Notre travail c’est donc l’urbanisation des salles. Si elles ont été remplies à la volée, ça peut poser problème » ajoute-t-il.

Cela passe entre autres par de la répartition de charge. « Nos datacenters sont désignés avec des redondances et un taux de charge de 50 %. Les machines de backup seront utilisées pour assurer de la puissance complémentaire » en cas de canicule indique Marie Chabanon. Il faut néanmoins l’anticiper. « Nous devons nous assurer que les systèmes de backup sont prêts a être opérationnels, et ce par des actions de maintenance et de contrôle sur les équipements de sauvegarde ».

 

La protection des datacenters contre la chaleur passe aussi par la mise en place de systèmes curatifs. « Nous avons installé des systèmes de projection d’eau pour arroser les équipements de toit avec de l’eau pas trop froide » précise Fabrice Coquio.

Et pour parer à toute éventualité en début de soirée, le planning des techniciens présents sur le site a été modifié. Il est également nécessaire de prévenir les clients afin qu’ils fassent attention.

 

Les progrès récents en matière de résistance des matériels informatiques et de conception des datacenters permettent de revoir à la hausse les températures dans les salles de stockage des serveurs. « L’idée, c’est que plus le PUE (Power Usage Effectiveness) est bas plus il est performant. Il y a dix ans on faisait des datacenters où l’on arrivait difficilement à un PUE de 1,6. Aujourd’hui on est à 1,2 et on se rapproche de 1. Cela représente 20 % de gains en jouant sur la température et la performance énergétique des nouveaux équipements » indique Marie Chabanon. Résultat : le système de refroidissement se concentre désormais sur les machines avec de l’air pulsé. Il n’y a plus besoin de réfrigérer des salles entières.

« Nous constatons une évolution du design sur la température en salle selon les préconisations de l'Ashrae (American Society of Heating and Ventilating Engineers). L’idée est de bien fonctionner avec des plages de températures bien plus haute. Nous sommes passés de plages de 20 à 22 degrés à 18 à 27 degrés » complète-t-elle. Depuis 2011, ces normes ont été relevées : elles recommandent de souffler en face avant à 26 degrés sur les équipements en salle. « Le niveau d’hygrométrie a aussi été modifié […] En 2008, il était entre 40 et 60 %. Il est désormais à 70 % » précise Fabrice Coquio.

 

De quoi limiter les dépenses côté refroidissement sans pour autant jouer sur la résistance des installations. Un point critique en période de canicule.

 

 

 

 

 Lire l'article

 

Source : ZDNet

 

 

 

 

Le Continuum des Data Centers

Le mardi, 25 juin 2019. Posté dans Archives Rezopole Archives GrenoblIX Archives LyonIX

Le Continuum des Data Centers

La tendance visionnaire des années 2010 positionnait massivement les surfaces des centres de données dans des DC Hyperscale, idéalement situés dans des zones proche du cercle polaire. A l’époque seule la question des risques systémiques semblait pouvoir ralentir cette évolution.

 

Mais aujourd’hui la réalité n’est plus du tout la même. En effet, un modèle de continuum est venu remplacé cette vision d’hyper-concentration des surfaces, qui peut se résumer en 6 niveaux.

  • Les Data Centers Hyperscales conservent toujours leur attrait pour des stockages de masse et des traitements non transactionnels. Leur objectif est d’amener le meilleur coût de production, en positionnant une grande mutualisation de surface là où le foncier et l’énergie sont bon marché.
  • Les Data Centers Hubs sont principalement positionnés à Frankfort, Londres, Amsterdam et Paris en Europe. Ces zones concentrent des centres de données de grande taille et bénéficient d’une interconnexion rapide entre eux. Ces espaces sur-attirent les opérateurs car l’interconnexion prime sur le potentiel du marché local.
  • Les Data Centers Régionaux, localisés dans toutes les autres villes significatives, adressent cette fois-ci le potentiel économique local, avec des acteurs de Cloud pour les entreprises ou des hébergeurs agissant en premier niveau d’accès vers les DC Hubs.
  • Les Data Centers « 5G » vont s’installer au plus près des zones urbaines afin de répondre au besoin de latence requis par les usages des populations.
  • Les micro-Data Centers vont amener une faible latence lors d’une concentration importante d’usage (un stade, une usine).
  • Les pico-Data Centers vont adresser l’usage du particulier, amenant ainsi une latence minimum et surtout une gestion des données privées.

 

Malgré des tailles différentes, les trois premiers niveaux de ces centres de données répondent aux mêmes principes de conception. A ceci près que les Data Centers Hyperscales sont souvent mono-utilisateurs. Il leur est donc possible de positionner des choix de conception plus restrictifs que dans les colocations.

Les trois derniers niveaux appartiennent à l’univers du Edge et visent à positionner l’espace des DC au plus près des usages. En revanche, ces niveaux répondent à des principes de conception différents.

L’installation se fera de manière industrielle pour les micros et pico-Data Centers. Les problématiques principales seront plus liées à la protection physique ou à la maintenance / exploitation de ces infrastructures.

Les Data Centers « 5G » amène une nouvelle donne. En effet, ils ont tout du « petit » DC mais doivent être implémentés dans des environnements complexes. Ils subissent de nombreuses contraintes de sécurité et de respect des normes étant positionnés dans des zones urbaines. Cependant, la plus grande complexité réside dans le manque de place pour déployer les lots techniques.

 

 

 

 Lire l'article

 

Source : Global Security Mag

 

 

 

 

Peering et DC centraux : incontournables ?

Le vendredi, 14 juin 2019. Posté dans Archives Rezopole Archives GrenoblIX Archives LyonIX

Peering et DC centraux : incontournables ?

Les data centers centraux sont des relais de connectivité, de véritables places de marché. Ils rassemblent la quasi totalité des acteurs de la chaîne de valeur numérique. L’enjeu est donc de savoir les identifier, de pouvoir les reconnaître dans le but notamment d’ouvrir un PoP (Point Of Presence).

 

Il existe trois types de data centers : hyperscale, edge et core (ou central). Habituellement organisés en boucle, chacun a un rôle bien précis dans l’organisation d’une architecture informatique. Il est très courant de voir des acteurs héberger leur applicatif dans un hyperscale, déployer leur IT dans un edge et assurer un chemin réseau optimisé en créant des liens de peering dans un core.

 

Les DC centraux ont une importance bien spécifique et sont donc en passe de devenir de véritables leviers de performance qui déterminent de nombreux choix d’infrastructure.

Mais comment les identifier ? Le plus facile est de consulter les bases de référencement d’acteurs réseaux comme PEERING DB et de rechercher le data center enregistrant le plus grand nombre de membres. Si ils ont des éléments différenciants comme le nombre de membres et de ports réseaux disponibles, les équipements réseaux amortis ou encore un choix d’acteurs extrêmement large, c’est dans le peering que réside leur attrait principal.

 

Dans un DC central tout le monde est sur le même pied d’égalité : chacun partage de la donnée via une connexion physique d’un point A vers un point B. Peu importe la nature de l’interconnexion : peering, interconnexion directe ou transit, je sais que tout le monde est à distance de câble de mon rack. Je vais donc bénéficier du « clustering effet ». Et l’effet est vertueux, plus un data center central réunit d’acteurs, plus il y a d’interconnexion, moins c’est cher.

 

Le peering est une tendance forte en passe de devenir incontournable. Une étude publiée par l’Arcep en 2017 liée à la mesure du trafic chez les FAI en France indique que les données échangées sur le territoire sont réparties de cette manière : 50 % pour le transit, 46 % pour le private peering et 4 % pour le peering public. Les mêmes ratios ont été observés par le Journal du Net dans l’un de ses data centers centraux. La part de transit descend de manière très importante entre 2017 et 2018. Le public peering prend quant à lui de l’essor et le private peering augmente de manière très significative. Trois conséquences principales découlent de cette dynamique : les acteurs du contenu vont se rapprocher au plus près des clients finaux « bypassant » à court et moyen les hébergeurs et transitaires, les transitaires voyant leur business baisser vont essayer de récupérer sur le maillon CDN les marges qu’ils sont en train de perdre, et enfin les FAI essayeront de se rapprocher eux-mêmes du client final en incluant du contenu dans leurs offres.

 

Plusieurs bonnes pratiques méritent d’être partagées pour passer au trafic en direct. Premièrement, commencer par l’applicatif. Avant de choisir où héberger son IT, il est nécessaire de s’interroger sur la nature de ce dernier. En fonction de la réponse, il faut organiser son architecture. L’enjeu étant de créer des accès réseau facilitant l’expérience utilisateur et réduisant les coûts. Suivant leur priorité et le niveau de sécurité requis, les applicatifs seront donc répartis entre core, edge et hyperscale.

Deuxièmement, comment rapprocher l’utilisateur de ces applicatifs ? L’alternative est assez simple : soit utiliser du peering ou des interconnexions directes, soit mettre l’applicatif en local au sein de son data center et monter un lien réseau privé vers l’utilisateur final.

 

Le sens de l’histoire semble aller vers une transformation du mandataire IT en acheteur. Les responsables informatiques sont désormais en mesure d’organiser ces choix d’externalisation dans ces trois types de data centers. Les choix métiers deviennent dès lors des choix business.

 

 

 Lire l'article

 

Source : Journal du Net

 

 

 

 

Les DC sous l’influence du Cloud

Le jeudi, 02 mai 2019. Posté dans Archives Rezopole Archives GrenoblIX Archives LyonIX

Les DC sous l’influence du Cloud

Publiée par Axians, l’étude DataCenter 2018-2021 Quelles évolutions pour vos infrastructures informatiques, indique que les data centers seront gérés majoritairement sur un mode de Cloud privé à l’horizon 2021. Plus de la moitié devront intégrer un modèle de gestion des données selon un modèle de Cloud hybride.

 

Interrogés en 2018, près de 80 % des DSI affirment gérer principalement des infrastructures On Premise et en mode Cloud privé pour près d’un tiers d’entre eux. D’ici 2021, cette tendance se renforcera puisque, contrairement aux idées reçues, les data centers en interne ne vont pas disparaître. En effet, ce sont les technologies mises en œuvre qui vont évoluer et permettre à ces centres de données de fonctionner en mode Cloud.

 

Même si plus de la moitié des entreprises sont conscientes de l’obligation de gérer les données en mode Cloud public-privé, seulement 12 % des répondants ont un projet prévoyant la mise en place d’une solution Cloud hybride.

 

Toujours selon cette étude, les 4 enjeux principaux actuels pour les DSI sont la sécurité (73%), la maîtrise des coûts (66%), la conformité réglementaire (60%) et la digitalisation des métiers (52%). La technologie qui impactera le plus les data centers d’ici trois ans sera la cybersécurité devant l’automatisation des services métier. Côté logiciels, VMware est en tête devant Microsoft et Red Hat. Tandis que côté opérateurs de Cloud, Microsoft est cité en premier devant OVH et AWS.

 

Pour la majorité des DSI interrogés, ils restent les garants technique et opérationnel des infrastructures ou de la stratégie et de l’innovation. Cependant, de nouveaux rôles émergent tels que fournisseurs de ressources en mode Cloud privé piloté par la SLA ou opérateurs de Cloud hybride.

 

 

 Lire l'article

 

Source : Informatique News

 

 

 

 

 

Augmentation des dépenses dédiées aux DC

Le mercredi, 17 avril 2019. Posté dans Archives Rezopole Archives GrenoblIX Archives LyonIX

Augmentation des dépenses dédiées aux DC

Boosté par un marché des infrastructures Cloud en pleine expansion, les dépenses en matériels et logiciels dans les DataCenters ont crû de 17 % en 2018. Un marché mondial dominé par Dell EMC suivi par Cisco, Hewlett Packard Entreprise et Huawei. Des investissements motivés par une « demande croissante » en services de Cloud public et par le besoin de configuration « toujours plus riches » d’après Synergy Research Group qui publie ces chiffres. Par conséquent, le prix de vente moyen des serveurs d’entreprise est monté en flèche.

 

Plus en détail, les dépenses consacrées aux achats d'infrastructures pour le Cloud public ont augmenté de 30 % contre 13 % pour celles orientées vers l’équipement des DataCenters d’entreprise. « Les revenus des services Cloud continuent de croître de près de 50 % par an » déclare John Dinsdale, analyste chez Synregy Research Group. « Les revenus du SaaS et du e-commerce augmentent chacun d’environ 30 %. Tous ces facteurs contribuent à une forte augmentation des dépenses pour les infrastructures du Cloud public » ajoute-t-il.

 

Le marché du Cloud public est dominé par les ODM qui représentent la plus grande partie en revenus cumulés. Du côté des marques, on retrouve Dell EMC devant Cisco, HPE et Huawei. Dell EMC s’impose également sur le marché du Cloud privé suivi par Microsoft, HPE et Cisco. Ces quatre fournisseurs figurent en tête sur le marché des DataCenters hors Cloud mais dans un ordre différent.

 

Le total des revenus tirés de l’équipement des DataCenters, y compris le matériel et les logiciels Cloud et hors Cloud s’élève à 150 milliards de dollars en 2018 indique l’analyste. Le marché de l’infrastructure des DataCenters est composé à 96 % par les serveurs, les systèmes d’exploitation, le stockage, la mise en réseau et les logiciels. La sécurité des réseaux et les logiciels de gestion représentant le reste.

 

Par segment, Dell EMC occupe la première place en termes de revenus dans les domaines des serveurs et du stockage. Cisco, quant à lui, surplombe le segment des réseaux. On retrouve ensuite Microsoft, HPE, VMware, Lenovo, Inspur, NetApp et Huawei qui a enregistré la plus forte croissante en un an.

 

« Nous constatons également une croissance relativement forte des dépenses en infrastructures des DataCenters d’entreprises, les principaux catalyseurs étant des charges de travail plus complexes, des exigences hybrides en matière de Cloud, des fonctionnalités de serveur accrues et des coûts de composants plus élevés » conclut M. Dinsdale.

 

 

 Lire l'article

 

Source : Le Monde Informatique

 

 

 

 

 

 

Défaillances dans les DC : causées par le réseau ?

Le mercredi, 17 avril 2019. Posté dans Archives Rezopole

Défaillances dans les DC : causées par le réseau ?

Si les coupures d’électricité sont une cause fréquente de pannes dans les datacenters, elles ne sont plus les seules. En effet, les défaillances des systèmes IT et les erreurs réseaux sont à l’origine de panne de plus en plus nombreuses. C’est pourquoi l’Institut Uptime s’est intéressé aux pannes connues pour savoir qu’elle était l’origine des interruptions de services non planifiées. Pour se faire, la société a décortiqué 162 interruptions de services signalées dans les médias traditionnels et sociaux au cours des trois dernières années.

 

27 pannes ont fait l’objet d’articles dans les médias en 2016, 57 en 2017 et 78 en 2018. « Les pannes de services se retrouvent de plus en plus régulièrement à la une des médias » a déclaré Andy Lawrence, directeur exécutif de la recherche à l'Institut. Cela ne signifie pas nécessairement que le nombre de pannes augmente en flèche mais plutôt que les temps d’interruption attirent de plus en plus l'attention. « Il est clair que pour les utilisateurs, l’impact des pannes est certainement plus dommageable aujourd’hui » ajoute-t-il.

 

L’étude a permis de mettre en évidence que dans les pannes globales les problèmes de réseau et des systèmes IT sont davantage mis en cause que ceux liés à l’alimentation électrique. On explique cela par le fait que les systèmes d’alimentation électrique sont plus fiables que par le passé et qu’il y a donc moins de coupures de courant dans les datacenters.

 

En parallèle, la complexité croissante des environnements IT est à l’origine d’un nombre croissant de problème liés à l’IT et aux réseaux. « Désormais, les données sont dispersées dans plusieurs endroits, avec des dépendances critiques par rapport au réseau, par rapport à la façon dont les applications sont architecturées et à la façon dont les bases de données se répliquent. C’est un système très complexe, et il faut aujourd'hui moins d’événements pour en perturber le fonctionnement » a expliqué Todd Trader, vice-président de l’optimisation et de la stratégie IT à l’Institut Uptime.

 

Une tendance d’autant plus marquée lorsque l’on compare les causes d’une année sur l’autre. 28 % des pannes étaient liées à des problèmes d’alimentation électrique en 2017 contre 11 % l’année suivante. Les défaillances liées aux systèmes informatiques sont restées relativement constantes : 32 % en 2017 puis 35 % en 2018. Les pannes imputables aux problèmes de réseau ont augmenté de façon significative, passant de 19 % en 2017 à 32 % en 2018. « Les choses sont reliées non pas à un ou deux sites mais à trois ou quatre sites, voire plus, Le réseau joue un rôle de plus en plus important dans la résilience informatique » remarque Todd Traver.

 

Afin de pouvoir distinguer une interruption qui peut menacer l’activité d’une entreprise d’une panne juste gênante, l’Institut Uptime a mis au point une grille d’évaluation avec une échelle de 5 niveaux :

  • niveau 1 : désigne un arrêt négligeable. La panne est enregistrable mais il y a peu ou pas d’impact évident sur les services et aucune interruption de service.
  • niveau 2 : qualifie une interruption de service minimale. Les services sont perturbés, mais l’effet sur les utilisateurs, les clients ou la réputation est minime.
  • niveau 3 : désigne une interruption de service importante pour l’entreprise. Il s’agit d’interruptions du service à la clientèle ou aux utilisateurs, le plus souvent de portée, de durée ou d’effets limités. L’impact financier est minime ou nul mais il y a un certain impact sur la réputation ou la conformité.
  • niveau 4 : concerne une panne d’exploitation ou de service grave entraînant une perturbation du service et / ou des opérations impliquant des pertes financières, des manquements à la conformité, des atteintes à la réputation et peut-être même des problèmes de sécurité avec éventuellement des pertes de clients.
  • niveau 5 : qualifie une panne critique pour l’entreprise ou la mission, entraînant une interruption majeure et dommageable des services et / ou des opérations, impliquant d’importantes pertes financières, des problèmes de sécurité, des manquements à la conformité, des pertes de clients et des atteintes à la réputation.

 

Cette analyse a été approfondie par les chercheurs qui ont identifié plus spécifiquement l’origine des pannes de datacenters.

Les motifs des pannes les plus courants quand le réseau est en panne :

  • coupures de fibres en dehors du datacenter et nombre insuffisant d’alternatives de routage
  • panne intermittente des principaux commutateurs et absence de routeurs secondaires
  • panne majeure de switch sans sauvegarde
  • configuration incorrecte du trafic pendant la maintenance
  • mauvaise configuration des routeurs et des réseaux définis par logiciel
  • défaut d’alimentation de composants individuels non sauvegardés comme des commutateurs et des routeurs

 

Pour l’informatique, les causes les plus courantes sont :

  • mise à niveau mal gérée
  • échec et corruption de données subséquente d’un grand nombre de disques ou de systèmes de stockage SAN
  • défaillance de synchronisation ou erreurs de programmation dans le système d’équilibrage de charge ou de gestion du trafic
  • système de défaillance / synchronisation ou de reprise après sinistre mal programmés
  • perte de puissance au profit de composants individuels non sauvegardés

 

Quand c’est l’alimentation électrique qui fait défaut, les motifs des pannes sont :

  • la foudre provoque des surtensions et des coupures d’électricité
  • défaillances intermittentes avec les commutateurs de transfert et impossibilité de démarrer les générateurs ou d’effectuer les transferts vers un second datacenter
  • pannes de l’onduleur et absence de transfert vers les systèmes secondaires
  • le fournisseur n’arrive pas à délivrer la puissance nécessaire avec défaillance subséquente du générateur ou de l’onduleur
  • dommages causés aux équipements informatiques par surtension

 

« De façon générale, les entreprises devraient accorder plus d’attention à la résilience des datacenters. Elles ont besoin de connaître leurs architectures, de bien comprendre toutes les interdépendances, d’identifier les motifs des défaillances, de prévoir des solutions en cas d’échec. Or ce dernier aspect est souvent négligé » ajoute Todd Traver.

 

 

 Lire l'article

 

Source : Le Monde Informatique

 

 

 

 

Concevoir aujourd’hui des DC pour demain

Le mercredi, 27 février 2019. Posté dans Archives Rezopole Archives GrenoblIX Archives LyonIX

Concevoir aujourd’hui des DC pour demain

Comment parvenir à construire des infrastructures informatiques de manière durable et pérenne pour les 20 prochaines années ? Quels sont les éléments importants à prendre en compte lors de la phase de conception ?

 

Même si en apparence construire des centres de données peut paraître assez facile, il s’agit d’un secteur évoluant rapidement. En effet, aujourd’hui les salles se densifient, les serveurs consomment de plus en plus d’énergie et sont plus lourds. Des concepts de modularité bousculent le marché tous les mois, les gammes évoluent vite pour répondre davantage aux besoins des utilisateurs…

 

C’est pourquoi l’adaptabilité et la modularité doivent faire partie des solutions à ces problématiques dès les phases de conception. Comme par exemples, choisir des solutions de refroidissement et électriques modulables, augmenter la puissance et monter en charge lors des maintenances, designer les gros équipements en les surdimensionnant.

Il peut également être très utile de mettre en place de nouvelles méthodes de travail type Agile. Il est donc primordial d’être flexible et de s’adapter à ces changements qui peuvent affecter le projet durablement.

La modularité est aussi un point indispensable lors de la conception notamment si l’on choisit un lieu atypique pour implanter son centre de données. Cependant, des aspects légaux ou réglementaires peuvent aller à l’encontre de cette modularité. Il faut donc aborder au plus tôt ces problématiques qui ont souvent des délais incompressibles…

 

 

 Lire l'article

 

Source : Le Monde Informatique

 

 

 

 

Développement des DC français

Le mercredi, 20 février 2019. Posté dans Archives Rezopole Archives GrenoblIX Archives LyonIX

Développement des DC français

Interviewé par LeMagIT, Olivier Micheli constate que les centres de données français séduisent enfin les acteurs internationaux du Cloud et qu’ils se développent géographiquement afin de réduire les latences.

 

Exerçant à la fois les fonctions de PDG de Data4 Group et de Président de l’association France Datacenter, Olivier Micheli estime à 200 le nombre de grands datacenters en France pouvant atteindre jusqu’à 10 000 m². La capitale réunissant le plus grand nombre car Paris est un nœud d’interconnexion européen.

On dénombre entre 3000 et 5000 salles informatiques privées de taille et puissance variables à travers le pays.

Au-delà du souhait des entreprises d’avoir la main sur leurs équipements, l’importance d’une latence toujours plus faible pèse de plus en plus dans les activités économiques locales et le développement des villes intelligentes.

Selon Olivier Micheli, le marché tend vers des centres de données dont la taille est proportionnelle à celle de l’activité économique à proximité.

 

Après une période creuse entre 2012 et 2015, le marché des datacenters français a rattrapé son retard. La France se place aujourd’hui en quatrième position en Europe ex-aequo avec l’Irlande. Plusieurs raisons à cela : l’opportunité pour les entreprises internationales de s’adresser à 67 millions d’individus depuis des ressources IT hébergées localement, l’importance géostratégique de Marseille et aussi les efforts du gouvernement pour créer des conditions favorables au développement de ces datacenters.

Ce qui permet enfin à l’Hexagone de s’aligner sur le Royaume-Uni, l’Allemagne ou encore les Pays-Bas.

 

Les clients de ces centres de données sont à 70 % des acteurs du Cloud public tels que Amazon, AWS mais également des éditeurs comme Salesforce. Les entreprises utilisatrices souhaitent quant à elles beaucoup d’accompagnement.

 

Le premier enjeu des datacenters est, selon Olivier Micheli, la connectivité. En effet, les entreprises souhaitent désormais bénéficier d’une salle informatique délocalisée afin de redistribuer ces données vers les usagers et les acteurs d’Internet.

Le second enjeu est celui du bâtiment intelligent et d’atteindre 100 % d’énergie renouvelable en utilisant par exemple le Free Cooling.

 

 

 

 Lire l'article

 

Source : LeMagIT

 

 

 

 

Le plus grand datacenter de Lyon

Le jeudi, 24 janvier 2019. Posté dans Archives Rezopole Archives GrenoblIX Archives LyonIX

Le plus grand datacenter de Lyon

Inauguré le 15 janvier dernier par l’opérateur national Jaguar Network, le tout nouveau datacenter de la Métropole lyonnaise a été construit au sein du Bioparc du 8ème arrondissement. Baptisé « Rock » ce datacenter est également le plus important à Lyon avec plus de 4 000 m² et 800 baies informatiques.

Ce projet, soutenu par la région Auvergne-Rhône-Alpes, accueille dorénavant des projets informatiques dans les secteurs de la santé et de l’industrie 4.0 après seulement douze mois de construction.

 

Le bâtiment possède cependant une particularité pour un datacenter « L’esthétisme du bâtiment a été une contrainte imposée par les architectes de bâtiments de France : en effet, Rock se situe dans le périmètre de l’Hôpital Édouard Herriot, construit il y a un siècle par l'architecte Tony Garnier et inscrit à l’inventaire des monuments historiques. Ainsi, pour respecter le cahier des charges imposé par l'administration française, il a été obligatoire de doter le bâtiment de fenêtres, murées par des parpaings puisque totalement inutiles pour des salles informatiques..! » remarque Pierre Col dans un article de ZDNet.

 

L’exploitation des infrastructures de ce nouveau datacenter a été maximisée en utilisant par exemple l’intelligence artificielle « Une application développée par les équipes de Jaguar Network pilote pro-activement les installations afin d’en faire la maintenance préventive pour maximiser la disponibilité. C’est ainsi que des technologies basées sur le Big Data et le Machine Learning sont intégrées aux boîtiers spectres dont la mission est de détecter prédictivement tout incident », précise Jaguar Network.

De plus, une équipe est présente en permanence sur le site « Ce qui garantit un accompagnement de proximité aux clients pour l’exploitation simplifiée de leurs équipements IT. Un technicien peut intervenir en moins de 10 minutes sur tout serveur hébergé au cœur du bâtiment », explique l’opérateur et hébergeur Cloud.

 

Pour affirmer sa volonté d’investir dans la transformation numérique, la société a également créé un réseau de plus de 80 km de réseau de fibres noires. Ceci permet le raccordement de toute entreprise de la métropole lyonnaise directement par des câbles dédiés et sécurisés « Une offre de réseau dédié de 100 Gbps sera d’ailleurs commercialisée dès février 2019 pour proposer les plus importants débits de connexion disponibles en France pour les entreprises », annonce Jaguar Network.

 

 

 

 Lire l'article

 

Source : Lyon-entreprises.com

 

 

 

 

A Lyon, la bataille des data centers a commencé

Le lundi, 07 janvier 2019. Posté dans Archives Rezopole Archives LyonIX

A Lyon, la bataille des data centers a commencé

Ces infrastructures hautement sécurisées se sont multipliées au fil des années. En effet, il y a dix ans la Métropole lyonnaise comptait seulement 1 centre de données contre 14 aujourd’hui. Derrière ce nouveau marché se livre une bataille financière féroce.

 

La preuve en est : DCforData a inauguré son nouveau DC il y a à peine quelques mois dans le 8ᵉ arrondissement de Lyon. Avec une surface de 4 000 m² et déjà deux salles en service, « Rock » est l’un des plus gros de la région Auvergne-Rhône-Alpes. Ses clients sont principalement des collectivités, des grosses entreprises ou encore des sociétés de service du numérique de la région. Mais l’objectif est également d’attirer des firmes nationales voire mondiales.

En effet, d’après Nicolas Pitance, président de DCforData, « Lyon se trouve sur une énorme artère Télécom. Tout le monde connaît le tunnel de Fourvière ou la gare de la Part-Dieu, hé bien il existe également une artère Télécom du nord au sud de l’Europe en direction de Marseille. » Une opinion nuancée par Samuel Triolet, directeur de Rezopole, « Lyon n’est pas dans une position géographique idéale […] Paris, c’est la France, alors on comprend son attrait. A Marseille, de nombreuses fibres trans-méditérranéennes et trans-océaniques partent vers l’Afrique, le Moyen-Orient et l’Asie. Mais à Lyon, il n’y a aucun effet d’aspiration similaire ».

 

Cependant, l’intérêt de stocker ces serveurs localement est bien réel. D’un point de vue pratique tout d’abord, puisqu’une intervention technique sera bien plus facile et rapide si le centre de données est situé à proximité de l’entreprise. Ensuite, cela permet de réduire de façon considérable le temps de latence et le délai de transmission des données dans un univers où la protection des données est de plus en plus importante. Et enfin, la mutualisation des infrastructures permet aux entreprises de réaliser des économies. « C’est important pour les sociétés françaises d’héberger leurs services sur le territoire national car c’est un hébergement souverain : les entreprises restent soumises à une législation française de contrôle des données, c’est-à-dire une législation plus sévère qu’aux États-Unis et leur Patrioct Act » confirme Cyrille Frantz Honegger, directeur des relations régionales de SFR. Ce géant des Télécoms détient le data center « Net Center » implanté à Vénissieux sur une surface de 7 000 m².

 

Toutefois une autre menace pèse sur les entreprises : le hacking et le vol de données.

« Le data center protège des intrusions de personnes dans le bâtiment. Mais ce sont les gens qui exploitent les serveurs qui gèrent la sécurité informatique […] Des tentatives d’intrusions par des hackers, même nous on en bloque en permanence ! » explique Hervé Gilquin, chercheur en mathématiques appliquées et en charge d’un DC à l’Ecole Nationale Supérieure de Lyon. Cette école et d’autres institutions publiques ont quant à elles fait le choix de stocker en interne. Depuis 2017, L’ENS possède son propre centre de données raccordé au réseau Renater, réseau de télécommunication de la recherche, afin de garder au plus proche les données produites. « Les chercheurs font du développement, il faut bricoler quotidiennement sur les lieux, et avec tous les calculs que nous réalisons nos serveurs sont en activité permanente, ce serait trop coûteux pour nous d’externaliser » ajoute Hervé Gilquin.

 

En effet, ces DC et l’exigence qui en découle coûtent très cher. Les propriétaires de ces centres comptent sur des investissements privés et publics même si ces derniers sont assez récents. « La Métropole a mis du temps à comprendre l’intérêt économique d’un data center […] Pendant des années, les acteurs économiques lyonnais étaient persuadés que ça ne créait pas d’emploi. Mais sans data center au niveau local, les boîtes vont d’abord exporter leur gestion informatique, puis la finance, puis le marketing et finalement les ventes » détaille Samuel Triolet. Nicolas Pitance, quant à lui, ironise « Disons que ce n’est pas aussi visible et vendeur qu’un stade de foot ».

Un changement de cap stratégique puisque selon une étude réalisée par Cisco, la capacité de stockage des centres de données devrait encore être multipliée par 2 d’ici 2021. De quoi accroître encore davantage les ambitions des entreprises de ce secteur...

 

 

 

 Lire l'article

 

Source : Médiacités

 

 

 

 

FaLang translation system by Faboba