Dossier Futur Data center Six technos pour le data center … l’apport crucial des Graphics Processing Units le Conteneur simplifie la vie Encore une évolution qui virtuelle : elle ne gère aucun ne constitue pas à proprement système d’exploitation et utilise parler une rupture les seules ressources de son technologique, mais une système hôte. D’où sa rapidité avancée très significative. de création et de démarrage L’incarnation de cette montée puisque quelques millisecondes en charge programmée du suffisent. Ce gain de temps conteneur dans l’industrie et de productivité assure déjà du data center, s’appelle Docker. au conteneur une longévité Il s‘agit d’une technologie de prévisible. IBM, Amazon, conteneurisation open source, Microsoft et d’autres, qui simplifie la conception convaincus de longue date, et la production d’applications. apportent leur pierre à l’édifice Pour autant, on n’est pas de ce work in progress. C’est la en présence d’une machine logique même de l’open source. On le sait, les CPU (central processing units) ont constitué le socle de l’infrastructure pendant des années, voire des décennies. Mais voilà : la loi de Moore finit par se heurter à une limite physique. De surcroît, de grandes tendances naguère inconnues, comme l’analytique, le machine learning et l’internet des objets, exigent de nouvelles méthodes de traitement de l’information. Les GPU sont là pour les y aider. Et comme il arrive souvent dans l’économie numérique, ce type d’innovations doit son développement à l’extraordinaire vivier des jeux. Ce secteur est en effet l’un des plus grands pourvoyeurs du progrès technique. Le GPU devient crucial pour le fonctionnement idoine des centres de données. Cette capacité des GPU à exécuter des tâches en architecture parallèle, autrefois chasse gardée des jeux réputés gourmands en puissance de calcul, insuffle au data center une énergie nouvelle. les Systèmes experts dopent les performances Les logiciels communément regroupés sous de 15 % la consommation d’énergie observée le terme générique « systèmes experts » dans ses data centers. Pourtant les systèmes et fondés sur le principe de l’intelligence experts existaient dans les années 1980. Mais artificielle vont propulser la performance les éléments de recherche – reconnaissance du data center. Couplés avec les technologies vocale, atomisation à outrance, lemachine DCIM (data center infrastructure management), learning – étaient dans les limbes et, surtout, ils analysent la puissance, le refroidissement, ne communiquaient pas.« Le monde est plat », la capacité et, pour ainsi dire, la santé comme le remarque Thomas Friedman. du bâtiment et de tout ce qu’il contient. Ainsi, Résultat, les prestations immatérielles – plus le centre de données devient aux installations que la puissance des machines – affinent électriques et informatiques ce que le cerveau en permanence, via les outils de connectivité, est au corps humain. Selon Philippe Low, le visage de l’industrie 4.0. De ce point de vue, président de BroadGroup et organisateur le data center est l’appartement témoin du salon Datacloud, Google a déjà réduit du village planétaire. Suite du dossier p. 116 114 E.D.I N°76 | mars 2018