Top 4 des défis du Cloud en 2024 selon Cubbit
En 2024, la technologie du Cloud pourrait connaître un vrai tournant. À l’origine simple espace de stockage de données, son rôle devient de plus en plus central au sein de l’infrastructure technologique digitale globale. Le Cloud est aujourd’hui indispensable non seulement pour l’archivage des données, mais aussi en termes de cybersécurité, conformité réglementaire et continuité opérationnelle des entreprises.
Quatre sujets majeurs doivent être évoqués : la complexité croissante des ransomwares et les conséquences sur les infrastructures IT ; la nécessité de la reprise après sinistre informatique dans un environnement digital de plus en plus vulnérable ; le rôle fondamental de la souveraineté digitale à l’ère de l’IA et des cloud souverains ; enfin, la nécessité urgente de fusionner les technologies de périphérie et le cloud. Ces sujets sont déterminants pour le futur du stockage cloud.
Des ransomwares toujours plus complexes et dangereux
Durant les prochaines années, les ransomwares connaîtront une croissance exponentielle. D’après le rapport d’investigation sur la violation de données de Verizon pour 2023, les attaques ransomware ont été à l’origine de 24% des violations de données l’année dernière, ce qui a impacté, selon Sophos, 66% des organisations. Il s’agit donc de toute une industrie en constante évolution qui fournit de nouveaux “produits” en continu : en seulement trois ans, plus de 130 nouvelles “variétés” de ransomware ont été recensées, dont 95% sont vues comme les prochains dangers pour les appareils Windows.
Norton LifeLock, célèbre fournisseur de logiciel de sécurité, alerte qu’en 2024, de nouvelles techniques d’exploitation des infrastructures VPN et cloud pour transmettre des payload malveillants pourraient voir le jour. Les attaques envers les chaînes d’approvisionnement continueront, d’après Trend Micro, qui soutient l’idée que le risque le plus important provient des systèmes d’intégration et de distribution continues (le modèle CI/CD). Une étude mondiale commandée par Trend Micro démontre que plus de la moitié des organisations mondiales ont vu une partie de leur chaîne d’approvisionnement compromise par un ransomware. Micro Trend explique :
“Il n’existe pas de méthode unique pour mettre en place des pipelines CI/CD car ils reposent sur de multiples outils et processus qui comportent un certain nombre de risques de dépendance. “
Le thème de l’IA générative est également central et préoccupe de plus en plus les spécialistes. Dans une étude des services de renseignement britanniques publiée en janvier (fondée sur des informations classifiées, des connaissances du secteur, des éléments académiques et l’open source) le National Cyber Security Center (NCSC), la source la plus fiable au Royaume Uni, a évoqué sa “quasi certitude” que l’IA est à l’origine de l’augmentation des attaques ransomware. L’IA générative n’est aujourd’hui, du point de vue des cybercriminels, utile qu’à des fins d’ingénierie sociale et d’identification des victimes; mais elle pourrait, dans un futur proche contribuer directement à la création de nouveaux logiciels malveillants, à la reconnaissance des vulnérabilités et même à l’exécution des attaques elles-mêmes.
La reprise après sinistre, plus importante que jamais
Les interruptions des services IT seront de plus en plus fréquentes pendant l’année 2024. Après une année marquée par ce fléau, les perspectives d’amélioration ne sont pas très prometteuses. D’après une analyse de Cutover ces incidents ont impacté plus de 75% des entreprises dans les 12 derniers mois. Bien que la cybersécurité reste la priorité absolue pour 85 % des entreprises, seules 15 % d’entre elles mettent régulièrement à jour leur plan de reprise après sinistre, alors que 31% ne le revoient pas depuis plus d’un an. Même si les professionnels de l’IT sont de plus en plus méfiants à l’égard du danger cyber (plus de 94% des leaders IT se disent préoccupés), il est nécessaire d’automatiser et rendre plus efficace le plan de reprise après sinistre.
À la lumière de toutes ces études et ces chiffres, les experts estiment que le marché de la reprise après sinistre en tant que service (DRaaS) connaîtra une croissance annuelle de 25 % jusqu’en 2031. Cela mènera à l’innovation sur plusieurs niveaux ; le testing, la simulation de scènes de crise, l’élaboration de protocoles de réponse aux attaques, l’identification et la gestion des accidents. Avec l’émergence de nouvelles menaces, les fournisseurs de stockage cloud se trouveront eux aussi contraints à renouveler leur architecture informatique, surtout avec la connaissance, confirmée par Veeam, que plus de 93% des ransomwares ciblent précisément les sauvegardes.
La cybersécurité cloud-native deviendra une priorité absolue. Pour contrer la croissance inarrêtable du Ransomware as a service (RaaS) et du grand modèle de langage (LLM) toujours plus sophistiqués, le secteur du stockage cloud doit innover sans attendre, en adoptant de nouvelles technologies comme le cloud géo-distribué. Dans cette optique, TechTarget voit dans le cloud géo-distribué une architecture moderne et tendance en 2024 ; une véritable évolution du cloud hybride qui rassemble, au sein d’une plateforme unique, les ressources informatiques et les données présentes dans le cloud public et privé ainsi qu’en périphérie.
La souveraineté des données, un critère essentiel
La souveraineté numérique est le sujet principal en 2024 et les services de cloud souverains deviennent la cible numéro 1 pour les entreprises. Le rapport de l’ICD mentionne que 79% des agences gouvernementales mondiales affirment avoir commencé le processus de révision de leur stratégie informatique dans l’optique d’une souveraineté numérique. Au début de 2023, 17% des organismes publics utilisaient déjà le cloud souverain, alors que 30% affirment vouloir adopter des technologies similaires d’ici 2025.
L’avancée de l’intelligence artificielle intensifie le désir de localiser les données. L’intérêt pour le cloud souverain est croissant en 2024 selon Deloitte, qui considère le cloud distribué comme une solution de plus en plus en vogue, car elle permet de respecter les normes sur la résidence des données. Malgré tout, reste encore du chemin à parcourir. Les fournisseurs de stockage cloud centralisé qui prévoient d’offrir des services similaires doivent réévaluer leur politique de prix, évoque Deloitte, pour éviter les investissements initiaux dans le hardware et les infrastructures. La gestion des complexités inhérentes à l’intégration du cloud sur site et publics (associée à des services limités et pas toujours complets) et à l’évolutivité limitée par la disponibilité de l’infrastructure locale, représente toujours une pierre d’achoppement majeure pour les hyperscalers qui, aujourd’hui encore, jouissent d’une position dominante, bien que dans une mesure de plus en plus réduite.
Un stockage en périphérie de plus en plus utilisé
En 2024, la question de l’interopérabilité entre périphérie et cloud devient centrale. Dans un monde où le nombre d’appareils IoT (Internet of Things) ne cesse de croître et où les données produites sont en grande partie non structurées, le cloud et la périphérie doivent s’intégrer de manière transparente pour apporter de la valeur, en minimisant les silos de données typiques du cloud centralisé.
La croissance des données non structurées provenant d’appareils en périphérie est exponentielle. En 2024, selon Statista, 17,08 milliards d’appareils seront connectés, contre 15,14 milliards l’année précédente. Il n’est donc pas surprenant, selon les estimations d’IDC, que plus de 157 zettaoctets de données soient générés au cours de ces 12 mois, dont 20 % en périphérie, ce qui représente une croissance de 34 % d’une année sur l’autre.
Pourtant, même face à ces chiffres, pour les entreprises, miser sur l’interopérabilité n’est pas suffisant. Selon une étude récente d’Accenture, 83 % des responsables IT estiment que l’informatique en périphérie permettra de rester compétitif à l’avenir. Pourtant, seules 65 % des entreprises utilisent l’informatique de pointe, et parmi elles, seule la moitié affirme l’avoir complètement intégrée à leur infrastructure numérique.
Le défi de l’infrastructure reste le sujet le plus délicat. Alors que le désir de résidence des données s’accroît, il est nécessaire de trouver des solutions qui garantissent la sécurité et la conformité sans compromettre les performances.
Un autre facteur à prendre en compte est la complexité : l’offre commerciale des fournisseurs de services cloud devra s’adapter aux besoins des entreprises, qui ne peuvent se permettre une charge organisationnelle supplémentaire. La gestion durable dans une perspective de cloud hybride, où les actifs numériques sont situés sur des plateformes hétérogènes est également un thème majeur.
Enfin, il convient de prêter attention à la localisation des données. Les fournisseurs de stockage cloud qui veulent surmonter les limitations de latence liées à la périphérie doivent accorder plus d’attention au geofencing, c’est-à-dire à la possibilité de délimiter le périmètre géographique où les données sont stockées. En effet, les utilisateurs doivent toujours pouvoir déterminer avec certitude où sont stockés leurs actifs.
Cubbit : une solution de cloud géo-distribuée sans compromis
Dans le paysage des services cloud distribués, Cubbit est une solution qui devient de plus en plus populaire. Fondé à Bologne en 2016, Cubbit est le premier cloud géo-distribué d’Europe, avec plus de 250 entreprises clientes à travers le continent, dont Leonardo, Amadori, Bonfiglioli et le géant français de la cybersécurité Exclusive Networks.
Contrairement au cloud centralisé, Cubbit ne stocke pas les données des utilisateurs dans un endroit unique, mais les crypte, les fragmente et les réplique sur un réseau géodistribué qui combine des centres de données périphériques et traditionnels. Il en résulte un stockage d’objets hyper-résilient, souverain, multitenant et compatible S3. Il n’impose d’ailleurs pas de coûts supplémentaires pour la redondance des données.
Cubbit permet à l’utilisateur d’archiver à un prix simple et adapté aux dépenses d’investissement, sans frais de sortie ou surprises budgétaires. Pour contrer les cybermenaces, la plateforme prend en charge le verrouillage des objets, le versionnage et les politiques IAM, garantissant une durabilité des données allant jusqu’à 15 9, la plus élevée du marché. En cas d’indisponibilité d’un ou de plusieurs sites géographiques, il est toujours possible d’accéder à ses données et de les sauvegarder, car elles sont réparties sur l’ensemble du réseau Cubbit. L’architecture de la plateforme garantit ainsi l’absence de point de défaillance unique, ce qui minimise le risque de temps d’arrêt, de violation des données et d’attaques par ransomware.
La souveraineté numérique est un point fort de Cubbit. La solution offre en effet le geofencing, grâce auquel l’utilisateur peut géo-délimiter la zone dans laquelle les données sont stockées, en pleine conformité avec les réglementations spécifiques de leur pays (par exemple GDPR). Cubbit est en fait certifié MePa, ISO 9001 et ISO 27001 et possède la qualification ACN (Agence pour la cybersécurité nationale, successeur de l’AgID, Agenzia per l’Italia Digitale).
En savoir plus : https://www.cubbit.io/?utm_source=edi-mag&utm_medium=blogpost&utm_campaign=sponsoredarticle1