Dans notre monde numérisé, Internet est depuis longtemps devenu une infrastructure essentielle. Des flux de données toujours plus volumineux circulent inlassablement dans le monde entier. Pour les technologies du futur, comme l’intelligence artificielle, la réalité virtuelle et bien d’autres, l’interconnexion est le fondement indispensable. La numérisation sans réseaux n’est pas possible. C’est pourquoi il est si important que nous nous concentrions sur l’avenir de l’Internet – également au niveau de l’infrastructure de base.
L’innovation et l’explosion des données
Du côté des utilisateurs, au cours des dernières années, nous avons vu s’accélérer le développement de l’utilisation d’Internet. Cela va de l’expansion massive des achats en ligne, à la distribution toujours plus grande d’appareils mobiles, en passant par les services de streaming – il n’y a pratiquement aucun domaine de la vie quotidienne qui ne puisse en quelque sorte être connecté à Internet. Pendant que tout cela se passe, que se passe-t-il dans le «backend» d’Internet, dans les coulisses du centre de données?
À première vue, les développements ici peuvent sembler assez peu spectaculaires. Il peut être difficile pour les non-spécialistes de faire la différence entre un centre de données de 1998 et un d’aujourd’hui. Une différence encore relativement évidente est la disparition du cuivre: le câblage en fibre optique est utilisé presque exclusivement aujourd’hui.
Le développement continu de la base d’Internet peut être comparé à l’électricité: vous n’avez pas besoin d’un type d’alimentation «différent» selon que vous utilisez une simple ampoule ou une usine à la pointe de la technologie – vous il en faut juste beaucoup plus. En principe, il en va de même pour le trafic Internet: les nouvelles applications ne produisent pas un nouveau type de trafic, mais en règle générale, elles en produisent beaucoup plus. De plus, les applications les plus récentes et les plus innovantes relèvent la barre: seules de très faibles latences et une transmission absolument sécurisée rendront justice aux générations d’applications à venir.
La fibre optique pour rester la norme
Actuellement, dans les centres de données du monde entier, nous assistons à une «approche à grande échelle», ce qui signifie que les infrastructures existantes peuvent être étendues horizontalement pour répondre aux exigences croissantes. Pour optimiser l’espace utilisable dans les centres de données, beaucoup est fait pour augmenter l’intégration de la technologie de transmission, ainsi que pour accélérer l’automatisation grâce à des robots capables de travailler dans des espaces extrêmement confinés. Des approches complètement nouvelles et révolutionnaires pour l’ensemble de l’opération sont déjà en cours de recherche – par exemple, des centres de données conçus comme une salle blanche et dans lesquels la communication n’a plus lieu via des câbles à fibre optique, mais à travers des impulsions lumineuses qui se reflètent sur un plafond en miroir.
En 2017, des chercheurs autrichiens et chinois ont réussi à établir une connexion de données cryptée par cryptographie quantique. Cette méthode exploite l’effet de l’intrication au niveau des particules. Une clé quantique est générée à partir de photons connectés de cette manière, qui est ensuite envoyée d’un satellite à l’expéditeur et au destinataire. Toute tentative d’interception de cette clé sera remarquée par les deux parties, grâce à l’effet d’enchevêtrement. La transmission peut alors être interrompue. Cependant, dans cette méthode, seules les clés sont échangées par satellite, tandis que le trafic de données continue d’être transféré via un câblage traditionnel.
Mais nous voyons d’énormes progrès dans la technologie de transmission – les ports 400GE sont déjà utilisés chez DE-CIX aujourd’hui, par exemple. Le passage à la marque 1000GE n’est également qu’une question de temps – la planification et la normalisation à cet effet au sein de l’IEEE sont déjà en cours. Il est donc possible de dire que les fondements de la technologie de transmission connaîtront une nouvelle évolution innovante dans un avenir prévisible, mais ne seront pas remplacés par une technologie complètement nouvelle et révolutionnaire. Dans ce contexte, nous intensifierons encore davantage la technologie existante. Pour y parvenir, nous pouvons nous rabattre sur les moyens de réplication éprouvés, similaires à ce qui se passe déjà avec les processeurs. Avec la fin de la loi de Moore, l’optimisation du processeur central a approché ses limites, ce qui signifie que plusieurs processeurs cœur ont commencé à arriver sur le marché. La même approche est également adoptée dans la technologie des réseaux – heureusement, les fibres de verre ultra-minces peuvent être très facilement reproduites.
Pensez globalement, surfez localement?
Internet et la mondialisation vont de pair. Depuis que le Web a révolutionné la communication, le monde se rétrécit et converge de plus en plus vite. Et pourtant, précisément pour accompagner le développement futur d’Internet, il faut penser plus localement. Des applications telles que la réalité virtuelle et le contenu 8K nécessitent des volumes de données de plus en plus importants, mais exigent en même temps des latences de plus en plus faibles. Pour les applications de réalité virtuelle, celles-ci se situent dans la plage de 20 millisecondes – pour mettre cela en perspective, un clin d’œil prend 150 millisecondes. Si nous souhaitons implémenter de telles applications à grande échelle, la physique nous oblige à rapprocher les données de l’utilisateur. Depuis Albert Einstein, nous savons que rien dans l’univers ne peut se déplacer plus vite que la lumière – ce qui signifie que les données ne le peuvent pas non plus. L’énorme vitesse de 300 millions de mètres par seconde serait encore trop lente pour héberger du contenu VR aux États-Unis et le lire en Allemagne sans subir de saccades.
Au cours des 10 dernières années, la structure d’Internet a déjà changé – les fournisseurs disposent déjà de leur propre équipement pour la mise en cache du contenu dans les réseaux qui desservent les clients finaux, et de cette manière, ils rapprochent leurs données du consommateur. Ce qui se passe aujourd’hui dans les pôles régionaux de télécommunications comme Londres, Amsterdam et Francfort, devrait également être étendu en termes de superficie et de densité, également dans les zones rurales, pour une utilisation à grande échelle de la réalité virtuelle, par exemple dans les véhicules autonomes.
Développements rapides et normalisation lente
L’Internet des objets (IoT) est indiscutablemnt au début de son âge d’or. Divers pronostics prévoient que le nombre d’appareils connectés pourrait dépasser la barre des 20 milliards dès l’année prochaine et pourrait atteindre 50 milliards d’ici 2022. Même aujourd’hui, il y a peut-être déjà plus d’appareils connectés sur la planète qu’il n’y a d’habitants.
Et pour tout cela, nous n’utilisons fondamentalement qu’un seul protocole réseau: de facto, tout Internet est basé sur le protocole Internet (IP). La norme IPv4, toujours dominante aujourd’hui, utilise des adresses 32 bits, c’est-à-dire qu’il y en a 2 à la puissance de 32, soit environ 4,3 milliards d’adresses différentes possibles. Cela permet d’attribuer une adresse IP à une personne sur deux, sans parler des nombreux systèmes informatiques qui ont besoin d’accéder à Internet. Bien sûr, cela est connu depuis un certain temps maintenant, et un nouveau format 128 bits existe en principe depuis 1998. Ce nouveau standard IPv6 offre un espace d’adressage de 2 à la puissance de 128, soit environ 340 sextillions. Avec cela, il n’y aurait pas lieu de s’inquiéter de manquer d’adresses IoT. Cependant, les mesures effectuées à DE-CIX montrent qu’actuellement, seulement 5% environ du trafic correspond à la nouvelle norme.
Afin de structurer les bits qui se déplacent à travers l’infrastructure Internet et de les interpréter de l’autre côté, il est nécessaire de normaliser les protocoles utilisés. Cela a lieu pour Internet au sein de l’Internet Engineering Task Force (IETF). Les changements et les déploiements sur Internet prennent tellement de temps parce que les différents acteurs doivent trouver un consensus, parfois en conflit avec leurs intérêts financiers et politiques. Une solution technologique à ce problème pourrait être l’équipement de réseau librement programmable qui commence à apparaître sur le marché. Contrairement à la génération actuelle, dans laquelle se produit simplement une configuration des protocoles normalisés, dans la génération à venir, le traitement des flux de données et des paquets peut être défini au moyen d’un logiciel. Cela permet à moyen terme aux sous-réseaux de développer leurs propres protocoles et de les utiliser dans des domaines fermés.
Résumé – L’Internet du futur
Nous sommes au début d’une nouvelle ère qui sera caractérisée par la numérisation et l’interconnexion constante de tout. L’objectif de la prochaine génération d’Internet est, grâce à l’abstraction et à l’automatisation, d’activer spontanément toute bande passante souhaitée entre tous les participants ou centres de données. Pour cela, un développement continu et cohérent des technologies existantes est nécessaire et, en outre, de nouvelles approches d’intégration de l’infrastructure, des logiciels et des services doivent être conçues. Un traitement efficace des données devient de plus en plus important – à l’avenir, il est concevable que l’analyse se produise déjà pendant le processus de transmission dans le réseau.