Réseau internet Bison futé

L’influence de la vitesse sur le web marketing

Proxy, CDN, Cluster, Cloud… Les sirènes du web marketing.

 

L’art du marketing est de renouveler un produit qui ne bouge pratiquement pas. Dans le domaine des supports de sauvegardes de données informatiques, il y a eu des avancées significatives depuis 1970… Cependant, si l’on regarde de près, le principe de fonctionnement, lui, n’a pas réellement évolué. On parle bien du principe de fonctionnement.
Partons du détail vers le global, ou de la simple machine, au réseau internet mondial :

Revenons au support mémoire. On a tous “pesté” contre un disque dur qui lâche mécaniquement. Un “clac” qui vous fait comprendre que la tête de lecture n’accède plus au disque. Les données qui s’y trouvent sont perdues à moins de le passer en laboratoire pour les récupérer, à un prix parfois exorbitant. Mais s’il s’agit de la vie de l’entreprise, le jeu en vaut la chandelle.

Il y a eu alors, au niveau d’une machine (PC) l’apparition du système RAID :

RAID : Redundant Array of Independent Disks (regroupement redondant de disques indépendants).

Le système RAID, avec toutes ses variantes (RAID 1, RAID 2, …), consiste globalement à dupliquer instantanément les données d’un disque dur sur un autre disque dur. Un “disque miroir“. Sur le principe, ce système répartit les données sur plusieurs disques durs afin d’améliorer,

  • soit la tolérance aux pannes,
  • soit la sécurité,
  • soit les performances de l’ensemble,
  • ou un savant mélange de tout cela, sur une même machine.

Le problème de ce système est que lorsqu’il y a un “crash disque” il est également recopié (bêtement), et le 2ème disque devient illisible, donc à reformater… Il suffit alors de différer ce recopiage de quelques instants afin d’éviter de recopier ce type d’événement, tout en filtrant les données pour repérer cet événement anormal.

 

Le Proxy : l’ancêtre du Cloud.

À l’époque antédiluvienne de la connexion en 56K, intermittente et payée à la minute, où la simple image sur un site devait être ultra optimisée, voire découpée en morceaux pour faire patienter l’internaute devant un affichage ligne par ligne, il y avait alors ce que l’on appelait un PROXY… Un ordinateur ou un module qui sert d’intermédiaire entre, un navigateur Web du PC client, et Internet. Et pour afficher des sites plus rapidement, il était possible d’utiliser la mémoire cache du proxy. C’est à dire d’avoir une copie du site déjà consulté dans cette mémoire du proxy : le dernier serveur avant votre PC.

 

CDN : Content Delivery Network.

Sur le même priEncombrement du réseau Internetncipe, nous avons le système CDN (Content Delivery Network), qui se résume à placer les plus lourds éléments (images, vidéos…) sur d’autres serveurs, géographiquement proches de ceux qui les consultent, afin de diminuer le temps de latence entre la requête pour l’affichage d’une page, et son affichage complet sur l’écran de l’internaute. Ces réseaux utilisant les backbones de l’internet, c’est-à-dire des structures à connexion ultra-rapide comme des autoroutes. Les services de CDN s’adressent particulièrement aux contenus volumineux. Il existe actuellement de nombreuses offres incluant ces services gratuitement (diffusion multisource, diffusion hybride P2P).
Techniquement, les images et les scripts lourds sont chargés en dernier lors de la visualisation d’un page web. D’où l’intérêt à ce qu’ils le soient rapidement.

Petite parenthèse : un diaporama en javascript ne s’affichera généralement qu’après toutes les images collectées en mémoire vive, contrairement à un diaporama utilisant la technique Flash, où son affichage peut commencer avant même que toutes les images ne soient chargées. C’est d’ailleurs pour cela que les vidéos en format Flash furent préférées pour le web, car la lecture démarrait plus rapidement qu’avec un autre lecteur vidéo.

 

Les Clusters : des fermes de calculs.

L’étape suivante fut le développement de ce système sur des serveurs, en miroirs. C’est ce que l’on appelle les Clusters. Au même titre que nous avions un ensemble de disques durs, nous pouvons avoir aussi un ensemble de serveurs

  • pour assurer une continuité de service
  • et/ou répartir la charge de calcul
  • et/ou la charge d’un réseau.

Mais ils restent au niveau de la même salle, donc géographiquement au même endroit.

Le web marketing : l'Art de faire du neuf avec du vieux.La synchronisation des données d’un serveur à un autre situé dans un autre centre d’hébergement géographiquement distant est justement du Cloud. Du point de vue marketing, c’est pour avoir ses données disponibles où que l’on soit, à condition bien sûr de pouvoir se connecter au réseau internet. Mais du point de vue technique, à la base ce fut développer pour faire de réelles sauvegardes, car distantes. Et heureusement que ce système existait déjà le 11 septembre 2001…

Alors, on le voit bien : le Cloud n’est que du marketing… Ce n’est peut être pas une vieille Traban repeinte, mais en tout cas ses pièces d’origine ont été changées.
Sur le principe, la mécanique reste la même, seuls les débits ont considérablement augmenté. Ce qui à fait évoluer le type de services proposés sur les réseaux. Exemple remarquable : la vidéo par Internet.

 

Le Cloud et la vidéo :

Ce système est à l’origine de l’affaire “Free contre Google” dans laquelle Free demande à Google de payer pour ses vidéos très voraces en bande passante sur le réseau du Groupe Iliad. Le réseau comprend non seulement les câblages, mais également les serveurs, puisque le but est de “déconcentrer” les vidéos de Youtube sur d’autres serveurs plus proches des utilisateurs. Ce troc de services entre prestataires de réseaux n’est valable que tant qu’il y a réciprocité (oui, c’est le principe même du troc…), or dans ce cas précis, il faut une réelle  augmentation de la capacité matérielle du côté de Free. Ce dernier souhaite tout simplement que Google mette la main à la poche pour les autoroutes de Free  qu’il utilise avec son énorme volume de vidéos.

Pour info, sur un simple site vitrine comportant 5 à 6 vidéos de 5 minutes chacune, cette part de fichiers représente 90% environ du volume occupé par le site web. C’est dire le trafic occasionné lors du téléchargement de tels fichiers, même en streaming, puisque c’est quand même chargé en mémoire vive du PC client.

 

Autoroute ou parking ?

Autoroutes du webLa question se pose alors : Selon les données numériques, faut-il plutôt utiliser les fonctions d’une autoroute, ou bien celles d’un parking. En d’autres termes, a-t-on besoin de vitesse ou de sécurité ? Les deux sont diamétralement opposés :
Prenons l’exemple des fichiers cachés “htaccess” qui se trouvent à la racine du site (dans le répertoire du nom de domaine, situé sur le serveur, mutualisé ou pas, par opposition aux sous-répertoires). En autres instructions que l’on peut y entrer, il y a tout un arsenal de lignes de code qui ont trait à la sécurité anti-intrusion au niveau du site web. Ce Cerbère des répertoires étant chargé en mémoire vive du PC de l’internaute à chaque page visualisée, il est évident que si l’ensemble des instructions totalise un fichier de 20 Ko (ce qui correspond à plus de 350 lignes d’instructions), ça sera à chaque chargement de page sur le navigateur web, 20 Ko en plus des autres éléments constituant la page ainsi visualisée.

Idem concernant les fameux certificats SSL (Secure Socket Layer qui affiche l’adresse en “HTTPS“), où là, il s’agit d’attendre un résultat de requête de l’administration délivrant ce certificat (HTTPS de couleur verte dans le champ de l’URL, généralement des banques puisqu’il s’agit de débourser quelques milliers d’Euro annuellement). Les “certificats logiciels” qui ne font pas ce type d’interrogation auprès d’une administration agréée, et qui restent au niveau du serveur, sont plus rapides, mais sur des navigateurs récents un message stipulant qu’il n’y a pas possibilité d’interroger un organisme agréé va apparaître, ce qui du point de vue confiance de l’internaute, peut avoir de graves conséquences.
Quant au Cloud, certes les données sont disponibles plus facilement, mais uniquement pour les intéressés ? Où il y a-t-il d’autres intéressés qui pourront y avoir accès ? Du type agence gouvernementale américaine qui selon le Patriot Act possède tous les droits pour venir analyser les données numériques des serveurs, non seulement sur le sol américain, mais également dans les centres d’hébergement de filiales des entreprises américaines, où qu’elles soient dans le monde. Dans le cadre de la sécurité des USA bien sûr… Or la sécurité économique d’un pays n’est-elle pas la garantie de son intégrité ? On le voit bien avec la crise actuelle qui secoue la France. On ne peut pas dire que la stabilité économique, et par conséquence, sociale, soit des plus forte à ce jour.

Sécurité du réseau InternetUn agenda partagé ? Oui mais imaginons des négociations en vue d’une réponse à un appel d’offre international. Pour avoir un maximum de chances de remporter un appel d’offre, il faut connaître celles de ses concurrents. Sinon pourquoi cacheter des enveloppes et les ouvrir toutes à une date précise ? Or des rendez-vous peuvent donner déjà des indications que les personnes contactées et selon les libellés de ces rendez-vous, les sujets abordés.
Ensuite viennent les contenus de courriels échangés, puis au pire, les fuites sur des réseaux sociaux, d’entreprises américaines bien sûr (Facebook, Twitter, Linkedin…).

Même en protégeant ces logiciels de gestion de sites web, de plate-formes collaboratives ou ces webmails, un administrateur système pourra toujours voir comme dans un livre ouvert toutes les données qui y transitent. Normal : il est là pour administrer le système. Il a donc tous les droits sur telle ou telle machine (serveur). C’est uniquement une question de temps et d’intérêt que l’on accorde à ces opérations de surveillance. Et selon les montants en jeu, parfois le jeu, justement, en vaut la chandelle.

Dans des cas extrêmes, et c’est le cas de la traque de Ben Laden, pour vraiment sécuriser des informations, il faut les sortir du circuit, en l’occurence, le circuit numérique. Alors certes, on revient à l’âge de pierre, mais on devient invisible sur un réseau d’informations numériques (téléphone, web, etc…).

 

Avant de placer des données sur un serveur :

Alors ? Sans plonger dans ces extrêmes ? Vos données numériques sont-elles plutôt destinées à une autoroute rapide, mais où tout le monde circule, ou à un parking à circulation plus lente, mais réellement sécurisée ?
Sur un serveur, qui n’a de but que de servir, donc être un système ouvert, à qui allez-vous ouvrir ce système ? À tout le monde sans distinction ? À un groupe ? Ou à certains collaborateurs uniquement ? Ce qui revient à identifier le niveau de confidentialité que l’on attribue à ces informations.

 

 

POUR PLUS D’INFORMATIONS
OU UNE DEMANDE SUR MESURE :

CONTACTEZ-NOUS
CONTACTEZ-NOUS…