En complément des lois informatique (loi Informatique, fichiers et libertés, loi relative aux droits d’auteur, loi pour la confiance dans l’économie numérique, loi Création et Internet, etc.), nous avons des lois souvent empiriques et non juridiques qui structurent Internet.
Nous avons la fameuse loi de Moore qui stipule que la puissance des micro-processeurs double tous les 18 mois. Depuis 1971, elle est vérifiée.
Ensuite, les lois pour la gestion de projet :
– la loi de Paul Marsson ou du temps minimum
o Chaque projet nécessite un temps minimum de développement,
o Chaque projet ne peut supporter qu’un certain nombre de personnes
– la loi de Parkinson ou de l’effort optimum
o le travail s’accroît pour utiliser le temps disponible,
o pour chaque projet, il existe une productivité maximum (avec l’existence d’un seuil qui représente l’utilisation la plus efficace des personnes)
– la loi de Brooks ou du métier logiciel
o rajouter des personnes à un projet en retard rajoute au retard,
o le délai et l’effort de développement ne sont pas linéairement interchangeables
Puis pour Internet et bien avant le Web, sur les forums de discussion (Usenet en particulier), la loi de Godwin a été émise : « Plus une discussion en ligne dure longtemps, plus la probabilité d’y trouver une comparaison impliquant les nazis ou Hitler s’approche de 1 ».
Avec le développement des outils collaboratifs et des réseaux sociaux ont été énoncés la loi de Metcalfe : « L’utilité d’un réseau croît proportionnellement au carré du nombre de ses membres (plus exactement n(n-1)/2) ». Dans la réalité, celle-ci est à nuancer. Certains membres ayant une utilité plus importante que d’autres. On pourrait dire que c’est plutôt du n log n. Cette loi est remise en cause par la Loi de Reed. Enfin, la loi des médias participatifs ou loi des 1/10/89 est observée sur la plupart des médias sociaux. 1 % des internautes produisent du contenu, 10 % le commentent (J’aime ou +1, commentaires, etc.) et 89 %, que Camille Alloing et moi-même appelons les passinautes sont les internautes passifs qui ne font que de lire sans s’exprimer. Tout l’enjeu est de réduire ces 89 % au profit des 2 autres chiffres. Et de déterminer ce que cette majorité silencieuse pense.
Avec la déréglementation et le développement de la concurrence, en particulier pour les opérateurs de télécoms historiques a été consacrée la loi de Goichot-Sidaner qui s’énonce ainsi : « Plus le marché est ouvert, plus il faut d’agents de l’administration pour le réguler ». Elle a été accréditée par le professeur Olivier Coutard.
Signalons aussi l’effet Streisand qui est l’augmentation considérable en un laps de temps réduit de la diffusion d’information ou de documents faisant l’objet d’une tentative de retrait voire de censure. Historiquement, Barbara Streisand attaqua en justice un photographe pour la diffusion d’une photo aérienne de sa maison. Avec le buzz rendu possible sur les réseaux sociaux, l’effet Streisand est souvent vérifié, par exemple lors du bad buzz de Greenpeace à l’encontre de Kit Kat et la déforestation en Indonésie pour produire l’huile de palme nécessaire à ces biscuits.
Et pour le Web 2.0, la théorie de la longue traîne émise par Chris Anderson : « L’ensemble des produits rares a un poids au moins équivalent sinon supérieur à celui des produits phares ». Elle s’observe pour les achats de biens culturels effectués sur Amazon, les vidéos visualisées sur YouTube ou encore les mots clés menant vers les pages d’un site. Et pour les réseaux sociaux, la théorie du petit monde ou les 6 degrés de séparation entre deux individus pris au hasard parmi la population appelés « distance sociale ». Celle-ci avec le développement des réseaux sociaux a fortement diminué. Le nombre d’intermédiaire étant à présent plutôt autour de 4 voire 3.
La connaissance de ces lois est à mon sens aujourd’hui indispensable pour bien comprendre certains enjeux d’Internet et du système d’information. Peut-être voyez-vous en matière de culture numérique une loi empirique que j’aurai omise.
Commentaires récents