777 - Internet en tant que paradigme de complexité
N. Lygeros
Une nouvelle manière d’aborder internet, c’est de le considérer comme un ordinateur neuronal. En effet, internet par sa complexité computationnelle a dépassé et ce, de très loin, le concept de l’ordinateur de von Neumann comme nous pouvons le constater par sa taille, sa dimension, son expansion, son architecture, et l’accessibilité informationnelle qu’il représente. En tant qu’entité artificielle, internet est pour ainsi dire unique dans sa conception puisqu’elle est le résultat de plusieurs composantes organisées en coalitions mais aussi en groupes concurrents. Ainsi son existence peut être interprétée comme une sorte d’équilibre de Nash qui pourrait suggérer qu’une approche socio-économique serait adéquate pour engendrer un modèle. Cependant nous pourrions devancer cette étape et mettre en relation cette structure avec les nouveaux résultats des sciences cognitives. Au lieu de tenter d’appliquer des modèles socio-économiques ou d’en créer des ad hoc, nous devrions développer les outils mathématiques capables d’établir des ponts conceptuels. Dans un premier temps, il faudrait introduire le paramètre de masse dans le réseau de neurones formels associé afin de mettre en évidence la notion de masse critique même si cela peut sembler quelque peu réductionniste comme approche. Celle-ci, en tout cas, permettrait de dépasser le stade du théâtre d’une théorie des jeux de coalition et en particulier, la notion plus restreinte et parfois vide mais dans tous les cas conservatrice, de noyau. Cela éviterait d’avoir à résoudre des questions d’ordre purement théorique, à savoir quel est le coût du développement anarchique d’internet si nous considérons ce dernier comme une sorte d’équilibre. De plus, même si le concept de marché transcende celui du jeu, il n’en demeure pas moins élémentaire en terme de masse. Il serait donc plus judicieux de pénétrer plus profondément dans le monde des réseaux complexes afin d’en extraire les propriétés relativement universelles en exploitant internet comme un paradigme de complexité qui permet entre autre de tester des théories cognitives de l’information. C’est dire l’ampleur du travail qui doit être effectué dans ce domaine avant d’obtenir les premiers résultats effectivement fondamentaux.