La fiabilité des théories économiques que les technocrates nous obligent à subir est désastreuse. La réalité ne va pas tarder à venir le démontrer.
Qui n’a pas été confronté, en tant qu’utilisateur basique, à un problème informatique dans sa vie ? En dehors de l’irritation, on peut profiter des temps de redémarrage pour réfléchir.
L’informatique est une technique, une science, et pourtant, parfois, les mêmes causes ne produisent pas les mêmes effets.
La matière première de l’informatique n’est pourtant que des 0 et des 1. Quelque chose de très simple : « oui » ou « non », « blanc » ou « noir ». Pas « environ 1 » ou « presque 0 », pas « peut-être », pas « gris ». Binaire.
Des millions de ces couches binaires s’entassent jusqu’à l’utilisateur final qui appuie sur son clavier et regarde son écran. Et au bout du compte, ce même utilisateur qui fait exactement la même chose obtient un résultat différent.
En tant qu’ingénieur, j’ai vécu le début de l’informatique appliqué aux commandes de vol, ce qu’on a appelé la numérisation. Un ordinateur s’intercale entre le pilote et les gouvernes, les moteurs, etc… J’ai demandé comment se calculait la fiabilité d’un logiciel.
Dans l’aéronautique, tout équipement est caractérisé par un taux de fiabilité (ou de défaillance, si vous voulez, mais fiabilité est plus vendeur). La fiabilité des anciens équipements électroniques analogiques était calculée avec des modèles statistiques. Cette fiabilité était ensuite contrôlée empiriquement avec des essais. Enfin, le cumul de l’expérience validait le tout : tel type d’équipement avait accumulé des milliards d’heures de vol sans panne, sans maintenance non-programmée. C’était le sésame qui convainquait le client. Mais un logiciel ? C’était nouveau. Qu’allions-nous annoncer au client ? L’expert de l’époque m’a répondu : « ne te prends pas le chou, tu comptes le nombre de boucles de décisions du programme ». Plus il y en a, moins c’est fiable. Une boucle de décision revient à programmer « s’il se passe ceci, alors tu fais cela ».
Quittons maintenant l’informatique et arrivons dans la « science économique ». Des banquiers centraux prétendent contrôler l’économie en s’appuyant sur des modèles théoriques.
Dans son derniers discours, Jerome Powell émettait cependant quelques doutes sur les repères dont il se servait, et faisait presque preuve d’une ombre d’humilité :
« Dans les modèles économiques conventionnels, les principales données économiques telles que l’inflation, le chômage et le taux de croissance du PIB fluctuent autour de valeurs qui sont considérées comme ‘normales’, ‘naturelles’ ou ‘souhaitables’. Le FOMC a choisi 2% d’objectif d’inflation comme une valeur souhaitable. Les autres valeurs ne peuvent pas être observées directement, ni choisies par quiconque. En fait, ces valeurs résultent d’une myriade d’interactions au travers de l’économie.
[…]
Naviguer d’après la position des étoiles peut sembler simple. Toutefois, guider la politique d’après les étoiles, en pratique, a récemment été un défi car nos meilleures estimations de la position des étoiles ont significativement changé. »
Au lieu de « 0 » et de « 1 », la matière de base de la science économique repose sur des milliards de décisions individuelles. Ces prises de décision ne sont pas binaires, elles s’appuient sur des sentiments, de l’expérience du vécu. « Peut-être », « plus tard », « c’est trop cher (pour moi) »… Une infinie palette non pas de gris, mais de couleurs… S’il se passe ceci, X fait cela, mais Y fait autre chose et Z une troisième.
Et les économistes prétendent mettre tout ça en équation, ils prétendent mesurer ces nuances avec leurs statistiques bidons. Mon d’indice inflation, n’est pas celui de mon voisin ; il serait utile d’expliquer aux statisticiens de l’INSEE qu’il est par exemple plus coûteux de se chauffer à Lille qu’à Nice. Ils doivent disposer de mesures de températures fiables.
Les économistes ne font pas que nous donner de fausses informations en se drapant dans leur fausse science. Ils veulent délibérément fausser nos décisions pour agir conformément à leurs folles théories.
Cela fait plus de 5 000 ans que l’Humanité a découvert qu’il faut limiter le crédit, et plus de 3 000 ans qu’on sait que la multiplication de la monnaie qui ne correspond à aucune richesse réelle conduit à la catastrophe.
Cette fois ne sera pas différente. Sauf que l’ampleur des bêtises est démultipliée par la puissance informatique qui rend les crétins encore plus prétentieux.
1 commentaire
Le système binaire 0 et 1 ont eu leur heure de gloire.
Si je prends les transports publics automatisés comme celui de Tokyo, le système binaire n’a jamais fonctionné car le train ne s’arrétait jamais au bon endroit car en conflit avec le OUI, NON du 0 et 1!!
Donc le train avançais et reculait sans arrêt! Bonjour les vomissements des voyageurs à leur destinations. Alors on a imaginé les algorithmes du « peut-être oui » « peut-être non ». Et là le train s’arrête au bon endroit.
Mais ce qui semble simple pour un transport public automatisé n’est pas simple dans l’économie car un algorithme par définition nécessite une maîtrise absolue de tous les paramètres entrant en ligne de compte. Ce qui n’arrive jamais et ce qui explique la folie des algorithmes appliqués de l’économie tous issus de l’assécurologie.
Quand les assurances ou fonds de pension se mettent à faire de la banque et les banques à faire de l’assécurologie, tout foire et cela se vérifie depuis au moins 30 ans.
A l’époque des cartes perforées en assécurologie(années 60) le problème était déjà connu. Mais la bêtise humaine pousse les vantards dans la stupidité et l’impression de puissance qui les tuera.