La Philosophie à Paris

POUR EN FINIR AVEC L'ORDRE ET LE CHAOS / Susskind ou l'entropie des trous noirs

14 Juin 2010, 20:58pm

Publié par Anthony Le Cazals

 

Le physicien libéral Susskind dans son dernier livre de vulgarisation, Trous noirs la guerre des savants, fait de l'entropie, la chaleur, l'agitation. Mais selon la seconde loi de la thermo-dynammique n'advient que dans les systèmes isolés (c'est-à-dire qui n'échange ni masse ni énergie seulement de l'information), c'est pourquoi elle va presque toujours croissante. Susskind fait tenir à Boltzmann cette constatation : "l'entropie est de l'information microscopique cachée puisque ce n'est pas toujours que l'entropie augmente" (p. 203). Mais cela est une vision déterministe posée sur le monde qui est avant tout humain c'est-à-dire imprévisible dans ses "erreurs", comprenez ses mutations, ses transformations. C'est précisément que "la vision statistique de Botlzmann sur l'entropie est à la base des sciences pratique de l'information" (ibid.) Les statistiques, post-communardes, sont notamment à l'origine du passage des métiers au professions régies cette fois par l'Etat. .es statistiques sont la marque des limites de la science déterministe en ce que tout ne se laisse pas dénombrer : c'est la puissance de l'indénombrable qui touche à l'énergie, à la puissance de l'indénombrable (vous retrouverez cela dans le plateau sur ou dans le dernier entretien de Paul Virilio, l'administration de la peur). Preuve de l'inefficience des sciences basées sur les statistiques notamment la sociologie à partir de Tarde, réinvestie autrement par Bourdieu c'est que par exemple l'état de phase d'un photon ou tout autre particule quantique est soumise à la probabilité statistique. Cette vision qui consiste à mesurer apparaît comme inepte ou issue d'une pensée de la réalité et non de la complexité puisque nos ordinateur, ce que vous avez sous les yeux fonctionne, lui, de manière non-probabiliste (c'est davantage vous et surtout moi qui risquons de commettre des erreurs mais les électrons coincés dans leur puits quantique (bits) sont codés suivant leur oscillation sur eux-mêmes en 1 ou 0. Vous pourrez même tuer le faux-problème du chat de Schrödinger que vous auriez encore des chances de tout comprendre à la physique quantique.

 

Si l'entropie est la mesure de la chaleur, de l'agitation des particules, si cette mesure faite par une thermomètre est notée température on peut se dire qu'une approche tout autre que l'approche thermique que nous avons projeté sur le monde  à partir de notre peau, pourrait se voir comme l'intensité de l'affectivité. Cette dernière sert de fond primordial à toute volonté de puissance. C'est bel et bien que l'entropie souvent associée au chaos par les philosophes qui se sont penchées sur les lois de la thermodynamique n'existe pas hors des systèmes déterministes physiques.

 

192_Trou_noir.jpg

 

Peut-être un jour en aura-t-on fini avec ses visions de hasard et de chaos, non qu'il n'y ait que des lois et de l'ordre (cosmos), mais que les premiers (hasard et chaos) découlent de la constation fustrée de l'abscence des seconds (lois et ordre). Signalons que lois et ordre sont avant tout les biais par lesquels la morale et la .politique si'nisune dans la science. Mais c'est poser dès à présent la question de la chaleur d'une société, de l'intensité qui l'anime (nommée par les philosophes affectivité comme "fond primordial" d'activité). La vision de Susskind a en fait tout réduit à la quête d'information et au principe de conservation de celle-ci et non à la création de valeur preuve que la science est décadence dans son aspiration théorique à vouloir dégager les lois qui régiraient le "monde". Mais si ce dernier est agitation perpétuelle et transformations continuelles et si ramené au dépassement de ce qui est proprement humain il produit de la jubilation (comme notes ou tons de l'affectivité) ou de la douleur comme marque d'extension de l'existence, il n'y a pas lie de parler d'entropie.

 

Différentes questions se posent :

Sur Wiki vous pourrez lire que l'entropie est une fonction d'état. Cela vet dire que sa valeur est déterminée dès que l'état d'équilibre du système est établi. Or si l'entropie est agitation, mouvement aberrant, comment celle-ci pourrait parvenir à un équilibre ?

A propos d'un cours confus sur l'entropie, Susskind se permit cette précision renversante : "Au dire de mon professeur, la température est ce qu'on mesure à l'aide d'un theromomètre" [on en reste à un vague opérationalisme de la mesure]. Définirl'entropie en terme de température, c'est mettre la charrue avant les boeufs. Bien qu'il soit vrai que nous avons tous un sens inné de la température, ce sont les concepts plus abstraits d'énergie et d'entropie qui sont à définir d'abord : le professeur aurait dû par commencer à explmiquer que l'entropie est une mesure de l'information cachée et est exprimée en bits. Il aurait pu ensuite poursuivre en disant correctement : la température est l'accroissement de l'énergie d'un système quand on y ajoute d'un bit d'energie. A strictement parler, c'est la température mesurée à partir du zéro absolu multipliée par la constante de botzmann" (p. 169). Nous avoons définit ce qu'était un bit électronique (binaire), il faut savoir que le bits quantique ne consiste plus à "mesurer" ou interférer avec le sens d'oscillation de l'électron (spin 1/2 ou spin -1/2) mais repérer l'orientation même de cette oscillation (ce qui permet un codage suivant des variations ou ce qui risque d'arriver une densification du codage binaire pour un seul électron prisonnier d'un bit (qui revient à êtrer le puits quantique ou est enfermé l'électron en état d'excitation quantique). C'est là que l'on voit qu'agitation (le pseudo-entropie) et information sont liées. Mais pourquoi cette volonté de mesure et de contrôle de l'agitation ? Nier cet aspect, c'est ne pas connaître cette autre définition que donne Susskind de la dite entropie comme "mesure de l'information cachée - souvent de l'information stockée dans des objets trop petits et nombreux pour qu'on puisse en conserver la connaissance" (ibid. p. 450).

 

Ces deux questions en gras sont en fait des question de système ou d'établishment (autre nom de la communaté scientifique). On assiste non à des créations mais à des conservations de la vision systèmatique et réductrice.

Commenter cet article
J
<br /> <br /> Analyse particulièrement mauvaise d'un livre excellent. Hélas, notre philosophe local ignore tout de la physique la plus élémentaire (un physicien quelconque sait ce qu'est l'entropie, en<br /> thermodynamique comme en théorie de l'information, et Susskind le rappelle élégamment). Les nombreuses fautes d'orthographe qui émaillent ce texte ne peuvent faire oublier les inepties tant sur<br /> les états quantiques (appelés ici bits...) que ceux d'équilibre. Quand je vois que l'auteur, pour l'entropie, se réfère à "Wiki" (je suppose "pedia", je déduis qu'il n'a aucune référence sérieuse<br /> (je ne sais, le bouquin de Diu par exemple).<br /> <br /> <br /> <br />
Répondre
A
<br /> <br /> L'analyse est succincte et mal aboutie faute de temps pour une bonne synthèse mais je ne vois pas en quoi je ne pourrai mettre ce qui correspond à des notes de carnet sur ce qui est une décadence<br /> même de la société : la science élévée en vérité, la grégarité de l'éstablishment élevée en sacro-sainte religion avec ses guerres de chappelle. Il faut savoir relativiser les choses n'en<br /> déplaise aux tenants de la grande équation de la prétendue "Nature", ce que sont typiquement les astrophysiceins "mathématiciens". Il n'y a pas d'unification ou de totalisation au bout . C'est<br /> étrangement en parlant d'art que l'on fait le plus de science (le plus grand livre de science capable de renverser bien des paradigmes scientifiquesnotamment celui de la Matière est à ce jour<br /> Naissance de la Tragédie) et ce davantage qu'un grand livre d'épistémologie comme L'hypothèse et la science d'Henri Poincaré.<br /> <br /> <br />  <br /> <br /> <br /> L'entropie ne concerne que les système isolés et est souvent étendu par généralisation et analogie avec le chaos par les philosophes. L'entropie n'est qu'un expédient de  et l'on savait<br /> faire des machines à vapeur perforantes bien avant Sadi Carnot. La même chose est valable pour les ponts les américains, les ingénieurs issus de West Point sont capables de produire de massif<br /> Bayley mais sont incapables de comprendre et de reproduire l'American Standard de la guerre de Sécession. Ma critique porte avant tout sur la mise en système et de ne pas comprendre que le<br /> non-rapport a une importance plus grande que le rapport.<br /> <br /> <br /> Les bits ne sont pas les états quantiques mais les puits quantiques.<br /> <br /> <br /> <br />