Archive for the ‘univers’ Category

Le top 100 des nombres entiers

septembre 14, 2008

Quels sont les nombres entiers les plus utilisés dans le monde? Pour répondre à cette question saugrenue utilisons le moteur de recherche Google et voyons le nombre de page référencés pour chacun des cents premier nombre (  » 1 « ,  » 2 « ,  » 3 « …). Le résultat est le suivant:

Bien sur on constate que plus le nombre est grand et moins il est fréquemment utilisé (on parle plus souvent de 3 citrons que de 48 patates par exemple), on peut remarquer également que le nombre « 2 » (qui est le champion) est plus utilisé que le nombre « 1 », sans doute parce que le nombre 1 est souvent representé de manière implicite ou en toute lettre (« un »).

Les points rouges représentent les nombres premiers et les points verts les multiple de 10. On constate que les multiples de 10 sont plus souvent utilisés que leurs proches voisins, ce qui est logique puisque l’on a tendance à arrondir les valeurs.

Enfin on peut remarquer sur ce graphe deux curieuses cassures: la première montre une chute brutale après le nombre 30, l’autre une chute brutal après 60. Pour la première cassure, l’explication qui me semble la plus simple (en admettant que ce ne soit pas un artefact de Google)  serait de dire qu’elle est la conséquence du fait qu’il n’y a que 30 jours dans le mois (ce qui voudrait dire qu’ environs 50% des nombres inférieur à 30 ne servent qu’à la datation…). La seconde cassure proviens peut-être des untités temporel: 60 min dans une heure, 60 secondes dans une minute (ce qui voudrait dire qu’environs 50% des nombres compris entre 30 et 60 servent à marquer les minutes et les secondes). Mais ce n’est là qu’une hypothèse.

Il y a également une petite cassure après le nombre 100, qui résulte peut-être d’un seuil psychologique.

Publicités

Espaces à n dimensions

septembre 5, 2008

Je me souviens qu’au Collège puis au Lycée j’étais frappé par la simplicité des lois de la physique et par la petitesse des coefficients (toujours proche de l’unité) qui accompagnait les constantes.

Une partie de cette simplicité peut s’expliquer par les propriétés liées au faible nombre de dimensions de notre espace.

Prenons le cas simple de la surface et du volume d’une sphère de rayon égale à l’unité, dans un espace à trois dimensions nous avons S=12.5 (4pi) et V=4.188(4pi/3). Si on extrapole à un espace à n dimension nous avons :

S=\frac{nr^{n-1}\pi^{n/2}}{\Gamma (n/2+1)}

V=\frac{r^{n}\pi^{n/2}}{\Gamma (n/2+1)}

Ce qui donne graphiquement:

volume d'une sphère de n dimensions
volume d’une sphère à n dimensions(r=unité)
Surface d'une sphère de n dimensions
Surface d’une sphère à n dimensions(r=unité)

coef maximal de 5.2777 pour n=5.26.

coef maximale de 33.16 pour n=7.3.

Nous constatons donc que les coefficients de proportionnalité restent relativement proche de l’unité en tout cas pour n<20, au delà les coefficient tendent vers zéros. Leurs valeurs maximales ne dépasses pas  2.6 fois les valeurs des coefficients de l’espace à 3 dimension.

Si les espaces étaient bien supérieur à trois dimensions nous aurions des coefficients géométriques très éloignés de l’unité ce qui aurait compliqué l’expression des formules de la physique.

Autre illustration des propriétés particulières des espaces à n dimensions: le nombre de polyèdres régulier:

Dimensions d’espace

Nombres de polyèdres réguliers

 

2

 

infini

3

5

4

6

>4

3

.

.

.

.
.
.
.
.
.
.
.

Ce tableau montre que le nombre de polyèdres régulier est toujours proche de l’unité (sauf paradoxalement pour n=2), avec un maximum de 6 pour un espace à 4 dimensions.

On peut donc remarquer dans ces deux exemples que les espaces à n dimensions ont des propriétés remarquables pour des valeurs de n proche de l’unité et une certaine monotonie au delà:

– coefficient volumique maximal pour n=5

– coefficient surfacique maximal pour n=7

– nombre de polyèdre maximal pour n=4

Ce n’est donc probablement pas par hasard si nous somme dans un espace à faible nombre de dimension…

Rq: les conjectures mathématiques qui sont généralement faciles à démontrer pour tout espace à n dimensions le sont beaucoup moins pour un espace à 3 dimensions (la conjecture de Poincaré en est un bon exemple). L’extrapolation des lois de la propagation des ondes ou de la gravitation sur un espace autre que 3 dimensions a montré également la grande singularité de notre espace.

La loi de Benford

août 29, 2008

Quand j’étais au lycée j’avais remarqué sur ma calculatrice, que je m’apprêtais à nettoyer, plus de crasse sur le chiffre 1 et 2 que sur les autres chiffres. Intrigué je décidais de ne pas la nettoyer et à la fin de l’année je constatais qu’il existait une sorte de loi universel produisant un encrassement inversement proportionnel à la valeur du chiffre indiqué sur les touches des calculatrices. Je n’arrivais pas à admettre que les petit chiffres étaient plus souvent utilisés que les grands, il me semblait évidant que le hasard devait aplanir toute hiérarchie de ce genre…

Ne trouvant pas d’explication et les vacances étant arrivées j’oubliais complètement cette observation, jusqu’au jours où des années plus tard je tombe sur un article parlant de la loi de Benford.

Cette loi a était découverte pour la première fois par Newcomb (1881), qui remarqua une usure non uniforme des tables logarithmiques, c’est à dire que les premières pages étaient plus usées que les dernières, il comprit que cela venait du fait que les ingénieurs et les physiciens qui utilisait ces tables manipulait des nombres naturel (résultat de mesures) dont le premier chiffre avait la curieuse propriété de contenir plus de 1 que de 2 et plus de 2 que de 3 etc.. le chiffre 9 étant le moins représenté. Il consulta alors des bases de données naturelles comme la superficie des lacs du monde ou le poids moléculaires de différent composés chimiques. Il trouvas une relation empirique qui donne la probabilité que le premier chiffre d’un nombre naturel soit n :

P(p=n)= Log(1+1/n))

Log étant le logarithme de base 10. Ce qui donne graphiquement :

Malheureusement pour Newcomb on ne prêtât guère attention à sa remarque pertinente, par contre l’histoire retiendra son nom pour une tout autre démonstration: Celle qui prétendait prouver l’impossibilité du vol maîtrisable du plus lourd que l’air…

Ce n’est qu’en 1938 que Benford refit indépendamment la découverte. Il poussa plus loin les vérifications et donna son nom à la loi.

D’où vient cette loi? Cette loi touche essentiellement les nombres issus d’une valeur naturelle (dimensions, prix, dénombrement…), elle résulte de l’invariance d’échelle des objets naturels. Cette invariance d’échelle peut ce comprendre par le simple fait que dans un espace fini il y aura toujours plus de petits objets que de grands. Il en résulte que l’échelle naturelle n’est pas linéaire mais logarithmique, si on représente graphiquement le nuage de points d’une population donnée (par exemple la superficie des lacs) ces points vont ce répartir relativement uniformément sur un graphe logarithmique, on comprend des lors qu’il y aura plus de points entre 2 et 1 qu’entre 3 et 2, etc…. la quantité de points représentant la valeur d’un nombre dont le premier chiffre est 1 sera égale à log(2)-log(1), la quantité de points dont le premier chiffre est 2 sera égale à log(3)-log(2), la quantité de points dont le premier chiffre est n sera égale à log(n+1)-log(n)=log(1+1/n).

Il faut toutefois que ces objets n’aient pas de tailles caractéristiques (comme la taille d’une seule espèce animal), et qu’ils existent sur plusieurs ordre de grandeur. La loi ce retrouve assez bien pour: la surface des lacs, la longueur des fleuves, le prix, la population urbaine, etc…

Application: la loi de Benford a trouvé une application étonnante, elle permet en effet de repérer les fraudes fiscales…

Loi des séries

août 10, 2008

« Un malheur n’arrive jamais seul», «jamais deux sans trois»… qui n’a jamais eu l’impression que les événements rares arrivent par paquet? c’est cette impression qui a donné naissance à la loi empirique appelé communément loi des séries. Mais cette loi a t-elle un soupçon de vérité?

En fait oui, il y a quelque chose de vrai la dedans, et cela vient du fait que le temps mort entre deux événements rares a une valeur dont la probabilité d’exister est d’autant plus grande que ce temps est court. Prenons le cas des crash d’avions: si on représente le nombre de crash en fonction du temps morts entre deux crash successif on obtiens l’histogramme suivant:

Cet histogramme montre que plus le temps mort est court plus sa densité de probabilité est grande, ce qui favorise les agrégats c’est à dire que les crashs auront tendances à ce produire par grappes ou par séries…

On dénombre par exemple une quarantaine de temps mort de 10 jours (+/- 2jours) contre 2 temps morts de 100 jours (+/- 2 jours).

on peut démontrer cela à partir de la loi statistique de poisson. On trouve une densité de probabilité égale à :

P(dt)=\frac{dN}{dt}= K\frac{\lambda^{T/dt} e^{-\lambda}}{gamma(T/dt+1)} T dt^{-2}

T=1Jour

\lambda=0.0281 crash/Jours

On peut comprendre en partie ce phénomène en faisant remarquer que dans un laps de temps fixe il y a potentiellement plus de place pour de petits intervalles de temps que pour de grand intervalle de temps .

Si on s’amuse à représenter par des points, sur une ligne temporelle, la succession d’événements rares régis par une loi de poisson (points bleu) et si on la compare à la répartition qu’aurait ces points dans le cas d’une loi dont la densité de probabilité des temps morts serait uniforme (point noir) on verait que la loi de poisson qui régie les événements rares produit nettement plus de grappes de points que la loi uniforme:

La « loi des séries » est donc due à la structure même de la statistique qui régie les événements rares, mais il ne faut pas oublier que ces événements restes indépendants les uns des autres contrairement à l’impression intuitive que donne de telles grappes. Inutile par exemple de ne pas prendre l’avion juste après un crach sous prétexte qu’ils arrivent en tire groupées.

Des phénomènes psychologiques peuvent par ailleurs renforcer cette perception comme la mémoire, la perception logarithmique du temps, ou les loupes médiatiques.

voici une vidéo qui reproduit d’une manière sonore 819 crash majeur qui ont eu lieu entre 1920 et 2000, on perçoit bien le phénomène d’agrégation :

 

Loi de Murphy et Entropie.

juillet 27, 2008

Surface de Venus par Venera 14

Surface de Venus par Venera 14

Cette image envoyé par la sonde russe Venera 14 est un bon exemple de ce qu’est la loi de Murphy. Sous le bras mécanique visible au milieu de l’image on aperçois un objet circulaire qui n’a rien à faire ici : cet objet n’est rien d’autre que le couvercle de protection de la caméra qui a été éjecté par la sonde et qui est malencontreusement tombé exactement à l’endroit où le capteur du bras mécanique devais ce rabattre pour prendre des mesures du sol Vénusien…

La loi de Murphy est une loi empirique qui exprime un fait que tout le monde expérimente au quotidien et que l’on peut généraliser par le constat suivant : dès que l’on entreprend quelque chose une série de problèmes semble comploter contre nous.

La loi de Murphy s’attache plus particulièrement aux problèmes liés à la conception d’objets ou de systèmes complexes, et au fait que ces objets destinés à des fonctions particulières peuvent être mal employés par l’utilisateur et mener au désastre. Malgré tous les efforts d’une armada d’ingénieur il arrive presque toujours qu’un utilisateur trouve, bien malgré lui, la faille fatale.

La meilleure solution est sans doute de simplifier au maximum les systèmes et de limité les degres de libertés (utiliser par exemple un détrompeur).

Le problème c’est que le défaut de conception d’un objet est généralement inhérent à sa fonction et ne peut donc être supprimé, on peut citer le râteau comme exemple, la forme et les dimensions de cet objet est idéal pour sa fonction mais elle comporte une faille : si on le laisse traîner parterre dans le jardin on à une chance de marcher sur son extrémité, or la petitesse des dent du râteau allié à la longueur du manche fait que l’on risque fort de recevoir un coup violant à la tête.

En fait, à bien y réfléchir, on se rend compte que la loi de Murphy traduit un problème cosmique insoluble lié au fait que l’on cherche à imposer une volonté singulière à un monde doté d’innombrable degrés de libertés.

On voit là un lien évident entre la Loi de Murphy et l’entropie, l’entropie mesure le degrés d’ordre d’un état en fonction du nombre de combinaison possible menant à ce même état, or il y a beaucoup plus de combinaisons (ou complexion) non désirés que de combinaison désirés, ce qui fait qu’un système aura toujours tendance à vouloir tendre vers un états non désiré (beaucoup plus probable car potentiellement beaucoup plus nombreux), c’est à dire vers une entropie ou un désordre plus grande.

Entreprendre quelque chose consiste à faire une série d’action bien défini, ces actions peuvent tolérer quelques variantes mais elles sont bien moins nombreuses que celles, souvent catastrophique, produite par le simple hasard.

Dans le cas d’un objet destinée à une fonction particulière le phénomène peut s’inverser, c’est à dire que la faille, si elle existe, est peu probable mais si le nombre d’utilisation est suffisamment grand alors elle finira par ce manifester.

La loi de Murphy traduit le fait que le hasard passe son temps à explorer toutes les combinaisons de la matière que lui autorise les nombreux degrés de liberté de l’Univers, sans cela la vie et l’homme ne serait jamais apparu sur terre… Alors avant de pester contre la Loi de Murphy rendez vous bien compte qu’elle n’est en fait que la conséquence d’un monde Libre.

Un monde sans loi de Murphy serait totalitaire et sans vie !

L’univers est plein de vide

mars 18, 2008

allmassOn estime à 1080 le nombre d’atomes dans l’univers,  si on imagine de rassembler toute cette matière dans une grosse boule celle-ci aurait un rayon de seulement 2 a.l (année lumière). Sachant qu’un atome est plein de vide (le noyau ne représente que le 10-15 eme  du volume total de l’atome !), il est possible de le compresser d’avantage, au final on a une boule compacte de l’ordre de 2.5 u.a de rayon (1 unité astronomique=distance terre-soleil). Le fait de constater que toute la matière de l’univers peut pratiquement tenir à l’intérieur de l’orbite terrestre est assez frappant, cela donne à l’univers une dimension plus humaine… 

      On peut constater également que la dimension de ces sphères de matière, que se soit la version compacte ou non compacte, se ratache à l’orbite terrestre : en effet la version compacte a un rayon comparable au rayon de l’orbite terrestre et la version non compacte a un rayon comparable à la distance parcouru par la lumière durant le temps que met la terre pour accomplir son orbite … Le volume de la boule non compacte est par ailleurs comparable au volume de l’espace moyen entre les étoiles dans une galaxie. On peut exprimer cette coïncidence autrement en remarquant que la distance moyenne entre les étoile ramené à la dimension de l’orbite terrestre est égale au rayon d’un atome ramené au rayon de son noyau…  Simple mais curieuse coïncidence.

 

100 milliards : un nombre critique ?

février 19, 2008

Le nombre de 100 milliards ou plutôt son ordre de grandeur semble être un nombre critique pour beaucoup de structures complexes de l’univers.

Cent milliards c’est en effet l’ordre de grandeur du :

 

Nombre de galaxies dans l’univers

Nombres d’étoiles dans une galaxie type

Nombre de Neurones dans le cerveau humain

Nombre d’humains ayant vécu sur terre

Nombre de quantum de conscience dans une vie humaine

Nombre d’atomes dans l’ADN humain

Nombres de cellules constituant l’homme

Nombres d’atomes dans une bactérie.

….

C’est aussi le nombre d’atomes tenant dans la plus petite surface visible à l’œil nu.

 

Y a t’il une raison liant ces coïncidences ou est-ce un simple effet selectif de l’esprit?

Le regard est-il au centre de l’univers ?

février 18, 2008

Quelle est la longueur caractéristique central de l’univers ?

La plus petite échelle possible est la longueur de Planck : lp=1.6.10-35 m

La plus grande échelle possible est la distance de l’horizon visible de l’univers qu’on évalue à L=1.1026 m (12 milliard d’a.l)

L’échelle centrale correspond à une longueur égale à exp((log(lp)+log(L))/2) se qui donne 45\mum.

Cette longueur n’est pas inhumaine, elle est même assez familière, car assez proche des dimensions d’une cellules biologique type. Sachant que l’amplitude entre la plus petite longueur et la plus grande est de 1061, la coïncidence est remarquable.

Mais on peut remarquer aussi et surtout que cette longueur est du même ordre de grandeur que le plus petit détail perceptible par l’œil humain. Pour un œil humain normal le punctum proximum (distance minimal de perception nette) est typiquement de 15 cm pour un jeune adulte et sa résolution type est d’environs une minute d’arc (3.10-4 rad) on trouve alors une longueur minimal de 15.10-2 X 3.10-4 = 43\mum.

Ainsi l’œil humain, ou plutôt son regard, se trouve exactement au centre de l’univers.