l’infini des possibles…

avril 22, 2012

Pour illustrer l’incroyable variété des images qu’il est possible de créer, répondons à cette simple question:   quel taille, en pixels, doit avoir une image couleur standard (3 couches de couleurs à 256 niveau de gris) pour être en mesure de former autant d’images différentes qu’il y a d’atomes dans l’univers…

réponce: 4X3 pixels!

En effet une simple image de 4 par 3 pixels offre 256^(4x3x3)=10^88 combinaisons possible et donc autant d’images qu’il y a d’atomes dans l’univers…

Impossible d’imaginer le nombre d’images différentes qu’il est possible de former avec un format comparable à la résolution de l’oeil humain qui est d’environs 1 millions de pixels (256^3000000=10^7000000)

Ce constat suscite une autre question : parmi toutes ces images combien sont susceptibles d’être prises pour une image non issus du hasard? Aucune idée, peut-être la racine carré du nombre total de combinaisons? Il faudrait définir un seuil maximal d’entropie en dessous duquel l’oeil humain considère l’images comme non issus du hasard…

Du rêve au prix Nobel

septembre 25, 2009

Otto Loewi était un médecin allemand devenu plus tard pharmacologiste. Une nuit (1921), il se réveilla brusquement, la tête encore habité par le souvenir vague d’un rêve extraordinairement créatif. Il venait d’avoir en rêve une idée d’expérience à la fois simple et fondamental pour la médecine. Il griffonna nerveusement quelques notes sur un papier qui trainait sur sa table de nuit puis s’endormit. Le lendemain matin il ne parvint pas à se souvenir du protocole de l’expérience et il lui fut malheureusement impossible de décrypter ces propre notes. Par chance la nuit suivante il refit le même rêve et se réveilla de nouveau en pleine nuit. Pour ne pas reproduire la mésaventure de la veille  Otto décida cette fois-ci de faire l’expérience sur le champ.

L’expérience visait à démontrer la nature chimique du processus qui régule le rythme cardiaque.

Otto utilisa deux cœurs de grenouille plongés dans une solution saline commune (dans lequel ils continuent de battre normalement). En suite il stimule le nerf vague d’un des deux cœurs ce qui, comme prévus, à pour effet de ralentir son rythme. Il observe alors le second cœur qui n’est relier à rien d’autre que le milieu salin dans lequel il est plongé et constate qu’à son tours son rythme cardiaque ralentie. Seul un élément chimique produit par le premier cœur pouvait être responsable de ce phénomène.

Ainsi Otto prouva, de la manière la plus simple qui soit, que la stimulation du nerf vague du cœur entraine la production d’un élément chimique qui est la cause directe du ralentissement du cœur. Il identifia plus tard cet éléments ainsi que d’autres appartenant à cette nouvelle famille d’élément chimique biologique que sont les  neurotransmetteur.

Cette découverte lui valut le prix Nobel de physiologie en 1938.

Ce qui me plait dans cette expérience, en dehors du fait qu’elle vienne d’un rêve, c’est l’utilisation de la symétrie dans le raisonnement. Au lieu de rechercher, comme c’est souvent le cas, quelque chose d’absolu, il suffis de relativiser les choses en utilisant la symétrie, en l’occurrence deux cœurs, ce qui permet de faire ressortir de manière flagrante se qui nous intéresses sans s’encombré de tous le reste. Un coeur est utilisé comme éméteur l’autre comme recepteur, c’est à dire comme instrument de mesure.

sources:

1
2

Asymétrie entre hémisphère nord et hémisphère sud

novembre 16, 2008

La terre est un objet globalement symétrique, pourtant si on s’intéresse aux terres émergées et à la population humaine on se rend compte qu’il y a une forte asymétrie entre l’hémisphère nord et l’hémisphère sud.

continants1

On constate que 67% de de la surface émergée se situe dans l’hémisphère nord.

Qu’en est-il de la population mondiale?

pop

Pour la population on constate que près de 90% de la population mondiale vie dans l’hémisphère nord.

Mortalité masculine vs mortalité feminine

octobre 31, 2008

L’espérance de vie des femmes est toujours supérieur à l’espérance de vie des hommes (en France elle est de 77 ans pour les hommes et 84 ans pour les femmes), d’où viens cette différence importante?

Il y a plusieurs raisons possibles:

  • des raisons biologiques
  • des raisons liées au comportement à risque physique (volontaire ou imposé)
  • des raisons liées à l’hygiène de vie

Pour illustrer le propos prenons la courbe de mortalité des hommes et des femmes en fonction de leur age (moyenne de 1987 à 1997 en France) :

Si nous faisons le rapport des deux mortalités (féminine/masculine) nous obtenons la courbe suivante qui illustre de combien de fois les femmes sont « moins mortel » que les hommes:

(il y a une erreur sur l’ordonnée, il faut lire ‘mortalité masculine/mortalité féminine’ et non l’inverse)

La première chose que l’on peut constater c’est que dès la naissance les hommes sont plus mortels que les femmes (environs 1.3 x plus), les bébés hommes font pourtant en moyenne 100g de plus que les bébés femmes. Est-ce la part biologique ? (25% ?)

L’écart ce creuse à partir de la puberté avec un pic vers 21 ans et un rapport de 3.3 ! Est-ce la part lié au comportement à risque physique ? (45%  ?).

il y a un second pique autours de 65 ans. Est-ce la part liée à une mauvaise hygiène de vie ? (alcool, cigarettes, nourriture grasse, et le manque de soin préventif)  (30% ?)

Pour tenter d’y voir plus claire regardons se qu’il en était au début du siècle:

(il y a une erreur sur l’ordonnée, il faut lire ‘mortalité masculine/mortalité féminine’ et non l’inverse)

à cette époque l’écart était plus faible (1.45 maximum) et la mortalité féminine était supérieur à celle de l’homme pour la tranche d’age 5-19 ans.

Il est possible qu’aujourd’hui les progrès de la médecine profite plus aux femme qu’aux hommes, notamment pour limiter la mortalité maternel lors l’accouchement (sans toutefois avoir d’effet sur le rapport de mortalité des bébés hommes et femme à la naissance).

A cette époque les hommes travaillaient plus que les femmes, ils étaient donc plus susceptible d’être exposés à des danger mortels. Pourtant l’écart était plus faible, cela suggère t-il que le comportement à risque n’est pas un facteur déterminant? pas forcément car à cette époque les femmes accouchaient plus souvent (entre 15 et 40 ans) la forte mortalité à l’accouchement neutralisait probablement le pic du comportement à risque des hommes. De plus les femmes qui se retrouvait seules au delà de 40 ans avaient moins de chance de s’en sortir que les hommes (inégalité sociale), ce qui devait atténuer le second pique lié à la mauvaise hygiène de vie.

Il est donc difficile de comprendre les causes précises de ces écarts surtout sans connaitre le détail des causes du décès. La question restera donc ouverte. A vue de nez je dirais quand même qu’en gros nous avons 25% de biologie, 45% de comportement physique à risque et 30% de mauvaise hygiène de vie (alcool, cigarette, nourriture grasse, défaut de soin et de prévention).

Quelques remarques supplémentaires concernant la courbe de mortalité mixte :

La mortalité à la naissance reste importante même aujourd’hui (6 cas sur 1000 naissances): la probabilité de mourir à la naissance ou avant sa première année (60% d’entre eux meurent avant 7 J, 45% à la naissance même, 30% sont des prématurés) est équivalente à celle de mourir dans l’année de ces 60 ans.

Il existe une période « d’invulnérabilité » qui se situe autours de l’age de 10 ans où la probabilité de mourir dans l’année est minimal (1 chance sur 5000).

Il y a une sorte de mur de l’adolescence, une période autours de 15 à 20 ans où le risque de mourir dans l’année augmente brutalement d’un facteur 4 (comportement à risque).

il existe un « palier de tranquillité » entre 20 et 30 ans où la probabilité de mourir dans l’année est stable.

Au delà de 30 ans la probabilité de mourir dans l’année augmente de façon exponentiel vers la valeur fatidique de 1.

ref:

statistiques

opinion d’un spécialiste

Pourrais-je avoir respiré une des molécules d’air du dernier soupir de Léonard de Vinci ?

octobre 22, 2008

Cette question, dont la réponse est affirmative, permet de ce rendre compte à quel point les atomes sont petits et nombreux. Le dernier soupir de Léonard de Vinci à expirer pas moins de 10^22 molécules. Toutes ces molécules vont se mélanger rapidement dans l’atmosphère, si l’air était parfaitement immobile il faudrait des milliards d’années pour que les molécules se mélanges complètement par simple choques, mais les masses d’air sont animées de mouvements chaotiques résultant de la convection thermique, ce mouvement est très efficace pour mélanger les molécules d’air, si bien qu’en quelques mois seulement deux molécules qui se trouvaient cote à cote peuvent terminer aux antipodes l’une de l’autre. La diffusion uniforme des éléments radioactifs des essais nucléaires partout sur la planète prouvent bien ce fait.

Le nombre de molécules de l’atmosphère étant de l’ordre de 10^44 nous trouvons qu’une molécule sur 10^22  (10^22/10^44) appartenait au dernier souffle de Léonard. Sachant que nous aspirons environs 10^22 molécules à chaque respiration nous en déduisons qu’au moins une molécule du dernier souffle de Léonard est ainsi aspirée à chacune de nos respirations !

Bien sur nous respirons également des molécules du dernier souffle de Mozart, d’Einstein ou même d’Hitler…En fait nous respirons des molécules qui ont transités dans les poumons ou dans les corps de tous les êtres vivant ayant vécu sur terre.

Notre calcul ne concernait que le dernier souffle d’un homme, mais si on considère tous les atomes qui transitent dans un corps humains au cours de sa vie, le nombre de molécules en jeux est bien plus important.

Un corps humain recycle toute sa matière tout les trois ans environs, c’est-à-dire qu’aujourd’hui votre corps ne contiens plus du tout les même atomes qu’il y a trois ans (ce qui montre que pour la vie, l’information prime sur la matière). Ainsi c’est près de deux tonnes de matière qui transite profondément dans la structure même du corps humain au cours d’une vie. Si on tient compte de la matière qui transite plus superficiellement comme l’air, l’eau et la nourriture, la masse qui transite au cours d’une vie est alors de 810 tonnes (dont 750 tonnes d’air), ce qui représente environs 10^31 atomes.

Ainsi c’est près d’un milliard de milliards d’atomes (10^31/10^44 *10^31) ayant appartenu un temps à Léonard de Vinci (ou à n’importe quel être vivants ayant vécue sur terre) qui transit ainsi dans nos corps durant notre vie…

En somme on peut dire qu’à chaque respiration, à chaque gorgé d’eau ou à chaque bouché de nourriture, nous avalons le monde entier…

Le top 100 des nombres entiers

septembre 14, 2008

Quels sont les nombres entiers les plus utilisés dans le monde? Pour répondre à cette question saugrenue utilisons le moteur de recherche Google et voyons le nombre de page référencés pour chacun des cents premier nombre (  » 1 « ,  » 2 « ,  » 3 « …). Le résultat est le suivant:

Bien sur on constate que plus le nombre est grand et moins il est fréquemment utilisé (on parle plus souvent de 3 citrons que de 48 patates par exemple), on peut remarquer également que le nombre « 2 » (qui est le champion) est plus utilisé que le nombre « 1 », sans doute parce que le nombre 1 est souvent representé de manière implicite ou en toute lettre (« un »).

Les points rouges représentent les nombres premiers et les points verts les multiple de 10. On constate que les multiples de 10 sont plus souvent utilisés que leurs proches voisins, ce qui est logique puisque l’on a tendance à arrondir les valeurs.

Enfin on peut remarquer sur ce graphe deux curieuses cassures: la première montre une chute brutale après le nombre 30, l’autre une chute brutal après 60. Pour la première cassure, l’explication qui me semble la plus simple (en admettant que ce ne soit pas un artefact de Google)  serait de dire qu’elle est la conséquence du fait qu’il n’y a que 30 jours dans le mois (ce qui voudrait dire qu’ environs 50% des nombres inférieur à 30 ne servent qu’à la datation…). La seconde cassure proviens peut-être des untités temporel: 60 min dans une heure, 60 secondes dans une minute (ce qui voudrait dire qu’environs 50% des nombres compris entre 30 et 60 servent à marquer les minutes et les secondes). Mais ce n’est là qu’une hypothèse.

Il y a également une petite cassure après le nombre 100, qui résulte peut-être d’un seuil psychologique.

Espaces à n dimensions

septembre 5, 2008

Je me souviens qu’au Collège puis au Lycée j’étais frappé par la simplicité des lois de la physique et par la petitesse des coefficients (toujours proche de l’unité) qui accompagnait les constantes.

Une partie de cette simplicité peut s’expliquer par les propriétés liées au faible nombre de dimensions de notre espace.

Prenons le cas simple de la surface et du volume d’une sphère de rayon égale à l’unité, dans un espace à trois dimensions nous avons S=12.5 (4pi) et V=4.188(4pi/3). Si on extrapole à un espace à n dimension nous avons :

S=\frac{nr^{n-1}\pi^{n/2}}{\Gamma (n/2+1)}

V=\frac{r^{n}\pi^{n/2}}{\Gamma (n/2+1)}

Ce qui donne graphiquement:

volume d'une sphère de n dimensions
volume d’une sphère à n dimensions(r=unité)
Surface d'une sphère de n dimensions
Surface d’une sphère à n dimensions(r=unité)

coef maximal de 5.2777 pour n=5.26.

coef maximale de 33.16 pour n=7.3.

Nous constatons donc que les coefficients de proportionnalité restent relativement proche de l’unité en tout cas pour n<20, au delà les coefficient tendent vers zéros. Leurs valeurs maximales ne dépasses pas  2.6 fois les valeurs des coefficients de l’espace à 3 dimension.

Si les espaces étaient bien supérieur à trois dimensions nous aurions des coefficients géométriques très éloignés de l’unité ce qui aurait compliqué l’expression des formules de la physique.

Autre illustration des propriétés particulières des espaces à n dimensions: le nombre de polyèdres régulier:

Dimensions d’espace

Nombres de polyèdres réguliers

 

2

 

infini

3

5

4

6

>4

3

.

.

.

.
.
.
.
.
.
.
.

Ce tableau montre que le nombre de polyèdres régulier est toujours proche de l’unité (sauf paradoxalement pour n=2), avec un maximum de 6 pour un espace à 4 dimensions.

On peut donc remarquer dans ces deux exemples que les espaces à n dimensions ont des propriétés remarquables pour des valeurs de n proche de l’unité et une certaine monotonie au delà:

– coefficient volumique maximal pour n=5

– coefficient surfacique maximal pour n=7

– nombre de polyèdre maximal pour n=4

Ce n’est donc probablement pas par hasard si nous somme dans un espace à faible nombre de dimension…

Rq: les conjectures mathématiques qui sont généralement faciles à démontrer pour tout espace à n dimensions le sont beaucoup moins pour un espace à 3 dimensions (la conjecture de Poincaré en est un bon exemple). L’extrapolation des lois de la propagation des ondes ou de la gravitation sur un espace autre que 3 dimensions a montré également la grande singularité de notre espace.

La loi de Benford

août 29, 2008

Quand j’étais au lycée j’avais remarqué sur ma calculatrice, que je m’apprêtais à nettoyer, plus de crasse sur le chiffre 1 et 2 que sur les autres chiffres. Intrigué je décidais de ne pas la nettoyer et à la fin de l’année je constatais qu’il existait une sorte de loi universel produisant un encrassement inversement proportionnel à la valeur du chiffre indiqué sur les touches des calculatrices. Je n’arrivais pas à admettre que les petit chiffres étaient plus souvent utilisés que les grands, il me semblait évidant que le hasard devait aplanir toute hiérarchie de ce genre…

Ne trouvant pas d’explication et les vacances étant arrivées j’oubliais complètement cette observation, jusqu’au jours où des années plus tard je tombe sur un article parlant de la loi de Benford.

Cette loi a était découverte pour la première fois par Newcomb (1881), qui remarqua une usure non uniforme des tables logarithmiques, c’est à dire que les premières pages étaient plus usées que les dernières, il comprit que cela venait du fait que les ingénieurs et les physiciens qui utilisait ces tables manipulait des nombres naturel (résultat de mesures) dont le premier chiffre avait la curieuse propriété de contenir plus de 1 que de 2 et plus de 2 que de 3 etc.. le chiffre 9 étant le moins représenté. Il consulta alors des bases de données naturelles comme la superficie des lacs du monde ou le poids moléculaires de différent composés chimiques. Il trouvas une relation empirique qui donne la probabilité que le premier chiffre d’un nombre naturel soit n :

P(p=n)= Log(1+1/n))

Log étant le logarithme de base 10. Ce qui donne graphiquement :

Malheureusement pour Newcomb on ne prêtât guère attention à sa remarque pertinente, par contre l’histoire retiendra son nom pour une tout autre démonstration: Celle qui prétendait prouver l’impossibilité du vol maîtrisable du plus lourd que l’air…

Ce n’est qu’en 1938 que Benford refit indépendamment la découverte. Il poussa plus loin les vérifications et donna son nom à la loi.

D’où vient cette loi? Cette loi touche essentiellement les nombres issus d’une valeur naturelle (dimensions, prix, dénombrement…), elle résulte de l’invariance d’échelle des objets naturels. Cette invariance d’échelle peut ce comprendre par le simple fait que dans un espace fini il y aura toujours plus de petits objets que de grands. Il en résulte que l’échelle naturelle n’est pas linéaire mais logarithmique, si on représente graphiquement le nuage de points d’une population donnée (par exemple la superficie des lacs) ces points vont ce répartir relativement uniformément sur un graphe logarithmique, on comprend des lors qu’il y aura plus de points entre 2 et 1 qu’entre 3 et 2, etc…. la quantité de points représentant la valeur d’un nombre dont le premier chiffre est 1 sera égale à log(2)-log(1), la quantité de points dont le premier chiffre est 2 sera égale à log(3)-log(2), la quantité de points dont le premier chiffre est n sera égale à log(n+1)-log(n)=log(1+1/n).

Il faut toutefois que ces objets n’aient pas de tailles caractéristiques (comme la taille d’une seule espèce animal), et qu’ils existent sur plusieurs ordre de grandeur. La loi ce retrouve assez bien pour: la surface des lacs, la longueur des fleuves, le prix, la population urbaine, etc…

Application: la loi de Benford a trouvé une application étonnante, elle permet en effet de repérer les fraudes fiscales…

L’avion est-il plus dangereux que la voiture ?

août 14, 2008

On entend souvent dire que l’avion est un moyen de transport plus sur que la voiture, mais est-ce vrai?

voyons ce que nous disent les statistiques:

avions de ligne:

0.05 accident mortel et 1.57 morts par 100 millions de milles parcourus.

voiture:

1.32 accidents mortel et 1.47 morts par 100 millions de milles parcourus.

On constate donc que le nombre de morts au km est à peu près identique.

Donc pour allé d’un point A à un point B, le risque semble être à peu près le même que l’on prenne la voiture ou l’avion, en fait si on prend le point de vue d’un passager lambda on a plutôt:

pour l’avion de ligne: 1 accidant mortel (qui tue le passager lambda) pour 2000 millions de milles (en supposant qu’il n’y a aucune chance de s’en sortir vivant).

pour la voiture : 1 accident mortel (qui tue le passager lambda) pour 120 millions de milles (en tenant compte qu’il y a en moyenne 1.6 passager par voiture et 1.11 mort par accident mortel).

donc pour un utilisateur lambda et pour aller d’un point A à un point B l’avion est en moyenne 17 fois plus sur que la voiture… même si globalement il tue autant au km (l’avion transporte 17 fois plus de passager).

Mais la question qu’on se pose concrètement au moment de monter dans un véhicule fait référence à la probabilité de se tuer en fonction du véhicule utilisé (indépendamment de la distance à parcourir). Pour répondre à cette question il faut évaluer la distance moyenne parcourue à chaque utilisation de l’avion ou de la voiture.

La distance moyenne parcourue par un avion de ligne est de l’ordre de 3000km (6500 pour les long courrier, 500km pour les court).

la distance moyenne parcourue par une voiture entre le démarrage et la coupure de contacte est de l’ordre de 20 km.

On arrive ainsi à la probabilité suivante :

pour l’avion de ligne : 1 accident mortel tous les 1 000 000 utilisations (en supposant qu’il n’y a aucune chance de s’en sortir vivant).

pour la voiture : 1 accident mortel tous les 10 000 000 utilisations (en tenant compte qu’il y a en moyenne 1.6 passager par voiture et 1.11 mort par accident mortel).

Ainsi pour un utilisateur lambda prendre un avion de ligne est environs et en moyenne 10 fois plus dangereux que prendre la voiture (indépendamment de la distance parcourue).

Dès lors il n’est pas si irrationnel que cela d’avoir plus peur en avion qu’en voiture.

Ceci dit il est claire que nous prenons beaucoup plus souvent la voiture que l’avion ( la voiture tue 1 millions de personne par an dans le monde contre moins de 1000 pour l’avion) c’est pourquoi on a beaucoup plus de chance de mourir d’un accident de voiture durant notre vie (1 sur 100 !) que de mourir dans un accident d’avion de ligne (1 sur 100 000 en moyenne).

Bon alors finalement qui est le plus dangereux?

Le problème qu’il y a lorsque l’on compare la voiture et l’avion c’est que leur dangerosité est de nature différente, pour l’avion le risque principal est au moments du décollage ou de l’atterrissage, autrement dit c’est le nombre d’utilisation qui augmente la probabilité de ce tuer en avion, alors que pour la voiture c’est essentiellement le kilométrage qui augmente la probabilité de ce tuer en voiture.

donc pour aller d’un point A à un point B distant de x km on a aproximativement:

1 chance sur 1 000 000 de ce tuer en avion

x chances sur 200 000 000 de ce tuer en voiture

Autrement dit prendre l’avion est plus sur si la distance à parcourir est supérieur à 200 km ce qui correspond à peu près à la distance minimal des lignes aériennes internes. Une autre façon de voire la chose serait de dire que prendre l’avion est aussi (peu) risqué que de faire 200 km en voiture ( 100 km si c’est une route national tout le long et 400 km si c’est l’autoroute tout le long, voir Rq 2).

Donc globalement pour ce déplacer à longue distance et pour un utilisateur lambda, l’avion est un peu plus sur que la voiture, mais comme on l’a vu précédemment si on ne considère que l’acte « je prend un moyen de transport », l’acte « je prend la voiture » est en moyenne 18 fois moins dangereux que l’acte  » je prend un avion de ligne », indépendamment de la distance que je vais parcourir (parce que la distance moyenne parcourus en voiture est petite).

Par contre même si l’avion tue autant au km que la voiture elle transporte aussi environs 20 fois plus de monde, c’est à dire que si le but est de transporter le plus de monde saint et sauf d’un point A à un Point B alors l’avion est 20 fois plus sur que la voiture, c’est ce dernier point qui est mis en avant par les compagnie aérienne.

Résumer:

– Le moyen de transporter qui permet globalement de transporter le plus de monde en faisant le minimum de victime est l’avion, l’avion est de ce point de vue 20 fois meilleur que la voiture (même si il tue autant  au km que la voiture).

– Pour un utilisateur lambda qui veut aller d’un point A à un point B, la probabilité qu’il a de ce tuer en avion est inférieur à la probabilité de ce tuer en voiture au delà d’une distance de 400km (sur autoroute). Cette probabilité décroit relativement en D/400 ou D est la distance parcouru, ainsi pour faire Paris-Madrid (1300 km), le passager à 3 fois plus de chance de ce tuer en voiture qu’en avion, par contre pour faire Paris-Londre l’avion et la voiture lui donne à peu près la même chance de ce tuer.

– Si on considère le nombre d’accidents mortel par utilisation d’un moyen de locomotion (quelle que soit la distance parcourue), l’avion deviens 18 fois plus dangereux que la voiture (parce que la distance moyenne d’un trajet de voiture n’est que de 20km).

En résumer : « L’avion est le moyen de transport de plus sûr, c’est aussi le plus sûr moyen de se tuer »

Rq 1 : je ne parle ici que des avions de ligne, si on inclus les petits avions de tourisme le risque est encore 10 fois supérieur, ce qui les rendent clairement plus dangereux que la voiture.

Rq 2: l’autoroute est 4 x moins dangereuse que la route nationale (et elle représente 28% du trafique). J’ai supposé par ailleurs que les chiffres utilisés ici concernant les accidents de voitures ne tiennent pas compte des morts piétons (cela semble être le cas si on compare avec les chiffres français, voir lien 4).

quelques références :

1

2

3

4

Loi des séries

août 10, 2008

« Un malheur n’arrive jamais seul», «jamais deux sans trois»… qui n’a jamais eu l’impression que les événements rares arrivent par paquet? c’est cette impression qui a donné naissance à la loi empirique appelé communément loi des séries. Mais cette loi a t-elle un soupçon de vérité?

En fait oui, il y a quelque chose de vrai la dedans, et cela vient du fait que le temps mort entre deux événements rares a une valeur dont la probabilité d’exister est d’autant plus grande que ce temps est court. Prenons le cas des crash d’avions: si on représente le nombre de crash en fonction du temps morts entre deux crash successif on obtiens l’histogramme suivant:

Cet histogramme montre que plus le temps mort est court plus sa densité de probabilité est grande, ce qui favorise les agrégats c’est à dire que les crashs auront tendances à ce produire par grappes ou par séries…

On dénombre par exemple une quarantaine de temps mort de 10 jours (+/- 2jours) contre 2 temps morts de 100 jours (+/- 2 jours).

on peut démontrer cela à partir de la loi statistique de poisson. On trouve une densité de probabilité égale à :

P(dt)=\frac{dN}{dt}= K\frac{\lambda^{T/dt} e^{-\lambda}}{gamma(T/dt+1)} T dt^{-2}

T=1Jour

\lambda=0.0281 crash/Jours

On peut comprendre en partie ce phénomène en faisant remarquer que dans un laps de temps fixe il y a potentiellement plus de place pour de petits intervalles de temps que pour de grand intervalle de temps .

Si on s’amuse à représenter par des points, sur une ligne temporelle, la succession d’événements rares régis par une loi de poisson (points bleu) et si on la compare à la répartition qu’aurait ces points dans le cas d’une loi dont la densité de probabilité des temps morts serait uniforme (point noir) on verait que la loi de poisson qui régie les événements rares produit nettement plus de grappes de points que la loi uniforme:

La « loi des séries » est donc due à la structure même de la statistique qui régie les événements rares, mais il ne faut pas oublier que ces événements restes indépendants les uns des autres contrairement à l’impression intuitive que donne de telles grappes. Inutile par exemple de ne pas prendre l’avion juste après un crach sous prétexte qu’ils arrivent en tire groupées.

Des phénomènes psychologiques peuvent par ailleurs renforcer cette perception comme la mémoire, la perception logarithmique du temps, ou les loupes médiatiques.

voici une vidéo qui reproduit d’une manière sonore 819 crash majeur qui ont eu lieu entre 1920 et 2000, on perçoit bien le phénomène d’agrégation :

 


Suivre

Recevez les nouvelles publications par mail.