vendredi 30 mars 2012

Dé-mailons nous!

 (Billet paru cette semaine dans le + du NouvelObs)

La panne de trois jours qui a frappé tous les utilisateurs du “Blackberry mail” en octobre 2011 a traumatisé quelques-uns de mes collègues. L’un d’eux, qui se trouvait à l’étranger à ce moment là, me confiait qu’il avait le sentiment d’être exclu de l’entreprise, inutile et vaguement coupable de n’être même pas capable aux sollicitations de ses pairs.

Plus je communique, plus j’existe.

C’est vrai qu’il y a six ou sept ans, avoir un Blackberry conférait une sorte de supériorité professionnelle. On était au courant de tout avant tout le monde, on réagissait avant tout le monde sur les mails importants, même si on était en déplacement. Et puis, à mesure que le Blackberry s’est démocratisé, il est devenu normal de répondre dans la minute qui suit au mail de son patron. J’ai même vu des réponses automatiques d’absence pour une matinée de rendez-vous extérieur!  Une de mes collègues a même deux mobiles- un Blackberry et un iPhone – car pour traiter ses mails dans le métro il y en a toujours un des deux qui capte mieux que l’autre. On se poste désormais devant son mail comme l’ouvrier jadis devant sa chaîne de production. Mais contrairement à lui, le cadre moderne est heureux avec son tonneau des Danaïdes qui se remplit plus vite qu’il ne se vide. Car chaque mail reçu prouve que l’on compte un peu dans l’entreprise, que quelqu’un a pensé à nous l’envoyer. On mesure son importance au nombre de courriels reçus par jour. Alors forcément, le jour où le mail tombe en panne, le monde s’écroule. Ne plus recevoir de mails c’est le premier signe d’une mise au placard. Derrière la consultation frénétique de sa messagerie se cache le besoin de se rassurer sur sa place réelle dans l’organisation.

Et puis éplucher ses mails les uns après les autres est une manière bien pratique de faire son boulot sans trop se poser de questions sur la manière de s’y prendre, avec en prime le sentiment du devoir accompli une fois qu’on a fini. L’imagerie cérébrale a montré que chaque envoi de mail procure une micro-satisfaction, par le simple fait de s’être prouvé à soi-même qu’on a su y répondre, qu’on est réactif et fidèle au poste. On devient vite accroc à ces petites doses de dopamine qui ont le même effet dans notre cerveau -toutes proportions gardées!- que le sexe, la drogue ou le rock&roll. Certains de mes collègues ne savent plus discuter sans garder l’oeil et le pouce sur leur smartphone, à l’affût du moindre mail entrant. On prend son shoot de mail comme on grille une clope pour recevoir sa dose de nicotine.

Plus je communique, moins je comprends ce qui se passe!

source de l'image

Je reçois une centaine de mails par jour. Bien moins que d’autres, mais bien plus que ce qui me serait vraiment nécessaire pour faire mon boulot correctement. Sous prétexte de transparence, le moindre compte-rendu de réunion a au minimum une dizaine de destinataires et est accompagné en pièce jointe de l’inévitable document PowerPoint de trente pages. Et il en est toujours un pour signaler une imprécision dans ce compte-rendu. En « réponse à tous » bien entendu. Suit alors parfois une longue partie de ping-pong à ce sujet, prenant la Terre entière pour témoin. Sous ce déluge de « non-information » je passe plus de temps à écoper ma boîte de réception en essayant de ne pas passer à côté de ce qui est important. Mais je participe moi-même sans m’en apercevoir à cette entropie délirante.

Plus j’ai d’outils de communication, plus je suis seul…

La communication directe, d’humanoïde à humanoïde est la grande perdante de l’hystérie informationnelle. Si l’on ne veut pas crouler sous les messages en attente le lendemain matin, il faut “dépiler » sa boîte mail en permanence. Même en réunion, il n’est pas rare que tout le monde ait le nez plongé dans son PC (ou son mobile, c’est plus discret) à l’exception de celui qui parle… dans le vide. Réagir par mail est devenu plus naturel que de décrocher son téléphone -réservé aux cas d’urgence. Est-ce parce qu’il permet aussi de contrôler ce qu’on écrit, de garder une trace et -surtout- de ne pas trop s’impliquer émotionnellement si le sujet est délicat? Je ne sais pas, car même chez mes ados de fils je constate le même phénomène: ils n’appellent plus leur copains mais sont capables de passer des soirées entières à tchatter sur facebook ou à s’échanger des textos. C’est d’ailleurs grâce à sa messagerie instantanée que Blackberry survit encore, face à la déferlante de smartphones concurrents. La communication se vit désormais surtout au doigt et à l’oeil.

Quant à se déplacer pour voir les gens et leur parler directement, c’est paradoxalement devenu plus compliqué depuis que les openspace se sont généralisés. Vous me direz qu’ils ont été conçus pour que les gens se parlent d’avantage. Certes, mais traumatisés par un brouhaha auquel ils n’étaient plus habitués, les locataires de ces grands espaces ouverts ont exigé le silence autour d’eux. On tolère le chuchotement entre voisins de bureaux mais le moindre éclat de voix provoque des regards venimeux. Alors pour s’épargner le courroux de ses collègues, on échange par mail entre voisins. La messagerie instantanée a progressivement remplacé le petit bavardage informel entre collègues-copains, en attendant la pause café ou le déjeuner. Entre temps, il faut se contenter le plus souvent de rapports électroniques avec ses pairs…

source ici

 

Travailler ou communiquer, il faut choisir…

Le travail de fond a aussi fait les frais de cette communication tous azimuts. On s’accoutume vite au mode de travail haché où l’on traite plusieurs choses en même temps, au point que l’on perd peu à peu sa capacité à se concentrer. Pour lutter contre cet effondrement de la productivité, Thierry Breton a annoncé qu’il interdirait l’usage du mail en interne chez Atos. Je ne sais pas si ça va changer quoique ce soit, mais c’est vrai que je me surprends parfois à procrastiner quand il s’agit de traiter un dossier de fond et une fois que je m’y mets, je m’interromps toutes les cinq minutes pour consulter mes mails. Il y en a toujours un plus urgent à traiter que ce satané dossier. En désespoir de cause, je rentre chez moi pour m’atteler à la tâche. Et là, miracle. Loin des sollicitations du bureau, volontairement privé de mail, je boucle mon dossier en moins de deux heures. Et au lieu du plaisir fugitif que je ressens quand j’ai fini de traiter mes mails, c’est une satisfaction durable que j’éprouve alors, comme après avoir nagé un kilomètre ou couru pendant une bonne heure. Après l’ère de l’hypercommunication paralysante, va-t-on enfin atteindre l’âge de la non-communication hyperefficace?

dimanche 25 mars 2012

Notre cerveau joue aux dés (2/2)

Je vous ai parlé dans mon dernier billet de la façon dont, face à une image ou un son ambigu, notre cerveau utilisait le hasard et les probabilités pour « tirer » aléatoirement une interprétations possible du signal. Un peu à la manière d’un système de particules intriquées où le hasard est le seul à définir l’état dans lequel on observe le système parmi tous les états probables. L’analogie  entre neurosciences et physique quantique est tentante, mais elle a ses limites. Une fois qu’un système quantique a été observé, il est irréversiblement modifié et réduit à une de ses valeurs propres. Les mesures ultérieures sur ce système donneront ensuite toujours la même valeur. Il en va tout autrement pour notre cerveau, puisqu’après qu’il ait donné une réponse, on peut sans problème lui demander un deuxième choix. C’est d’ailleurs cette possibilité qui a permis d’explorer encore plus loin son fonctionnement intime…

Notre attention est aussi l’objet du hasard…

Que se passe-t-il quand on s’entraîne à détecter un signal très furtif et que l’on se trompe mettons 20% des fois. La réponse semble à peu près évidente: on avait simplement mal vu le signal dans 20% des cas. Mais puisqu’on a appris à se méfier des évidences, on peut aussi imaginer un scénario alternatif. Puisque le hasard guide nos réponses conscientes, on peut supposer qu’on n’a ni mieux ni moins bien vu ce qui se passait lors des essais ratés. Simplement pour tous les essais, on n’aurait jugé le bon résultat probable qu’à 80% en moyenne. Selon ce scénario audacieux, l’incertitude des réponses ne se concentrerait pas sur les essais ratés, mais elle se nicherait au cœur de chacun des essais, y compris quand ils sont réussis. Comment savoir si la variabilité de nos réponses est inter-essais ou intra-essais?

Pour le savoir une équipe du MIT a demandé à des volontaires de s’entraîner à repérer certaines lettres entourées d’un cercle, parmi une série qui défilait rapidement. Les sujets devaient donner la lettre qu’ils pensaient être la bonne, puis devaient donner un second choix, puis un troisième etc. Le raisonnement des chercheurs a été le suivant:
– Si on se trompe parce qu’on a mal vu certains essais, les deuxièmes choix des essais ratés devraient être très biaisés.
– Si on se trompe à cause de l’incertitude propre à chaque essai, les premiers et les deuxièmes choix devraient suivre la même loi de distribution centrée autour de la réponse exacte, aussi bien pour les essais réussis que pour les essais ratés.

L’analyse de la distribution des deuxième choix pour les essais ratés penche très clairement en faveur de la deuxième hypothèse. Aussi bizarre que ça puisse paraître, premiers, deuxièmes et troisièmes choix semblent effectivement être le résultat d’un tirage aléatoire sur une distribution de probabilités parfaitement centrée autour de la bonne réponse!

D’après Vul & al (2009) Attention as Inference: Selection Is Probabilistic; Responses Are All-or-None Samples.

Tout comme nos perceptions sensorielles, nos réponses attentionnelles semblent donc elles aussi déterminées aléatoirement parmi l’ensemble des réponses probables. Mais contrairement à un système quantique (dont la mesure ne fournit qu’un seul état parmi tous les états possibles), il suffit de poser la question pour connaître les différentes réponses envisagées par notre cerveau.

La sagesse des foules… dans sa tête!

Pourquoi s’arrêter en si bon chemin? La même équipe du MIT s’est demandé si on ne pourrait envisager que notre cerveau fonctionne de la même façon probabiliste lorsqu’il s’agit de fournir un jugement ou une opinion. Il faudrait alors considérer que ce que notre cerveau considèrerait comme notre » meilleure réponse » (best guess) serait non pas la réponse la plus vraisemblable, mais une des réponses possibles, choisie avec une probabilité égale à son degré de vraisemblance.  Je ne sais pas si vous voyez à quelle point cette idée est contre-intuitive: par définition, le « best guess » est la réponse que l’on imagine être la plus vraisemblable. Or ce modèle prédit paradoxalement qu’on maximise ses chances de tomber juste en moyenne si l’on prend la moyenne de ses choix de premier, de deuxième et de troisième ordre!

Les chercheurs ont interrogé 430 volontaires sur une question difficile (« Quel pourcentage d’aéroports dans le monde se trouve aux Etats-Unis? »). Après qu’ils aient donné leur réponse (dont le degré d’erreur est mesuré par les colonnes bleues), on leur demande une deuxième réponse (Guess 2, colonnes marron) soit immédiatement (colonnes de gauche) soit trois semaines plus tard (colonne de droite), les sujets n’étant évidemment pas informés qu’on allait les réinterroger sur le sujet.

On constate sans surprise que cette deuxième réponse est moins précise que la première (les colonnes marron sont plus hautes). Jusque là tout est normal puisque la première réponse est celle que le sujet croit la plus exacte. Mais ce qui est plus étrange c’est que la moyenne des deux réponses (colonnes vertes) est beaucoup plus proche de la réalité que la première réponse! Exactement comme le modèle probabiliste l’avait prédit.

Ca ne vous rappelle rien? C’est bien sûr un phénomène analogue à celui de la sagesse des foules dont je vous ai déjà parlé dans ce billet. Comme Galton l’avait découvert au XIXeme lors d’une foire aux bestiaux, l’estimation d’une valeur par de très nombreuses opinions indépendantes est statistiquement plus exacte que celle du meilleur expert. Sauf qu’ici, la foule serait notre propre cerveau qui, après avoir évalué la vraisemblance de chaque réponse possible, tirerait autant de fois que l’on veut une de ces réponses parmi cette distribution de probabilités.

Comme on le voit sur le graphique, l’effet est encore plus marqué lorsque la deuxième réponse est demandée trois semaines plus tard, sans doute parce que les personnes sont moins influencées par leur première réponse après un long délai entre les deux introspections. C’est la même règle que celle qui prévaut lorsqu’on interroge de nombreuses personnes: pour éviter le biais collectif, la prédiction n’est statistiquement bonne que si les personnes interrogées ignorent l’opinion des autres (autrement elles risquent de se fier aveuglément à l’opinion générale).

Combien de personnes logent dans mon crâne?

On peut pousser l’analogie encore plus loin et se demander à combien de personnes correspondrait cette introspection répétée. On sait comment la précision de la réponse  évolue statistiquement en fonction du nombre de personnes interrogées. A partir de cette loi, on peut donc calculer, à combien de personnes équivaut cette sagesse des foules propre à notre cerveau: une deuxième réponse immédiate correspond à l’interrogation de 1,1 personnes et une réponse trois semaines plus tard fournit la même précision que 1,3 personnes interrogées.


Comme pour la sagesse des foules classiques, on voit tout l’intérêt d’une introspection répétée « à froid », au moment de porter des jugements ou de prendre des décisions. La première intuition est certes souvent la bonne, mais les réflexions ultérieures peuvent la nuancer utilement. L’analogie avec la sagesse des foules fait aussi écho aux observations de Thomas Seeley (voir ce billet) au sujet des similitudes entre le fonctionnement d’un cerveau et celui d’un essaim d’abeilles en train de choisir son futur nid. Là encore la compilation des expressions de chaque abeille éclaireur fait émerger presque à tous les coups la meilleure solution. Rien ne vaut le collectif pour prendre une bonne décision!

Sources:
Vul & al. (2009) Attention as Inference: Selection Is Probabilistic; Responses Are All-or-None Samples (pdf)
Vul & Pashler (2008) Measuring the crowd within (pdf)

Billets connexes
Le billet précédent, pour ceux qui ont raté le début
Etrange perspicacité collective sur le phénomène de sagesse des foules
Les abeilles ça déménage (2/2) où on fait l’analogie inverse: l’essaim, comme modèle de cerveau virtuel

dimanche 18 mars 2012

Notre cerveau joue aux dés!

 vez-vous vu Un Jour sans Fin, le film dans lequel Bill Murray se retrouve prisonnier d’une journée qu’il revit sans arrêt? Le film est drôlissime car Bill Murray, à force, connaît exactement la manière dont chaque personnage va réagir à ses propos ou à ses actes. Ce qui pose une question intéressante: notre comportement est-il totalement déterminé face à une situation donnée ou bien existe-t-il une dose d’imprévu dans nos réactions? Intuitivement on penche pour la deuxième hypothèse, on n’est pas des machines quand même! – mais comment le prouver? Et surtout quelle serait la nature de ce petit facteur d’imprévisibilité présent en nous, qui fait toute la différence entre un robot et un être humain? Grâce à d’astucieuses expériences en psychologie cognitive que j’ai découvertes dans le dernier cours de Stanislas Dehaene au Collège de France, on commence à avoir une petite idée sur la question…

Perception bistable

Les illusions d’optiques sont très utiles pour comprendre comment notre cerveau interprète la réalité. Prenez la fameuse image de la danseuse qui tourne sur elle-même. On a l’impression qu’elle tourne tantôt dans un sens, tantôt dans l’autre.


Il est très difficile de maîtriser consciemment le sens dans lequel on la voit tourner et le moment où on bascule d’une interprétation à l’autre. Mais le plus étrange c’est qu’à aucun moment nous n’avons conscience de la moindre ambiguïté: on est sûr de la voir tourner comme ceci ou comme cela. L’ambiguïté n’apparaît qu’après coup, quand on se rend compte que notre point de vue a changé alors que le film est toujours le même. On retrouve cette oscillation de notre perception entre deux interprétations possibles (que l’on appelle perception bistable) dans pas mal d’illusions classiques :

Quelques illusions célèbres

Dans toutes ces images, on voit tantôt une chose, tantôt une autre mais jamais un mélange des deux en même temps, comme si notre mode d’interprétation de la réalité fonctionnait en mode « tout ou rien ».

L’illusion existe aussi avec des signaux sonores! Les enfants savent bien qu’à force d’entendre répéter en boucle ton chat – ton chat – ton chat… on finit par entendre chaton-chaton-chaton… (pour prendre un exemple poli 😉 . Des chercheurs du CNRS ont fabriqué un petit montage audio dans lequel on entend tantôt un seul son qui monte et qui descend, tantôt deux signaux distincts qui s’alternent. Les transitions d’une interprétation à l’autre suivent exactement les mêmes lois que pour les illusions visuelles


Des dés dans la tête?


Comment le cerveau « choisit-il » telle ou telle interprétation et surtout pourquoi ne reste-t-il pas fixé une bonne fois pour toutes sur son premier choix? Une hypothèse intéressante serait  que notre cerveau passe automatiquement en revue chaque interprétation possible et lui attribue un degré de vraisemblance. L’interprétation retenue à instant donné serait non pas la plus probable mais une interprétation tirée au sort parmi toutes les possibles, avec d’autant plus de chance d’être choisie qu’elle est vraisemblable. Ainsi s’expliqueraient les bascules d’une interprétation à l’autre: plus on fixe longtemps un signal ambigu, plus on a de chances de tirer au sort différentes interprétations. Un tel modèle prédit que ces changements sont imprévisibles et que le délai entre deux bascules soit suivre une loi de distribution bien particulière, propre aux tirages stochastiques. On a pu constater que cette prédiction est très raccord avec les mesures expérimentales (on demandait à des volontaires de regarder une telle image et d’appuyer sur un bouton tout le temps qu’ils percevaient telle interprétation plutôt qu’une autre):

 


Source:  Moreno-Bote & al. Bayesian sampling in visual perception (2011)

Le test du modèle…

Très récemment, des chercheurs ont confirmé de façon encore plus flagrante cette hypothèse d’un tel « tirage aléatoire » entre les différentes interprétations, chacune ayant une probabilité correspondant à sa vraisemblance relative. Ils ont utilisé l'expérience suivante: deux grilles orientées différemment (par exemple /// et \\\ ) se déplacent dans des directions différentes. C’est tantôt une grille tantôt l’autre qui semble être au premier plan. Les chercheurs ont observé que, toutes choses égales par ailleurs, plus une grille a des barreaux serrés par rapport à l’autre, plus on la voit en dessous de l’autre. Et pareil si une grille va plus vite que l’autre et on peut mesurer le biais de perception induit par chaque facteur pris isolément. Si notre cerveau fonctionne effectivement en combinant des tirages probabilistes, alors on peut prédire à partir de ces mesures empiriques ce que les sujets percevront quand on combine les deux facteurs. Les calculs collent spectaculairement avec les résultats de l’expérience.



source: d'après Moreno-Bote & al. Bayesian sampling in visual perception (2011)

Face à un signal sensoriel ambigu (mais quel signal ne l’est pas?), notre interprétationsemble donc être le résultat d’un tirage au sort parmi toutes les interprétations possibles. La durée durant laquelle on privilégie une interprétation plutôt qu’une autre est directement proportionnelle à sa vraisemblance.

L’analogie quantique

On verra dans le prochain billet à quel point notre cerveau use et abuse de cette procédure stochastique. Aussi étrange que cela puisse paraître, la plupart de nos réponses conscientes (perceptions, jugements, opinions…) se décident sur la base d’un tirage  aléatoire parmi les différentes réponses possibles en fonction de leur vraisemblance subjective. En somme, l’aléatoire fait partie intégrante de nos comportements quotidiens. Bonne nouvelle pour Bill Murray! Cela signifie que même si elle se répète indéfiniment, sa journée en boucle lui réserve forcément des surprises!

Je n’aime pas beaucoup les analogies faciles entre l’indétermination quantique et celles du monde -macroscopique- qui nous entoure, mais pour le coup les similitudes sont flagrantes. A l’image d’un ensemble de particules élémentaires intriquées, on a ici affaire à un système (le cerveau) capable de combiner plusieurs réponses possibles en même temps, mais dont une seule sera observable. Il existe manifestement un processus mental -l’équivalent de la fonction d’onde quantique- attribuant une probabilité à chaque réponse mentale possible. Et comme en physique quantique, le résultat observable est par essence, aléatoire.
 
Mais l’analogie a bien sûr ses limites. Vous ne voyez pas lesquelles? Alors rendez-vous au prochain épisode!

Sources:
Le cours de Stanislas Dehaene sur le cerveau Bayésien, qui a directement inspiré ce billet (en particulier celui du 31 janvier 2012)
Moreno-Bote & al. (2011) Bayesian sampling in visual perception (pdf)

Billets connexes
Non-sens interdit, pour aller plus loin sur d’autres types d’illusions visuelles
L’oreille magique, sur des illusions sonores tout aussi spectaculaires




dimanche 11 mars 2012

Big Bang: une erreur de genèse?

 L’idée que des grandeurs aussi élémentaires que le temps, la vitesse ou la température puissent avoir des limites infranchissables est difficile à avaler. On a vu dans un précédent billet comment réconcilier notre intuition avec le concept de vitesse maximale. Cette semaine on s’attaque à un défi encore plus troublant: celui « d’instant zéro », du moment exact où le Big Bang a émergé et engendré l’Univers…

L’idée est doublement dure à admettre. D’abord parce qu’elle suppose qu’il existe une date au delà de laquelle on ne peut remonter. Or on se représente intuitivement l’échelle du temps comme la droite des nombres réels. Et une droite c’est infini des deux côtés. Qu’est-ce qui pourrait bien nous empêcher de remonter une seconde avant le Big Bang? Ensuite le statut d’un tel instant 0 fait mal à la tête: comment s’explique-t-il s’il n’y avait rien avant lui, ni temps ni espace… Peut-on concevoir qu’un phénomène aussi fondateur (puisque tout découle de lui) n’ait été créé par rien du tout? Difficile d’avaler un tel concept si l’on n’est pas croyant!

L’instant zéro: une simple convention mathématique…

Cette histoire de commencement de l’univers m’a turlupiné jusqu’à ce que je lise le dernier bouquin d’Etienne Klein (Discours sur l’origine de l’Univers) qui est un bijou de pédagogie. En résumé, Klein défend l’idée que cette histoire d’instant 0 (qu’on confond en pratique avec le « Big Bang », l’explosion d’énergie qui a suivi) est presque d’avantage un phénomène culturel qu’une théorie scientifique. On sait que la trame de notre univers se dilate depuis toujours, comme un ballon qui se gonfle, et les équations de la relativité générale sont parfaitement raccords avec les observations d’une telle expansion. Comme rien ne nous empêche de remonter le film de l’Univers à l’envers, il y eut nécessairement un temps lointain où il était riquiqui et l’on peut même calculer sur le papier l’instant exact où il a pu être réduit à un point sans dimension. Cet instant zéro fournit certes une référence universelle bien pratique pour situer temporellement les stades de développement de l’Univers, mais Klein explique que jamais la communauté scientifique n’a attribué de réalité physique à cet instant théorique, pour une raison très simple: en-deçà d’une certaine taille de l’Univers (correspondant à l’échelle de Planck 10-35m, 10-43s)  les équations relativistes ne sont plus valables car elles ne prennent pas en compte les effets de la physique quantique, très sensibles à cette échelle. C’est parce que tous les scientifiques sont d’accord sur ce point qu’ils ne se prennent pas trop la tête sur la signification pratique de cet instant zéro. Sauf que ça, ils ne le disent jamais explicitement!

Les deux seuls théories qui s’attaquent à ce « mur de Planck » -la théorie des cordes et la gravitation quantique à boucles- concluent l’une comme l’autre à un Univers primordial qui n’a pas pu descendre en dessous d’une taille minimale. Résultat d’autant plus remarquable que les deux théories partent de postulats radicalement opposées. Dans un cas comme dans l’autre il n’y pas eu de « singularité initiale » avec des grandeurs qui s’envolent à l’infini. A la place de « l’instant zéro », les deux théories suggèrent plutôt un scénario de « Big Bounce » (grand rebond) selon lequel notre univers se serait contracté très fortement avant de rebondir lorsqu’il est devenu trop petit. Pourquoi le « pré-univers » se serait-il contracté alors que le nôtre semble au contraire accélérer son expansion? On n’en sait rien du tout, mais au moins cette question a-t-elle le mérite de changer radicalement l’objet du débat, et la question du temps zéro ne se pose plus du tout…

La symbiose entre temps et taille

Mais mettons de côté ces arguments d’ordre physique et supposons un instant qu’il y eut  à un moment donné un instant 0. Serait-ce si fou que cela? La question renvoie à la définition même du temps. Qu’est-ce que le temps, si ce n’est le rythme auquel des grandeurs physiques (non temporelles) évoluent. Le temps n’existe que s’il est incarné par des trucs qui bougent matériellement: le déplacement de l’aiguille d’une horloge, le passage d’un rayon lumineux, la longueur d’onde d’une radiation etc. Le temps ne peut pas être dissocié d’une certaine matérialité et en ce sens il fait partie de l’Univers lui-même. Comment évolue le temps dans un monde qui grandit ou rapetisse continûment? Il suffit de réfléchir à la manière dont le rythme des choses varie en fonction de leur taille. Plus le bras d’un pendule oscillant rapetisse, plus sa fréquence augmente (si vous l’avez oublié, la période de ses oscillations est proportionnelle à la racine carrée de sa longueur). Plus courte est la longueur d’onde d’un rayon, plus rapide est sa fréquence. Plus la distance entre deux points diminue, plus l’aller-retour entre ces deux points est vite fait. Idem pour le monde du vivant : la fréquence cardiaque des animaux diminue avec la taille des animaux et en moyenne, plus ils sont gros plus ils vivent longtemps. D’ailleurs on a remarqué qu’au total, le cœur d’un animal produit toujours aux environ d’un milliard de battements, quelle que soit l’espèce et sa taille de la bestiole, du mulot à l’éléphant:


 Bref, tout semble indiquer que le temps s’écoule plus vite quand les longueurs sont petites. Essayons de montrer ça un peu rigoureusement dans le cas d’un monde qui se dilate.

Pourquoi la dilatation de l’espace ralentit-elle le temps qui passe?

Supposons que vous ayez un télescope superpuissant qui vous permet de regarder un poste de télévision placé sur la planète Zorglub, située à des milliards d’années lumière de la Terre. C’est loin mais votre appareil est vraiment très performant et puis pour rien au monde vous ne rateriez la Coupe Intergalactique des Nations diffusée en exclusivité sur Canal Zorglub. Qu’allez-vous voir du match? D’abord, l’image est rougeâtre. Ensuite c’est bizarre, on dirait que le match se déroule au ralenti. La télé sur Zorglub est-elle détraquée? Même pas. Il se trouve que sous l’effet de l’expansion de l’espace, les délais tout comme les longueurs d’onde s’allongent au même rythme que le facteur d’échelle de l’espace – a(t) dans le schéma ci dessous.

 

La dilatation de l’espace (le rapport entre les facteurs d’échelle a(t) pris à des instants différents) agit comme une espèce de ralentisseur du temps et de l’action. Inversement, le rythme des choses s’accélère dans un univers qui rapetisse. Pour avoir une idée du « vrai » rythme des choses, il faut choisir une échelle de temps qui élimine l’effet du facteur d’échelle a(t) soit dto= dt/a(t). Avec cette échelle, vous verriez le match sur Zorglub à vitesse normale. Par contre, on n’a toujours pas éclairci le mystère d’un instant zéro (si tant est qu’il existe).

L’échelle de temps « naturelle »

On pourrait évacuer le problème en remplaçant notre mesure du temps t par une échelle logarithmique Log(t) qui renverrait le temps 0 à l’infini mais ce ne serait là qu’un artifice de calcul, sans justification physique. Jean-Marc Lévy Leblond a donc cherché une échelle de temps -appelons-la θ – qui mesure l’âge de l’Univers en utilisant une métrique bien définie et sans équivoque. Et comme on ne mesure pas l’âge de l’Univers tous les jours, on aimerait bien aussi pouvoir l’utiliser pour mesurer le délai entre deux événements. Il nous faut donc une échelle arithmétique pour θ, permettant d’additionner et de soustraire cette variable temporelle comme bon nous semble pour mesurer des durées  Δθ.

Pas de bol, la seule métrique objective et universelle que l’on ait sous la main est le facteur d’échelle a(t) qui correspond à une échelle géométrique (c’est-à-dire défini à un coefficient de proportionnalité près). Entre deux événements c’est en effet non pas la différence Δa(t) qui a un sens mais le rapport a(t2)/a(t1). Il faut donc définir θ de sorte qu’une même durée de temps Δθ s’écoule chaque fois que l’univers double de taille. Par exemple, l’horloge à θ peut faire un tour complet du cadran chaque fois que l’Univers double de taille.

L’outil préféré des mathématiciens pour convertir une échelle géométrique (celle du facteur d’échelle) en une échelle arithmétique (celle du temps θ) est le logarithme. En choisissant un temps t0 de référence pour lequel on définit arbitrairement que a(t0)=1 et  θ0=0, ça donne θ=log(a(t)) c’est à dire 

Au passage je suis frappé par le nombre de variables dont la mesure « naturelle » est logarithmique (j’en avais déjà fait une longue liste dans ce billet).

Instant 0? Quel instant 0?

Notre nouvelle définition d’un temps additif θ est prête! Il vous suffit de retirer de l’équation précédente toute référence au temps « cosmique » t et de n’utiliser que les variables θ et a. Ca donne:

θ=log(a)

Et là, tan tan! Plus d’instant zéro! Vous pouvez remonter le temps aussi loin que vous voulez, chaque fois que la taille de l’univers est divisée par deux, votre montre retarde imperturbablement d’un tour de cadran. Comme l’explique Lévy-Leblond, « Du point de vue du temps additif donc, il n’y a pas  de début : l’Univers a toujours été là et le Big Bang n’a jamais commencé ». Et il s’amuse même à recalculer la chronologie de tous les grands événements qui ont marqué la vie de l’Univers depuis le début. Comme on pouvait s’y attendre, ils se distribuent de façon bien plus régulière sur l’échelle de temps additive θ que sur l’échelle de temps habituelle:

 

Le Big Bang, un nouveau mythe originel?

Récapitulons: du point de vue des physiciens, l’instant zéro n’a pas de réalité matérielle avérée, et quand bien même il en aurait une, ça ne leur poserait pas de problème métaphysique pourvu qu’on ait une échelle du temps qui tienne la route. Etienne Klein pointe du doigt le gap immense entre ce fait bien connu des scientifiques et la perplexité du grand public devant ce qu’il prend pour une réalité physique. Pourquoi aussi peu de scientifiques prennent-ils la peine de dissiper le malentendu? Sans doute, suggère-t-il, est-ce lié à la fascination qu’exerce le Big Bang sur le grand public, bien au-delà du registre purement scientifique. Lorsque le terme est né d’une boutade radiophonique dans les années 1950, il est très vite sorti du champ scientifique et sa puissance évocatrice a colonisé irréversiblement l’imaginaire collectif. L’idée n’était pas neuve – Friedman et Lemaître en avaient écrit les bases théoriques dès les années 1920- mais il avait manqué jusque là une image forte qui la propulse au rang de mythe fondateur. Sans le vouloir, les scientifiques ont créé un substitut à l’ancienne mythologie biblique. Et l’on ne déracine pas une mythologie avec des raisonnements scientifiques, aussi pédagogiques et convaincants soient-ils.

Cette construction d’une métrique universelle qui peut s’additionner et qui ne connaît pas de limite ni vers le haut ni vers le bas vous rappelle sans doute mes histoires de « rapidité » en relativité. C’est normal! Les deux raisonnements développés par Jean-Marc Lévy-Leblond tirent leur source d’un même théorème mathématique qui montre qu’en gros on peut toujours transformer une grandeur ayant une limite absolue (comme la vitesse d’un corps ou le temps) en une variable « naturelle » pouvant s’additionner et se soustraire facilement (pour ceux que ça intéresse, ce théorème montre précisément que « tout groupe continu à un paramètre est isomorphe à un groupe additif », voilà voilà!). Du coup, je vous pose une question à cent balles qui m’a trotté dans la tête. Avec le même genre de démarche pourrait-on imaginer une échelle « naturelle » des températures qui n’ait pas de limite inférieure? La réponse en commentaire la semaine prochaine!

Sources:
JM Lévy-Leblond: L’âge de l’Univers est-il vraiment fini (pdf), qui a inspiré ce billet, et Additivité, rapidité, relativité pour le fameux théorème sur l’additivité
Le modèle de Friedman-Robertson-Walker expliqué dans un cours de cosmologie de l’Université d’Helsinki
A lire aussi le Geo Savoir, sur le Big Bang qui sort mercredi prochain (mais que j’ai pu me procurer en avant-première) avec justement une interview d’Etienne Klein sur le sujet.

Billets connexes:
Cosmologie fastoche 1 sur le facteur d’échelle
Life in the fast lane, sur la même démarche appliquée à la vitesse.
Notre sens du logarithme sur d’autres cas où le logarithme explique bien des choses

dimanche 4 mars 2012

Les maths sauveront-elles les oiseaux de mer?

Retour sur ces phénomènes auto-organisés. Cette semaine place au vivant et à la dynamique des populations, où l’on retrouve d’étonnantes similitudes avec les oscillations purement physico-chimiques dont je vous ai parlé dans les derniers billets.

Les populations oscillent aussi!

Les statistiques sont une source inépuisable de découvertes intrigantes, y compris lorsqu’il s’agit de statistiques commerciales. La Compagnie de la Baie de Hudson par exemple a publié pendant près de 70 ans les quantités de fourrures vendues chaque année par les trappeurs Canadiens. Ces chiffres, qui sont une bonne estimation de la taille des populations animales chassées, laissent apparaître d’étonnantes périodicités dans les populations de lynx et de lièvres de la région entre 1850 et 1930:

Les fluctuations de la population des lynx et des lièvres au Canada

Les lynx se nourrissant des lièvres, on se doutait bien que plus il y a de lièvres, plus il y a de lynx, mais qu’au bout d’un moment la surpopulation de lynx fait chuter le nombre de lièvres. Et faute de lièvres à se mettre sous la dent, la population de lynx diminue à son tour, ce qui permet à la population de lièvres de croître à nouveau et ainsi de suite. Mais pourquoi les populations de proies et de prédateurs ne se stabilisent-elles pas autour d’une valeur d’équilibre? Pourquoi observe-t-on des maxima et des minima qui reviennent périodiquement? C’est justement la question que se posa le mathématicien Vito Volterra en 1925.

Le modèle proies-prédateurs de Lokta-Voltera

Le gendre de Volterra, Umberto d’Ancona était zoologue et il était intrigué par certaines statistiques de pêche dans la mer Adriatique. Il avait observé que durant les années de guerre, entre 1915 et 1920 en gros, on avait pêché une proportion anormalement élevée de requins et de poissons prédateurs (les Sélaciens) ce qui laissait supposer que leur population avait elle-même fortement augmenté durant ces années. Il se demandait si ce phénomène pouvait être lié à la baisse de l’activité halieutique durant la guerre et il soumit ce problème à son matheux de beau-père. Volterra imagina un modèle très simplifié pour tenter d’expliquer ce phénomène. Il supposa que la croissance de la population des proies (les sardines, les crevettes…) diminue en fonction du nombre de prédateurs présents dans le milieu et  inversement il fit l’hypothèse que la croissance du nombre de prédateurs augmente en proportion directe du nombre de proies à leur disposition.

(Amis mathophobes fermez les yeux ou passez au paragraphe suivant). Si x et y désignent le nombre de proies et de prédateurs, ces hypothèses s’écrivent sous forme d’équations différentielles:
– Côté proies, la croissance en l’absence de prédateurs vaut dx/x=a : c’est la loi malthusienne de croissance géométrique des populations en l’absence de contraintes. En présence de prédateurs, cette croissance est réduite: dx/x=a-by; b étant le taux de prédation et y le nombre de prédateurs.
– Côté prédateurs maintenant:  en l’absence de proies, la population diminue très vite: dy/y=-c La présence de proies x à croquer contrebalance cette diminution: dy/y=-c +dx, d étant un paramètre inconnu.
En changeant d’unité pour x et y, on peut réduire tous ces paramètres à un seul (α) avec le système d’équations suivant: x’=x(1-y) et y’=-α y(1-x) En patouillant un peu ces deux équations on trouve que α(Log(x) – x)+Log(y)-y=constante.
x et y décrivent ainsi des « orbites » fermées centrées autour d’une valeur moyenne (x=1,y=1)

Ce modèle prédit donc que les populations de poissons-prédateurs et celles des proies dont ils se nourrissent ne sont pas stables dans le temps, mais oscillent périodiquement autour d’une valeur d’équilibre, exactement comme les lynx et les lièvres du Canada:

Les prédateurs, plus fragiles que les proies

Mais ce modèle tout simple permet aussi de répondre à la question du lien entre l’intensité de la pêche et la proportion de prédateurs parmi les poissons. Si l’on suppose que l’on pêche indifféremment des proies et des prédateurs, le modèle prédit en effet que la pression s’exerce davantage sur les prédateurs que sur les proies!

Si ε exprime le taux de pêche dans chacune des populations de proies et de prédateurs, les deux équations caractéristiques du système deviennent:
x’=x(1-y) -εx et y’=- αy(1-x) -εy. En écrivant qu’à l’équilibre x’=0 et y’=0, on s’aperçoit que l’équilibre n’est plus en (x=1,y=1) mais en (x=1+ ε/α; y=1-ε). Il y a en moyenne moins de prédateurs mais plus de proies!

Comme l’écrit Volterra « si l’on détruit les deux espèces uniformément et proportionnellement aux nombres de leurs individus (assez peu pour que les fluctuations subsistent), la moyenne du nombre des individus de l’espèce dévorée croît et celle de l’espèce dévorante diminue. » Une intensification de la pêche favoriser donc les proies au détriment des prédateurs et vice versa, comme l’avait imaginé d’Ancona. On comprend que son modèle soit devenu un must dans tous les cours d’écologie, associé au nom d’Alfred Lotka qui découvrit le même modèle à peu près à la même époque mais de façon indépendante.

Comme toujours la réalité est un poil plus compliqué. Si l’on regarde de près les statistiques d’Ancona, on se rend compte que la réalité est sans doute bien plus complexe. D’une part l’augmentation de la proportion de Sélaciens est vraiment très légère sur la période 1915-1920, mais surtout elle démarre dès 1910 dans la région de Triestre, bien avant la guerre et la diminution de l’activité de pêche qui l’accompagna. Il se pourrait donc bien que les explications de Volterra, aussi élégantes soient-elles, ne collaient pas tout à fait avec la réalité.

Mais qu’importe. Le modèle de Lokta-Volterra fut l’un des pères d’une nouvelle science, l’écologie, dotée désormais d’un outil de modélisation capable de confronter des prédictions avec des mesures.

Où qu’ils sont les seuils?

On retrouve dans ce modèle la plupart des caractéristiques propres à l’auto-organisation et dont on a parlé dans des billets précédents: un système hors d’équilibre,  un phénomène de croissance auto-amplifiée (celle du nombre de proies, en l’absence de prédateurs) et un feedback négatif (les prédateurs qui croquent leurs proies), le tout aboutissant à des oscillations périodiques. Mais, lecteur attentif de ce blog, vous noterez sans doute qu’une propriété essentielle de l’auto-organisation manque à l’appel: l’existence de seuils, à partir desquels le système bascule brusquement d’un état d’équilibre à un autre. Où sont les seuils???

Ce n’est pas très compliqué d’imaginer où ils se cachent: dans le modèle de Volterra les prédateurs sont beaucoup plus sensibles que les proies à la surpêche. Et lorsqu’à la fois les prédateurs et les proies se font rares (c’est à dire quand x et y tendent vers 0) les équations indiquent que la population des prédateurs chute de façon brutale (y’~-αy, soit y~ e-αt) tandis que celle des proies se reconstitue rapidement (x’~x soit x~et). Et il semble raisonnable d’imaginer qu’en deçà d’une certaine densité, la population de prédateurs ne parvient plus à se reproduire et risque de disparaître.

D’ailleurs, si l’on modifie légèrement le modèle de Lotka-Volterra en supposant qu’en l’absence de prédateurs, la population des proies finit par saturer à un certain niveau maximum, on découvre plusieurs phénomènes intéressants. D’abord la taille des populations fluctue toujours mais de moins en moins et finit par converger vers la valeur d’équilibre (c’est la jolie spirale de la figure ci-dessous). Ca expliquerait que l’on n’ait quand même pas beaucoup d’exemples de fluctuations démographiques aussi marquées que celles des lynx et des lièvres du Canada. Ensuite, on observe que pour certaines valeurs des paramètres, l’équilibre bascule complètement. Si le volume de proies passe sous un certain seuil, la population des prédateurs chute et disparaît complètement:

Une loi universelle de l’écologie?

Or j’ai découvert en écoutant "Sur les Epaules de Darwin", qu’une étude très récente avait confirmé cette prédiction dans un cadre un peu différent mais toujours lié à la pêche. Des chercheurs ont voulu comprendre l’influence de l’activité de la pêche sur l’évolution démographique des oiseaux qui dépendent eux-aussi des poissons pour se nourrir. En analysant comme Volterra l’avait fait cent ans plus tôt, les statistiques halieutiques de différentes régions du monde, ils ont constaté que  la population des oiseaux chute dès que le stock de poissons vivant dans une zone est réduit des deux tiers sous l’effet d’une pêche trop intensive (cliquez sur l’image pour l’agrandir, elle est issue de l’étude citée plus haut):


Mais leur découverte la plus surprenante est que cette règle semble universelle: quelque soit l’écosystème étudié, l’équilibre démographique des oiseaux se rompt brutalement dès que le seuil-critique de 2/3 est franchi, mettant alors en péril la survie de l’espèce si la pression écologique se poursuit. Espérons juste que l’universalité d’une telle loi impressionnera autant les autorités politiques que les scientifiques épris d’auto-organisation…

Sources:
Sur l’histoire des Lynx et des lièvres du Canada, une  analyse très fouillée de JR Lobry(Université de Lyon) avec des modèles dérivés de celui de Voltera.
Sur l’histoire du modèle Voltera, un article de Jean-Marc Ginoux (Université du Sud).
L’émission de  Jean-Claude Ameisen « Sur les épaules de Darwin » (tous les samedis matin à 11H sur France Inter)
Cury, Boyd& al: Global Seabird Response to Forage Fish Depletion: One-Third for the Birds  (Science, déc 2011, pdf)

Billets connexes:
Ce billet fait suite à deux billets concernant les mécanismes de l’auto-organisation:
Aussitôt oscille l’eau  sur la manière dont l’eau peut se mettre à aller et venir
La fièvre de l’ordre ou comment l’ordre peut naître de la chaleur (et de la convection).