lundi 28 décembre 2009

Pensées en roulant

Sur la route ce week-end, je me faisais la réflexion que de plus en plus de voitures roulent à la même vitesse sur les autoroutes. Est-ce la peur du gendarme ou l'utilisation plus fréquence des limiteurs électroniques de vitesse? En tous cas, je me disais que ça serait quand même très pratique si les voitures savaient "lire" les panneaux de signalisation pour adapter automatiquement leur limiteur de vitesse. On ne risquerait plus de se prendre des prunes par inadvertance et on s'exciterait moins contre la voiture de devant lorsqu'elle ne fait que respecter le code de la route. Bref du stress en moins.

Une idée pour limiter les bouchons

Au milieu des inévitables bouchons du dimanche soir, je songeais aussi que les voitures en mode "limiteur de vitesse" adoptent une allure beaucoup plus régulière que les autres. Et ça m'a fait penser à un truc qui pourrait justement éviter les embouteillages. Pour qu'il se forme un bouchon, il faut qu'il y ait beaucoup de voitures. Mais pas seulement! L'étincelle qui provoque l'embouteillage, c'est le coup de frein provoqué par certaines voitures à l'occasion d'une accélération trop vive ou d'un changement de file. C'est pour cette raison qu'il se forme un embouteillage dès qu'il se passe quelque chose en dehors de la chaussée: le simple ralentissement de certains (pour voir ce qui se passe) suffit à provoquer un bouchon.

Mais à l'inverse les chercheurs [1] ont montré qu'en cas de circulation dense (jusqu'à une certaine limite), le trafic peut continuer à s'écouler régulièrement à condition que tous les véhicules s'astreignent à rouler à vitesse réduite. Assez bizarrement, il adopte alors une espèce de phase "cristalline" où toutes les voitures s'écoulent en une sorte de bloc compact. Ca ressemble alors à ça:

Trafic dense en mode "homogène" (source ici)

Evidemment rouler à vitesse réduite n'est pas un comportement très naturel, surtout si on est énervé et pressé d'arriver, que la file d'à côté roule plus vite ou qu'un espace devant autorise une petite accélération pour se défouler. D'où mon idée: pour limiter les bouchons, il suffirait peut-être de faire varier les limitations de vitesse en fonction du trafic. On remplacerait les panneaux traditionnels par des signalisations à message variable, à commencer par ceux des périphériques urbains ou les tronçons d'autoroute qui sont régulièrement bouchés. Les simulations montrent qu'il suffit que 10 à 20% des conducteurs adoptent une conduite à vitesse réduite pour que le trafic s'écoule efficacement!

Si en plus, les voitures savaient automatiquement adapter leurs propres limiteurs à ces indications variables, ce serait royal: on serait assuré d'un écoulement optimal de la circulation, sans le stress de se faire klaxonner parce qu'on n'accélère pas comme un fou lorsqu'un espace se dégage devant soi. Chiche?

Justice pour La Palice!

Autre truc que j'ai appris sur la route, en passant près du château de La Palisse. L'histoire a été vraiment injuste avec Jacques II de Chabannes, dit de la Palice. Ce vaillant capitaine sous Louis XII et François 1er ne disait pas plus d'évidences que vous ou moi. Sa réputation est née après sa mort, à cause de l'épitaphe qui vantait ses mérites sur sa tombe. Elle disait en substance:
"Ci gît Monsieur de La Palice: Si il n'était pas mort, il ferait encore envie".
Mais le f et le s s'écrivant pareil à l'époque, on a lu à tort: "S'il n'était pas mort, il serait encore en vie". Ce truisme inspira d'autres "Lapalissades" que "la chanson de la Palice" immortalisa cent ans plus tard, donnant par exemple:

Monsieur d’la Palisse est mort, il est mort devant Pavie, Un quart d’heure avant sa mort, il était encore en vie.
ou encore:
Il mourut le vendredi, le dernier jour de son âge;
S’il fût mort le samedi, il eût vécu davantage.
Pauvre La Palice... Même Wikipedia en français ne dit mot (pour l'instant) de cette histoire. Heureusement que l'on peut compter sur les Anglais pour lui rendre justice!


Sources:
[1] Helbing & Huberman, Coherent Moving States in Highway Traffic, 1999

Billets connexes:

Le paradoxe de Braess
Psychologie de l'ncivilité au volant

mardi 22 décembre 2009

Magic Pavlov

En 1890 un médecin russe étudiait les sécrétions gastriques du chien lorsqu'il observa un peu par hasard que son propre chien se mettait à baver dès qu'il entendait la sonnette de son repas. La notion de réflexe de Pavlov (puisque c'est de lui dont il s'agit) était né et l'on a découvert depuis que tous les animaux sans exception sont "conditionnables", y compris ceux qui, comme le petit ver Caenorhabtis Elegans n'ont ni cerveau ni système nerveux très élaboré. Malgré son caractère très simple, le conditionnement pavlovien instrumental [Cf le commentaire de BCY sur la différence entre ces deux types de conditionnement] n'en finit pas de m'épater par sa puissance et son omniprésence chez une espèce aussi évoluée que la nôtre.

Distinguer l'indistinguable...
Première surprise, son champ d'application est extraordinairement large. J'ai ainsi découvert que l'on peut, grâce à un apprentissage conditionné (conditionnel devrait-on dire, paraît-il), apprendre à identifier des subtilités normalement indistinguables consciemment. Il existe par exemple des molécules jumelles (que les chimistes appellent énantiomères) dont l'odeur est normalement indiscernable pour le nez humain. Pourtant, si l'on essaye quand même de les distinguer en recevant une récompense chaque fois qu'on y parvient, on peut apprendre progressivement à faire la différence entre les deux odeurs alors qu'on a l'impression de répondre complètement au hasard.

(source: S Dehaene, cours du collège de France, 2009)

Acquérir des préférences à son insu
L'apprentissage conditionné ne fait même pas forcément appel à la mémoire. Le neurologue Antonio Damasio raconte par exemple l'histoire d'un de ses patients, nommé David, atteint d'une amnésie totale suite à une profonde lésion cérébrale. Il ne pouvait se souvenir d'aucun fait nouveau, d'aucun mot, d'aucun lieu, d'aucun visage rencontré la veille. Damasio monta une expérience avec la complicité de trois aide-soignants qui firent travailler David durant cinq jours d'affilée. L'un jouait le rôle du "bon garçon", l'encourageant et le récompensant souvent. Le second se montrait au contraire très désagréable, obligeant David à réaliser des tâches pénibles. Le troisième avait une attitude neutre et lui faisait faire des activités ni agréables ni particulièrement déplaisantes. D'un jour à l'autre, David ne se souvenait absolument plus des visages de ces aide-soignants ni de leur attitude. Le sixième jour on présenta à David plusieurs séries de photos, et on lui demanda d'y choisir les personnes avec qui il aimerait bien être ami. David choisit le gentil expérimentateur huit fois sur dix lorsqu'il le pouvait. Par contre il évita systématiquement le "bad guy" et il choisit l'aide-soignant "neutre" avec une probabilité proche de celle du hasard. Comme l'explique Damasio,
"il ignorait pourquoi il choisissait l'un et rejetait l'autre; il le faisait, tout simplement. La préférence non consciente qu'il manifestait, cependant, est probablement liée aux émotions qui avaient été induites en lui durant l'expérience, ainsi qu'à la ré-induction non consciente d'une certaine partie de ces émotions au moment où il se trouvait soumis au test."
Autrement dit nos goûts et nos préférences -nos valeurs aussi?- pourraient se forger de manière pavlovienne conditionnée à partir d'expériences vécues, alors qu'on ne conserve plus aucun souvenir de ces expériences. On aime ou on n'aime pas, mais on ne peut plus expliquer pourquoi. Et si on doit vraiment le faire, on invente littéralement des explications pour justifier a posteriori ces préférences. Pas étonnant que le conditionnement ait alimenté autant de fantasmes dans la littérature d'anticipation qui y a vu la technique d'aliénation par excellence, que ce soit dans le Meilleur des Mondes ou dans Orange Mécanique.

Apprendre dans le coma

Quel étudiant n'a pas rêvé d'apprendre ses cours en dormant? Malheureusement on n'en est pas là. Par contre, pas de problème pour acquérir un réflexe conditionné sans être soi-même conscient. Une équipe britannique a récemment étudié comment des patients dans le coma et des personnes sous anesthésie répondent au conditionnement pavlovien. Ces chercheurs ont habitué ces patients à recevoir un souffle d’air sur leurs paupières immédiatement après leur avoir fait "entendre" (si tant est qu'ils entendent) une note de musique particulière. Les personnes sous anesthésie ne réagissent pas. Normal, leurs perceptions sont totalement inhibées. En revanche 15 patients sur les 22 en état de conscience minimale contractent leur paupière dès qu'ils entendent la note, en anticipation du souffle qu'ils s'attendent à recevoir. Malgré leur coma, ces patients ont préservé une certaine capacité d'apprentissage par conditionnement ce qui pourrait permettre dans le futur à mieux diagnostiquer l'état cérébral des patients comateux.

L'intuition: une clairvoyance émotionnelle?
Les exemples précédents pourraient laisser entendre que l'apprentissage
pavlovien par conditionnement ne concerne que les sensations ou les émotions primaires. Ce n'est pas du tout le cas: on retrouve l'apprentissage par conditionnement à l'autre extrémité de l'échelle cognitive, du côté des fonctions nobles que sont la délibération consciente et la décision rationnelle.C'est encore une fois Antonio Damasio qui a illustré la frontière ténue entre ces deux modes d'apprentissage dans une expérience connue sous le nom d'Iowa Gambling Task (jeu des paris d'Iowa, car elle a été testée initialement là-bas).
Vous avez quatre paquets de cartes retournées devant vous. Chaque carte vous fait soit gagner, soit perdre de l'argent.Votre but: gagner un maximum d'argent en retournant une carte après l'autre dans l'un des quatre tas. Ce que vous ne savez pas, c'est que deux de ces tas sont très risqués ("Bad decks" en bleu dans le schéma): leurs cartes font soit gagner beaucoup, soit perdre beaucoup d'argent. Pour gagner, il vaut mieux piocher dans les deux autres tas ("Good decks" en vert), qui vous rapportent des gains modestes mais réguliers et ne vous font perdre que plus rarement de petites sommes.


(Extrait de Bechara & Damasio, Deciding avantageously before knowing advantageous strategy, 1996)

Au début de l'expérience, les participants piochent au hasard dans les quatre tas (phase "pre-punishment" à gauche en jaune dans le schéma, barres du bas). Au bout d'une cinquantaine de tirage ils "sentent" que deux des tas sont plus risqués que les autres (phase "hunch" en rose). Au bout de 80 tirages la majorité des joueurs savent expliquer ce qui se passe ("conceptual period" en rouge à droite). Mais il se passe quelque chose de très étonnant entre le 10eme et le 50eme tirage: durant cette phase ("pre-hunch" en orange) les participants commencent à améliorer leur stratégie avant de pouvoir exprimer leur préférence pour certains tas. Ils choisissent de mieux en mieux avant de s'en rendre compte! Plus troublant encore, durant cette phase d'apprentissage non-conscient, les chercheurs ont mis en évidence des signaux physiques de stress (mesurés à la quantité de sueur produite dans la paume des mains - barres SCR au milieu du schéma) chez les joueurs chaque fois qu'ils s'apprêtent à piocher dans le mauvais tas.

Les deux modalités de notre intelligence
Cette expérience célèbre (aux Etats-Unis en tous cas) laisse supposer que notre système de compréhension et de décision se fait à deux niveaux:
- une étape intuitive, rapide, inconsciente et fortement émotionnelle durant laquelle on "sent" plus ou moins ce qu'il faut faire sans pouvoir expliquer pourquoi; ce sont typiquement ces processus mentaux qui permettent d'avoir "l'intelligence du jeu" dans les sports collectifs.
- une deuxième étape de prise de conscience, plus lente durant laquelle on est capable d'expliquer rationnellement ses choix et ses décisions. On décide d'abord, on justifie ensuite, de la même manière que l'on avait déjà remarqué qu'on agit avant de décider d'agir. Décidément notre cerveau est bizarrement câblé!

Et si ce que l'on appelle "l'intuition" ou le "gut feeling" en anglais n'était autre qu'une forme particulièrement raffinée du bon vieux conditionnement? Je me demande si cela n'expliquerait pas les liens étranges entre décision, mémoire et émotion:
- on se souvient d'autant mieux des événements qu'ils sont associés à une émotion très forte;
- les personnes privés d'émotion à la suite d'une lésion de leur cortex préfrontal ont du mal à prendre des décisions correctes (c'est l'autre découverte de l'expérience précédente);
- face à un problème compliqué on a bien souvent le "sentiment" d'être sur la bonne piste. On "sent" brusquement une illumination, quelque chose qui se dénoue et qui provoque une soudaine excitation à la perspective de trouver. Le "Eurêka!" ne vient que l'instant d'après, lorsqu'on est capable d'exprimer clairement sa solution, que notre conscience a repris le contrôle et est capable de mettre en mots ce que notre inconscient a instinctivement

Je soupçonne les chercheurs et les amateurs d'énigmes d'avoir développé une véritable addiction pour cette sensation extrêmement jouissive d'être sur le point de trouver, pile au moment où notre inconscient nous susurre à l'oreille les indices permettant de trouver la solution. Un inconscient sophistiqué, permettant de prendre des décisions et source de créativité: on est très très loin de l'image freudienne d'un inconscient fantasmatique, gardien muet de nos désirs refoulés.

Sources:
Antonio Damasio, Le sentiment même de soi: corps, émotion, conscience (1999)
Malcolm Gladwell, Blink (2005)
Bechara, Damasio et al, Deciding Advantageously Without Knowing the Advantageous Strategy (1997)

Billets connexes
Eloge du pifomètre qui traite d'un autre aspect de notre délibération non consciente: la décantation
Très précieuse auto-justification, où l'on découvre que la différence entre justification et motivation n'est carrément pas évidente.
Les absences sont toujours raison sur d'autres mécanismes de notre inconscient non freudien

mercredi 16 décembre 2009

rire

Sortie par la porte de l'école primaire lorsque nos chères têtes blondes apprennent à compter, l'échelle logarithmique n'a pas dit son dernier mot. La revoilà qui reparaît aux antipodes des sciences de la nature et des perceptions sensorielles: au beau milieu de l'économie et des statistiques! Une vraie anguille...

Petite expérience de stats...

Prenez n'importe quelle longue série de mesures: typiquement une liste des cours de Bourse et les volumes d'échanges des titres (ici), ou encore des statistiques mondiales sur le PNB, la taille des populations etc. (ici par exemple). Avec un tableur amusez-vous à comparer à quelles fréquences tous ces nombres commencent par un 1, par un 2, par un 3 etc. Qu'en dites-vous? Le bon sens voudrait que toutes ces fréquences soient identiques (soit environ 11% pour chacun des 9 chiffres).
Voici pourtant la distribution que vous allez trouver:

Pour toutes ces listes de mesures, vous tombez toujours sur à peu près les mêmes fréquences du chiffre de gauche:
1 dans 30% des cas
2 dans 18% des cas
3 dans 12% des cas etc.
jusqu'au chiffre 9 dont la fréquence est inférieure à 5%: vous avez six fois plus de chance de tomber sur un nombre commençant par 1 que par un 9.

La Loi de Benford

Etrangement, cette répartition suit une loi logarithmique (encore elle): la probabilité pour qu'un nombre commence par le chiffre p est à peu près égale à Log (1+1/p). How strange!
C'est à un astronome américain, Simon Newcomb, que l'on doit cette découverte en 1881. En manipulant les formulaires qu'on utilisait à l'époque pour faire des grands calculs, il s'était aperçu que les premières pages - celles qui concernent les nombres commencent par 1- étaient beaucoup plus usées que les autres et, en creusant le phénomène, il énonça le premier la loi de distribution logarithmique. Mais sa trouvaille n'eut pas beaucoup de succès et il fallut attendre 1938 pour qu'un physicien anglais, Frank Benford, redécouvre cette drôle de loi et la vérifie expérimentalement sur tout un tas de séries de données.

Vous pouvez essayer avec toutes les mesures statistiques qui vous tombent sous la main, de la hauteur des immeubles aux statistiques des naissances, en passant par les longueurs des rivières. La loi de Benford marche plutôt pas mal :
- quand la série des valeurs s'étale sur plusieurs ordres de grandeurs: évitez donc les statistiques concernant l'âge ou le QI des personnes, ou encore le nombre d'enfants par couple par exemple;
- chaque fois que c'est une quantité mesurée: pas la peine d'essayer avec une liste de codes postaux ou de numéros de téléphone;
- lorsqu'il n'y a pas de valeur préférentielle: les listings de prix ne suivent pas très bien cette loi car on préfère toujours un prix de 9,99€ plutôt que de 10€ par exemple.


Pourquoi n'obtient-on pas une distribution uniforme?
Ce qui est étrange c'est qu'on s'attend à ce que tous les nombres d'une grande série soit répartis uniformément sur une échelle de 1 à 1000 par exemple, sans aucune préférence pour tel premier chiffre plutôt que tel autre. Et d'ailleurs, quand bien même il y aurait cette préférence, ne suffit-il pas de changer d'unité de mesure (en passant du dollar à l'euro ou au yen par exemple dans la mesure des PNB) pour qu'une telle distribution vole en éclats? Ah ah! Qu'est-ce qu'il disent là-dessus Benford et Newcomb?

C'est paradoxalement cette objection concernant l'unité de mesure qui permet de comprendre ce qui se passe. Supposons que notre série soit répartie uniformément le long de l'échelle de mesure, avec la même probabilité (11,1%) de commencer par un 1, par un 2, par un 3 etc. Que se passe-t-il si on prend pour la même série de nombre une unité de mesure deux fois plus petite?
Tous les nombres de la série qui commençaient par 1 dans l'unité initiale, vont désormais commencer soit par un 2, soit par un 3 dans la nouvelle unité;
ceux qui commençaient par un 2 dans l'ancienne unité vont désormais commencer par 4 ou 5 dans la nouvelle;
ceux qui commençaient par un 3 vont désormais commencer par 6 ou 7;
ceux qui commençaient par un 4 vont désormais commencer par 8 ou 9.
En revanche tous les nombres qui commençaient par 5, 6, 7, 8 ou 9 vont tous commencer par 1 dans la nouvelle unité:


En changeant d'unité, on passe d'une distribution uniforme des premiers chiffres à une distribution totalement déséquilibrée où les nouvelles mesures commencent par le chiffre 1 dans plus de la moitié des cas. Notre intuition était trompeuse: une distribution uniforme des premiers chiffres n'est absolument pas stable quand on change d'échelle. Si l'on cherche une distribution insensible à l'unité de mesure, il faut manifestement chercher autre chose...

Pourquoi une répartition logarithmique?
La question posée est donc bien: quelle serait une distribution des fréquences du premier chiffre qui serait insensible à n'importe quel changement d'unité?

Pour essayer d'y voir plus clair, utilisons la notation scientifique où 2349,45 s'écrit 2,34945 103. N'importe quel nombre X non nul de la série s'écrit ainsi X= x 10n, avec x € [1,10[ et n entier. Le premier chiffre à gauche du nombre X est la partie entière de x et la distribution recherchée est simplement la distribution des x sur [1,10[. Cette distribution ne doit pas changer si on multiplie x par une constante a.
Comme la distribution des x est la même que celle des ax, celle de Log(x) est la même que celle de Log(ax)=Log(a) + Log(x).

Si on pose y=Log(x), y€[0,1[. La distribution de y est invariante par addition de n'importe quelle constante. Ca marche par exemple si y est uniformément réparti sur [0,1[
Pour que la distribution de x soit invariante par changement d'échelle, ce ne sont pas les x qui doivent être uniformément répartis mais leurs logarithmes!


La probabilité pour que X commence par d (d étant un entier de 1 à 9) se calcule ainsi:
La loi de Benford est juste la conséquence de cette propriété! Dans ces séries, un nombre a autant de chance d'être entre 10 et 100 qu'entre 100 et 1000.

Pourquoi les petits nombres sont-ils privilégiés?
OK des logarithmes répartis uniformément signent donc une distribution insensible à l'unité de mesure. Mais en quoi cela favoriserait-il la fréquence des nombres commençant par un 1? Pourquoi les séries géométriques ont-elles toujours plus de nombres commençant par 1, quelque soit l'origine de la suite 10, 20, 30, 40 ou 90?


Pour piger le phénomène, il faut regarder à quoi ressemble une échelle logarithmique. Prenons une variable s'étalant sur plusieurs ordres de grandeur, et dessinons sa distribution (en ordonnées) sur une échelle logarithmique (en abscisses). Ça donne quelque chose comme ça:



La probabilité qu'un nombre commence par un 1 est proportionnelle à la somme des aires des bandes rouges, c'est à dire grosso modo à la largeur cumulée de ces bandes rouges. Idem pour le chiffre 2 et les bandes bleues.
Il suffit de regarder l'échelle logarithmique pour voir que les petits nombres ont la part belle, alors que les 7, 8 et 9 ont la portion congrue de l'échelle. C'est exactement cette inégalité de traitement qui se reflète dans la loi de Benford.
Bon mais ça sert à quoi?
La loi de Benford n'est pas seulement une curiosité scientifique, c'est aussi un redoutable détecteur de fraude fiscale. Oui vous avez bien lu, de fraude fiscal.

Quand on falsifie une déclaration fiscale, on a naturellement tendance à inventer des listes de nombres qui commencent aussi bien par 1, 2 ou 3 que par 5, 6 ou 7. Bref, ces listes violent la loi de Benford et le fisc américain utilise désormais ce nouvel outil pour chasser les fraudeurs. L'arme est redoutable, car fabriquer une liste qui suive correctement toutes les subtilités de la distribution de Benford n'est vraiment pas simple.
Globalement la loi de Benford est un remarquable détecteur de statistiques truquées ou incohérentes. On l'utilise pour vérifier que des simulations sont plausibles. On l'a même invoqué pour dénoncer la fraude électorale en Iran durant les dernières élections!

N'allez quand même pas prendre la loi de Benford pour le nouveau nombre d'or de la statistique moderne. D'abord elle ne s'applique pas à toutes les suites loin s'en faut: ça marche sur les mesures, sur la suite n! ou sur celle de Fibonacci, mais pas du tout sur celle des nombres premiers par exemple. Ensuite comme le dit Jean-Paul Delahaye, son caractère paradoxal est uniquement dû au fait que "les humains considèrent spontanément que tout ce qui est aléatoire est uniforme. Le premier chiffre significatif, évidemment obtenu par hasard, devrait alors suivre une loi uniforme. La loi de Benford peut donc être comprise comme un paradoxe psychologique (en non mathématique)..." On ne saurait mieux dire.


Sources:
Wikipedia (plus complet en anglais)
Loi de Benford et la détection des fraudes comptables
Gauvrit et Delahaye, Pourquoi la loi de Benford n'est pas mystérieuse (Mathematics and social science 2008) pour une démonstration rigoureuse de cette loi;
Les deux articles du blog d'Arthur Charpentier consacrés à ce sujet (ici et ), et auquel j'ai emprunté la photo de la calculatrice usée.

Billet connexe

Notre sens du Logarithme le billet précédent

mardi 8 décembre 2009

Notre sens du logarithme

1,2,3 nous irons au bois
C'est réconfortant de pouvoir égrener les quantités les unes après les autres avec la régularité d'un métronome. Qu'il s'agisse du nombre de champignons que l'on cueille, des kilos de châtaignes que l'on ramasse ou des kilomètres que l'on parcourt, on a toujours à disposition une échelle de mesure très simple, dont les barreaux sont tous espacés d'un même intervalle. On s'est souvent battu historiquement pour imposer son unité plutôt que celle du voisin, mais quel que soit l'étalon de mesure -mètre, toise ou pied et leurs dérivés- tout le monde l'a toujours utilisé de la même manière. Pour jauger une dimension, on compte simplement le nombre d'unités-étalons que l'objet à mesurer peut contenir. Quoi de plus plus naturel en somme que cette manière "linéaire" de mesurer le monde qui nous entoure en additionnant des unités-étalons? Et pourtant...

Do, ré, mi, cueillir des cerises

Si vous jouez une corde de guitare en la plaquant en son milieu, cette moitié de corde donne la même note -décalée d'une octave- que si vous grattez la corde entière à vide. Et si vous divisez encore par deux sa longueur, vous décalez le son encore d'une octave. La hauteur des notes se décale donc d'un intervalle constant (une octave) chaque fois qu'on divise la longueur de la corde par deux: pas très cohérent avec ce qu'on vient de raconter sur les mesures-étalons qui s'additionnent...

On peut voir les choses d'une autre manière. Un Do et un Ré consécutifs nous semblent séparés par le même intervalle de hauteur (ce qu'on appelle un ton) quel que soit l'octave dans laquelle ils sont joués. Pourtant si l'on mesure leurs fréquences, on s'aperçoit que l'intervalle qui les sépare n'est pas du tout constant: il double à chaque octave (données tirées du site ordiecole.com):

NOTE

Octave 1

Octave 2

Octave 3

Octave 4

Fréquence du Do

65Hz

131Hz

262Hz

523Hz

Fréquence du Ré
73Hz
147Hz
294Hz
587Hz
Différence entre le Do et le Ré 8Hz
16Hz
32Hz
64Hz

Bien que toutes séparées d'un ton, les notes de la gamme tonale (Do, Ré, Mi, Fa#, Sol# et La#) ne forment pas une échelle aux barreaux régulièrement espacés, mais une échelle bizarre dont les barreaux s'écartent de plus en plus à mesure qu'on monte en hauteur.



L'octave étant divisé en douze demi-tons, pour passer d'une note au demi-ton suivant, il faut multiplier la fréquence de la note par la racine douzième de 2 (environ 1.0595). Au douzième demi-ton, on a multiplié la fréquence par deux et nous voilà revenu à la note initiale, une octave plus haut. Autrement dit, nous sommes sensibles non pas à la différence absolue entre les fréquences de deux notes de musique, mais à leur rapport. En maths, la fonction qui convertit un rapport de deux nombres en une différence s'appelle un logarithme (noté Log avec Log(a/b)=Log(a)-Log(b) ). Notre perception musicale est donc logarithmique!

Pour savoir à quelle fonction logarithmique on a affaire, il suffit de connaître le rapport qui augmente le logarithme d'une unité.
Dans le cas de la musique, l'octave correspond à un doublement de fréquence. Notre échelle de perception musicale suit donc un logarithme en base 2. Regardez, ça marche:

NOTE

Octave 1

Octave 2

Octave 3

Octave 4

Fréquence du Do

65Hz

131Hz

262Hz

523Hz

Log2(fréquence)
6,0
7,0
8.0
9.0

boum, boum,BOUM dans mon panier neuf
Notre oreille est sensible de la même manière à l'intensité des bruits. Dans une chorale, on perçoit la même augmentation de volume sonore quand on passe de cinq à dix chanteurs que quand on passe de dix à vingt, ou de vingt à quarante chanteurs. C'est la raison pour laquelle la mesure du niveau sonore suit elle aussi une échelle logarithmique (les décibels, ou dB). La puissance acoustique de la source (qui correspond en gros au nombre de chanteurs dans la chorale) s'exprime en Watts:

Puissance (W) Niveau dB Exemple
100 000 000 200 Fusée Saturn V

Gros porteur quadriréacteurs
1 000 000 180
10 000 160
100 140 Grand orchestre
1 120 Marteau piqueur
0.01 100 Cri
0.000 1 80
0.000 001 60 Conversation
(source: Wikipedia)

10,11,12 elles seront toutes rouges

Notre ouïe n'est pas le seul sens rebelle à la simplicité de l'échelle arithmétique, loin s'en faut. La loi de Weber-Fechner découverte à la fin du XIXe (et sa version raffinée sous le nom de Loi de Steven) veut que "toute sensation varie comme le logarithme de l'excitation". Ce qui exprime simplement par le fait que l'on peut facilement faire la différence entre un poids de 100g et un poids de 200g, mais qu'il est très difficile de différencier 100kg et 100,1kg. En d'autres termes, notre échelle de sensation de poids est calée sur l'accroissement relatif d'un stimulus (ici un poids) et non pas sur sa variation absolue.

Ce principe général a été vérifié dans quantité de domaines. La sensibilité de notre œil varie par exemple avec le logarithme de la luminosité. C'est la raison pour laquelle, depuis l'Antiquité, on mesure la luminosité des étoiles sur une échelle logarithmique. Celle d'Hipparque allait de 1 (la plus lumineuse) à 6 (la moins lumineuse), cinq unités correspondant à une diminution d'un facteur 100 de la luminosité.
Nos yeux ne sont sensibles qu'au rapport entre ombres et lumière. Et heureusement! Car les rapports de luminosité d'une image ne dépendent pas trop des conditions de luminosité dans lesquelles on la regarde. Si notre perception des contrastes provenait des différences absolues de luminosité, nos impressions visuelles seraient chamboulées chaque fois que l'on modifie légèrement les conditions de luminosité. Un truc à devenir dingue...

13,14,15 nous n'en renverserons pas
Notre sensibilité aux tremblements de Terre suit également une loi logarithmique: dans la fameuse échelle de Richter un accroissement d'une unité de magnitude correspond à une multiplication par 30 de l'énergie du séisme et par 10 de l'amplitude de son mouvement. Idem pour la sensibilité à la pression subie ou à la sensation de vitesse. Voilà ce que donnerait le diagramme des perceptions physiques (en ordonnées avec une échelle logarithmique de 1 à 100) en fonction des stimulus physiques (en abscisses sur une échelle logarithmique de 10 à 107):
Curves for various modalities

(source: ici)

Il n'y a guère que notre perception de la souffrance qui ne suive pas très bien cette loi logarithmique, au grand dam de Jack Bauer! Quand il se fait torturer par d'affreux méchants, sa douleur augmente quasi proportionnellement aux sévices qu'on lui inflige.

On peut même se demander si notre perception des durées ne correspond pas elle aussi à une échelle logarithmique -ce qui expliquerait pourquoi on a le sentiment que le temps présent s'écoule plus vite que dans le passé et que jamais le temps ne s'est écoulé aussi vite qu'en ce moment.

Pour en revenir aux nombres
Après tout ça, on n'est pas trop surpris d'apprendre que notre sens "naturel" des nombres suit lui aussi une loi logarithmique, comme on l'a déjà raconté dans ce billet. Si l'on demande à des indiens amazoniens Mundurucus -qui n'ont pas développé de système arithmétique- de déterminer quelle est la quantité intermédiaire entre un objet et 9 objets, ils choisissent la quantité...3.
La réponse tombe maintenant sous le sens: 1 x 3 = 3 et 3 x 3 = 9. 3 est donc la moyenne géométrique entre 1 et 9. Autrement dit, Log(3)=[Log(9)+Log(1)]/2

Il semble bien que les enfants naissent naturellement dotés du même système logarithmique pour appréhender les quantités. Ils sont sensibles aux proportions des nombres et non pas à leur différence. Le système arithmétique qui met au même niveau la différence entre 1 et 2 que la différence entre 21 et 22 est donc très contre-intuitif. Pas étonnant qu'ils mettent du temps à savoir compter: il leur faut d'abord désapprendre à compter logarithmiquement. Peut-être qu'on devrait commencer par leur apprendre la multiplication?

Une histoire d'échelles en perspective
L'échelle arithmétique linéaire qui nous semblait si naturelle s'avère finalement être une construction très artificielle. Les échelles logarithmiques sur lesquelles nos sens sont réglés nous rendent davantage sensibles aux proportions qu'aux différences absolues entre les grandeurs physiques. Regardez le diagramme ci-dessus: la représentation logarithmique est certes moins précise à grande échelle, mais en contrepartie elle nous permet d'appréhender par la pensée un spectre de dimensions bien plus étendu qu'une échelle arithmétique.
Pas besoin de diagramme pour comprendre pourquoi: imaginez une échelle immense. Pas une échelle imaginaire, une vraie échelle avec des barreaux en bois ou en métal. Si vous la regardez bien en face, de sorte que tous les barreaux soient équidistants, vous avez devant vous une échelle arithmétique classique. Et vous remarquez que votre champ de vision n'embrasse qu'un tout petit morceau de l'échelle.
(source Flickr)
Pour pouvoir visualiser toute la longueur de l'échelle, il faut la regarder d'en bas:

(source: glitchbucket.com)
Plus les barreaux sont loin, plus ils semblent rapprochés: grâce à la perspective, notre échelle est physiquement devenue une "échelle logarithmique" qui nous permet de voir beaucoup plus loin. Le logarithme n'est finalement que le nom mathématique donné à la perspective, qui met tous les ordres de grandeur à notre portée, de l'infiniment petit à l'infiniment grand.

Sources:
Le site de l'Université d'Uppsala.
L'article de Wikipedia (plus complet en anglais qu'en français).

Billets connexes:
Les neurones des nombres qui détaille notre sens inné des quantités.

mardi 1 décembre 2009

L'évolution c'est de la dynamique!

Le Darwinisme classique explique très bien comment, grâce à la sélection naturelle ou sexuelle, une variation a pu se conserver chez une espèce. Typiquement, si les chauve-souris ont des ailes, c'est parce que ces ailes leur ont permis à un moment donné, de voler efficacement, donc de survivre en plus grande proportion que celles qui étaient moins bien loties. Mais il ne dit rien sur l'origine des premières ailes: qu'est-ce qui a rendu possible l'apparition de cette forme très particulière de membres? A cette question de l'origine des changements morphologiques, les mutations génétiques aléatoires (et dans une moindre mesure l'épigénétique) sont aujourd'hui la seule réponse admise par les biologistes, surtout depuis qu'on a réussi à faire pousser une antenne supplémentaire dans le dos d'une mouche rien qu'en lui changeant un gène.

Dans son dernier bouquin, "La Chose Humaine ou la physique des origines", Vincent Fleury propose une explication alternative à cette vision purement génétique. Ce physicien tente d'expliquer les formes du monde animal par la simple application des lois de la mécanique durant le développement de l'embryon. Il poursuit ainsi l'ambition de D'Arcy Thompson qui s'émerveillait de la manière dont on passe très simplement de la forme d'une espèce à l'autre, en jouant sur une simple transformation (transformation affine pour les matheux):



La physique de la matière molle appliquée
...

... à la tête!
Chez Fleury, toutes les formes animales tirent leur origine des déformations que subit l'embryon, "matière molle" soumise à un formidable jeu de tensions et de contraintes mécaniques lors de sa croissance. Il explique par exemple la forme du crâne des mammifères par le simple effet du gonflement de la cavité crânienne (sous l'effet de la pression interne) contrainte d'un côté par l'os de l'orbite et de l'autre par ceux de l'oreille interne. Sous l'effet de ces deux contraintes, plus le crâne gonfle plus la mâchoire rapetisse et "rentre" sous la verticale de l'orbite. On obtient ainsi toute une gamme de crânes dont le développement est inversement proportionnel à celui de la mâchoire. Dans cette galerie, l'homme moderne (et le bébé chimpanzé!) occupe une position extrême avec un cerveau très développé et une mâchoire ridiculement petite, garnie de toutes petits dents par rapport à sa taille (toutes les illustrations sont tirées de son livre, sauf mention contraire):


... et au jambes!
La tentative d'explication la plus osée -et aussi la plus ancienne, Tom Roud avait déjà écrit un billet à ce sujet- concerne l'émergence des quatre membres chez les tétrapodes. Pour comprendre l'idée, il suffit de regarder la forme d'une bouteille de Mir liquide, compressée au milieu. Ou un morceau de chambre à air qu'on étire au deux bouts.


Les excroissances sur les côtés sont les germes des membres, lorsque l'embryon subit très tôt dans son développement à la fois une élongation et une compression en son centre.

... et aux mains!
Plus la contrainte latérale (celle qui s'exerce sur le nombril de l'embryon) est forte, plus les membres seront grands et inversement. Ce qui expliquerait pourquoi les animaux ayant des corps très allongés, avec un grand nombre de vertèbres (les lézards par exemple) ont des pattes plus petites, voire plus de pattes du tout pour les serpents. Ces considérations mécaniques (rhéologiques pourrait-on dire) expliquerait aussi la forme des doigts, nés au contact des vertèbres puis emportés latéralement par un flux de matière molle qui forme le futur membre:



... et au dos!
La forme du dos et des fesses chez les primates serait aussi le résultat automatique d'une compression latérale et d'une extension de la face dorsale de l'embryon:

... alouette!
Les déformations mécaniques des tissus influent à la fois sur les mouvements des cellules et sur leur croissance (de la même manière que la peau du ventre des femmes enceintes se distend en réponse à la tension qu'elle subit). Dans le cas du tissu embryonnaire en pleine croissance, les champs de tension et de compression qu'il subit influencent à la fois la concentration des cellules embryonnaires et la manière dont elles prolifèrent (pour soulager la contrainte), se différencient et disparaissent [1]:
- L'absence prolongée de sollicitation mécanique entraine la mort des cellules ce qui expliquerait par exemple la disparition de la membrane qui "palme" les doigts des mammifères.
- Ces mécanismes biomécaniques expliqueraient la prolifération des alvéoles dans les poumons, ou l'apparition et la forme des réseaux sanguins (j'y reviendrai dans un futur billet).
- Ils permettraient de comprendre l'incroyable imbrication des os entre eux:
"Les articulations, quand elles apparaissent sont complètement plates. Des travaux ont montré qu'il suffit de pousser l'une contre l'autre des articulations plates, pour qu'elles deviennent arrondies, et merveilleusement emboîtées, comme on les observe (col du fémur, genou, etc.)" [2].
- Ils expliqueraient enfin l'incroyable enchevêtrement des tissus autour de notre squelette:
Lorsque le plan d'ensemble du corps embryonnaire est en place mais n'est encore qu'une "pâte molle" certaines cellules, sous l'effet de ces contraintes mécaniques, se différencient en muscles, d'autres en nerfs ou en ligaments et certaines en cartilage avant de s'ossifier en dernier. L'origine commune de tous ces tissus s'illustre spectaculairement dans certaines pathologies où cartilages, ligaments ou même des muscles se calcifient et se transforment en os.
"Toute cette complexité, écrit Fleury, n'est qu'une cascade, un toboggan géant, qui s'enchaine simplement à partir de disques de tissu feuilleté; cela n'a rien de calculé, cela n'a rien de compliqué non plus (et des travaux récents montrent que les nerts suvient également les champrs de force dasn ces "mèches" de matière vivante.)" [2]


Trois conséquences intéressantes
La thèse m'a paradoxalement à la fois enthousiasmé et déçu.

Ce qui m'a enthousiasmé dans ce bouquin, c'est la proposition (implicite) de Fleury, de rechercher davantage les contraintes mécaniques qui restreignent le champ des variations morphologiques possibles. On "sent bien", en regardant autour de soi que l'évolution n'a pas à sa disposition une infinité de modèles morphologiques possibles. Comme le dit Fleury, le vol battu est vraiment une piètre solution pour s'élever dans les airs. Seulement voilà: au rayon "vol" il n'y a que cette morphologie qui soit disponible dans le vivant. Les contraintes de la physique du développement constitue une élégante explication à l'énigme de la convergence évolutive. Si les marsupiaux ressemblent tellement aux mammifères, si les épines de l'echnidé sont aussi semblables à celles du Porc epic et du hérisson, c'est peut-être tout simplement qu'il n'y a pas 36 solutions possibles pour faire évoluer un membre, une morphologie ou une excroissance épidermique. Au fil des évolutions, on retrouve forcément toujours les mêmes formes, de même qu'un ivrogne qui marche aléatoirement dans un couloir fermé aux deux bouts passe et repasse toujours aux mêmes endroits. L''évolution peut ainsi combiner à la fois une part d'aléatoire (les mutations) et de déterminisme (les contraintes physiques du développement).

La seconde chose qui me séduit dans la démarche de Fleury, c'est qu'elle explique -mieux: elle prédit!- l'analogie entre les figures de Chladni (qu'on a décrites ici) avec certaines formes vivantes! Ces figures sont celles que l'on obtient en faisant fait vibrer une goutte de liquide. En faisant varier la fréquence des vibrations on découvre comme par magie toute une galerie de formes vivantes et notamment cette carapace de tortue plus vraie que nature [source ici]. Le phénomène m'a bluffé quand je l'ai découvert, car je n'ai jamais trouvé la moindre explication à ces correspondances étranges, sauf les habituelles élucubrations ésotériques.
A partir du moment où l'on considère l'embryon comme une espèce de gelée soumise -à cause de sa propre croissance- à une cascade de tensions mécaniques, ces analogies perdent tout leur mystère puisque c'est le même phénomène physique dans les deux cas! De façon générale la biomécanique explique et prédit une foule de ressemblances entre les formes du monde animal et celles du monde minéral ou végétal.

Troisième motif d'intérêt pour eette théorie: chaque fois qu'une forme particulière est imposée principalement par des lois de la mécanique, on peut supposer qu'elle dépend finalement dans une moindre mesure de la chimie des gènes. Voilà qui permettrait de comprendre pourquoi les plantes présentent autant de variations génétiques (plus de 45 génotypes différents trouvés sur treize figuiers étrangleurs) sans que ça les affecte le moins du monde. Autrement dit, le déterminisme mécanique induirait une certaine liberté dans la nature des gènes formateurs. Ce déterminisme pourrait aussi expliquer que l'on découvre régulièrement que tel gène tiré d'un petit ver d'un millimètre comme C Elegans peut remplacer au pied levé son homologue chez une souris alors que les deux espèces sont génétiquement distants de plusieurs centaines de millions d'années. La stabilité des lois mécaniques du développement serait-elle un contrepoint essentiel de la variabilité génétique? La suggestion est pour le moins originale.

Ce qui m'a déçu
L'idée de Fleury m'a semblé lumineuse... et pourtant le bouquin m'a un peu déçu. D'abord je suis resté sur ma faim pour la démonstration détaillée des phénomènes physiques décrits. Pour le béotien, les explications sont un peu courtes et les dessins pas toujours lisibles (même ceux du site me laissent parfois perplexes). Et pour l'amateur s'intéressant au sujet, à peine deux ou trois références bibliographiques appuyant les thèses avancées. Je n'ai trouvé aucune référence précise à des simulations numériques ou expérimentales, montrant -comme l'ont fait Couder et Douady pour la forme des spirales de tournesol- qu'on peut recréer fidèlement une forme anatomique avec de la matière inerte, ferrofluides ou autres. J'ai eu l'impression d'en rester au niveau de l'intuition, mais peut-être est-ce dû au parti-pris de vulgarisation du livre?

Une deuxième chose m'a gêné: Fleury réduit le rôle des gènes à de simples paramètres ajustant la forme finale (longueur de membre, courbure d'un organe etc) sans en changer la géométrie générale. Les gènes sont au système embryonnaire ce que la vitesse initiale est à la trajectoire d'un boulet de canon: un paramètre qui détermine le point d'impact mais ne change pas la forme parabolique de la trajectoire. Et il évacue les conclusions montrant l'influence de certains gènes Hox sur la croissance de membres supplémentaires: "Ce n'est pas, objecte-t-il, parce que je suis capable de produire une patte, mettons, sur le dos, en injectant un produit de force à cet endroit, que la nature serait capable de le faire." L'objection me semble un peu courte: si l'on admet l'origine purement mécanique des membres, on ne devrait en aucun cas pouvoir faire pousser quoique ce soit avec de simples produits chimiques en l'absence de cette fameuse dynamique.

Une théorie stimulante

Même si les démonstrations pourraient être plus convaincantes et que la conclusion me paraît un peu trop radicale à notre stade de connaissance, le bouquin de Fleury a le mérite de proposer une vision renouvelée des mécanismes de l'évolution alliant déterminisme, matérialisme et auto-organisation. Sa thèse me semble être un bon point de départ pour un programme de recherche qui permettrait à la théorie de l'évolution de marcher enfin sur deux jambes: la génétique et la biomécanique.


Pourquoi est-ce important? La théorie classique de l'évolution postule le hasard comme unique source de variabilité naturelle des espèces, et ne s'intéresse pas trop aux contraintes bordant ce hasard. Du coup, lorsqu'elle tente d'expliquer les formes parfaites du requin ou celle du guépard, elle sous-entend (enfin, c'est ce que je comprends) que ces formes sont celles qui ont eu un avantage parmi des milliers, voire des millions d'autres formes moins parfaites, moins adaptées qui sont toutes apparues au hasard. Cette explication me fait penser à l'histoire des Shadoks qui voulaient partir sur la Terre. Les Shadoks s'étaient mis à fabriquer des fusées, mais comme chacun sait, ils ne sont pas doués. Lorsqu'ils apprirent qu'avec leur manière de s'y prendre, ils avaient une chance sur un million de faire décoller leur fusée, ils ne se découragèrent pas et se mirent à fabriquer à toute vitesse 999 999 fusées pour pouvoir enfin décoller.

Si la nature s'y prenait comme les Shadoks, nous devrions être cernés d'animaux mutants franchement mal fichus, équivalents des fusées sans queue ni tête (c'est le cas de le dire) des Shadoks. Mais on a beau chercher autour de nous et dans les fossiles, tous les animaux qui arrivent à l'âge adulte paraissent toujours assez bien adaptés à leur environnement y compris dans les temps géologiques les plus reculés. Les lois -et les contraintes- de la physique sont plutôt de bonnes candidates pour résoudre ce paradoxe. Après tout le principe de moindre action ne fait-il pas des miracles dans l'univers non-vivant?

PS. du 3/12/2009: l' article de Fleury, paru dans The European Physical Journal en juin dernier et qui reprend en gros les mêmes thèses que son livre, a suscité un violent rejet de la part de certains biologistes et de spécialistes en embryologie. Dire que les arguments sur les "écoulements hyperboliques" dans les tissus embryonnaires ne les ont pas du tout convaincu est un doux euphémisme (voir ici et par exemple).

[1] J'ai pris la liberté d'ajouter ce lien entre contrainte mécanique et mort des cellules que Jean-Claude Ameisen décrit très bien dans sa "Sculpture du Vivant".
[2] Voilà typiquement le genre d'explication de Fleury qui manque de référence précise.

Billets connexes (autour de l'auto-organisation dans le monde du vivant)
L'onde et la tortue montre les incroyables figures que l'on obtient en faisant vibrer une goutte d'eau à différentes fréquences.
Billet classé (puissance) X: qui explique pourquoi on retrouve toujours les nombres de Fibonacci dans les spirales des tournesols et des pommes de pin.
Céladon la clé de la craquelure, qui montre pourquoi les nervures des feuilles ressemblent au craquelures qu'on observe dans la céramique.

jeudi 26 novembre 2009

Choeur de bavette

Dans le dessin animé "La véritable histoire du petit chaperon rouge", un bouc déjanté, à qui une sorcière a jeté un sort, ne peut s'exprimer qu'en chantant, ce qui rend tout le monde fou autour de lui.


Derrière ce gag se pose une drôle de question: le chant est-il une forme primitive de la parole? Après tout le chant est la forme d'expression vocale la plus sophistiquée que l'on connaisse dans le monde animal et ses points communs avec notre langage sont nombreux. A l'image de nos dialectes, les chants d'une même espèce varient d'une région à l'autre. Le mode d'apprentissage du chant chez les oiseaux est très semblable à celui du langage chez l'enfant. Et du côté d'homo sapiens sapiens, langage parlé et langage chanté sont tous deux des traits culturels universels, qu'on retrouve chez tous les peuples du monde sans exception.
Isabelle Peretz, la spécialiste québécoise en la matière, a récemment fait le bilan sur ces liens entre chant et langage dans une conférence au Collège de France et balaie au passage quelques idées reçues...

Combien d'Assurancetourix?

Mais au fait, chanter est-il vraiment une capacité "universelle" chez l'homme? On connaît tous des gens qui chantent comme des casseroles, mais combien sont-ils? Pour le savoir, on a étudié comment une centaine de Québécois, choisis au hasard dans un jardin public, s'en sortent avec une chansonnette bien connue (au Québec, je précise). Normalement ça ressemble à ça:

Comme on peut s'y attendre, tout le monde ne chante pas juste. Parfois ça donne ça:

En analysant la manière dont chantent les moins doués, on se rend compte qu'ils respectent assez bien le rythme du chant et le "contour" mélodique (leur voix "monte" et "descend" quand il faut). Par contre, nos Assurancetourix se trompent parfois de hauteur de note. Et surtout ils chantent trop vite. Voilà le point-clé. Si on les force à chanter plus lentement, si on leur impose un tempo correct, leur chant "s'ajuste" automatiquement. Le résultat est bien meilleur, écoutez celle-ci par exemple:

Ca va mieux non? Le chant semble bien une faculté universelle comme la parole: il faut juste expliquer à Cétautomatix que le pauvre Assurancetourix a besoin d'un petit coup de pouce et non pas d'un gros coup de maillet. A moins qu'il ne fasse partie des 10 à 15% de la population atteinte d'amusie congénitale. Ces malheureux parlent parfaitement mais sont incapables de chanter juste.
Soit ils parlent alors qu'ils sont persuadés de chanter, ce qui donne ça:

Soit ils se trompent complètement dans le "contour" musical, montant quand il faut descendre de tonalité et inversement (attention vos oreilles!):


Là où les choses se compliquent, c'est que ces "casseroles congénitales" ne sont pas forcément de mauvais musiciens. La capacité de chanter juste n'a en fait rien à voir avec "l'oreille musicale". On a même trouvé un musicien professionnel doué d'une oreille absolue (ce qui est très rare) qui chante totalement faux! Ecoutez-le chanter "joyeux anniversaire" en lisant une partition...


Le tempo est parfait mais la mélodie est affreusement massacrée. Mais le plus ahurissant chez ce musicien, c'est que si on lui demande de ne pas chanter les paroles et de juste fredonner les notes, il chante parfaitement juste!


Double dissociation
Les amusiques peuvent parler juste et chanter faux. Et chanter faux mais fredonner juste. Mais le sortilège du bouc est-il possible? Peut-on chanter correctement alors qu'on ne peut pas parler? La légende urbaine [1] veut par exemple que les bègues s'expriment plus facilement lorsqu'ils chantent. C'est sans doute possible si l'origine du bégaiement est psychologique. Et tout comme le musicien-casserole de tout à l'heure, les patients aphasiques (ayant des difficultés congénitales à parler) fredonnent sans problème l'air sans les paroles, ce qui confirme que le sens musical est dissocié de la parole parlée ou chantée.

Mais en général, chanter n'aide pas à mieux parler. Ecoutez ce patient bègue essayer de chanter "Frère Jacques":

La plupart des patients aphasiques ont des difficultés à chanter. Le chant s'appuie manifestement sur des facultés cérébrales communes avec le langage, ce qui l'empêche de suppléer à une parole défaillante. Mais rien n'est simple quand on étudie le chant. En stimulant localement certaines zones du crâne par stimulation magnétique (ça fait pas mal, rassurez-vous) on parvient bizarrement à paralyser la parole de quelqu'un sans affecter sa capacité de chanter!

On est donc bien obligé d'admettre qu'entre le langage et le chant, il existe dans le cerveau à la fois des aires communes et des zones spécifiques.

Faut-il apprendre en chantant?
Reste l'idée que chez les personnes saines, chanter faciliterait la mémorisation d'un texte, soit grâce à la mélodie, soit parce qu'on chante plus lentement qu'on ne parle. Comme on est maintenant vacciné contre les idées reçues en matière de chant, on a aussi passé cette hypothèse au banc de test et demandé à des étudiants d'apprendre une strophe, soit sous forme chantée, soit sous forme de texte, soit sous forme de paroles sur fond musical. Pour Isabelle Peretz, le résultat est sans appel: les étudiants mémorisent tous plus facilement un texte qu'une chanson. Et un fond sonore musical nuit à la mémorisation plutôt qu'il ne l'aide, que l'on soit par ailleurs musicien ou pas. Le chant semble bien être une tâche double, qui exige plus d'efforts pour mémoriser et synchroniser le texte et la mélodie.

Mais alors, comment expliquer que l'on ait tous retenu le "
rosa rosa rosam"de Jacques Brel, bien plus que les déclinaisons de "dominus, dominus, domine"? Il semble que les souvenirs de chant soient plus tenaces parce qu'ils sont stockés différemment des souvenirs de texte purs. Autrement dit, ce serait plus dur de mémoriser une chanson, mais on la retiendrait plus longtemps...

Chanter: Pourquoi faire?
Si le chant n'est pas l'ancêtre de la parole, s'il ne fait que compliquer la tâche du langage, comment expliquer qu'il soit aussi universel? Pour le savoir, il faut peut-être revenir à nos chanteurs désaccordés. Tous sans exception chantent plus juste en chœur qu' a capella. Y compris les patients aphasiques et amusiques, même si le résultat n'est évidemment pas parfait. Ecoutez le patient bègue de tout à l'heure lorsqu'il est accompagné:


Ce n'est pas la panacée mais il y a du progrès. Avez-vous noté le plaisir qu'il prend à chanter à deux? C'est peut-être dans ce plaisir, plutôt que dans un hypothétique lien évolutif entre chant et langage qu'il faut chercher l'origine de l'universalité du chant dans les cultures humaines. L'hypothèse serait que, comme toutes les synchronisations physiologiques dont on a parlé dans différents billets (la danse, le rire, les applaudissements...), le chant en chœur déclenche spontanément une émotion très forte, une sensation de communion entre les membres du groupe. Et, cette capacité à "créer du lien" entre individus a été systématiquement encouragée par toutes les cultures du monde. Le chant au service de la cohésion sociale en quelque sorte:


On est d'ailleurs en train de trouver au chant les mêmes bienfaits physiologiques que le rire. Comme dans le cas de cet homme de 82 ans déprimé et atteint de la maladie d'Alzheimer, qui a retrouvé une socialité normale depuis qu'il chante dans une chorale. L'imagerie médicale dévoile d'ailleurs une activation massive de très nombreuses zones cérébrales, y compris motrices, lorsqu'on chante en choeur: une sorte de
Powerplate du cerveau en quelque sorte!

[1] Pas que la légende urbaine d'ailleurs: le plus célèbre patient de Paul Broca (qu'on surnommait "Tan" car c'était le seul mot qu'il pouvait prononcer et qu'il répétait sans arrêt) était réputé pouvoir chanter la Marseillaise sans problème. Les études cliniques modernes n'ont jamais retrouvé de cas semblables

Sources:
Isabel Peretz, Music, language and modularity in action, 2008
La conférence du Collège de France d'Isabelle Peretz

Billets connexes
Ah rats qui rient... sur le rire
Les neurones de la musique sur notre sens - apparemment inné- de la mélodie

dimanche 15 novembre 2009

La boucle impossible

Prenez un Bic Cristal (n'importe quel stylo à bouchon fait aussi l'affaire) et coincez la boucle d'un fil à son extrémité, de telle sorte que la boucle soit plus petite que le stylo. C'est plus difficile à expliquer qu'à montrer:



Le stylo ne passe pas dans la boucle. Qu'à cela ne tienne: vous devez quand même l'y faire passer pour l'accrocher à la boutonnière de votre veste.
Comme ça:

Vous avez bien lu: vous devez fixer le stylo à votre boutonnière en le faisant passer dans une boucle trop petite pour lui. Sans décrocher la boucle et sans forcer, bien sûr.

Allez, cherchez un peu avant de regarder la solution...



C'est tout bête, mais je trouve ce petit tour de passe-passe topologique fascinant.

Ca y est, vous y êtes arrivé vous aussi? Maintenant essayez de le défaire sans couper le fil. Bon courage!

jeudi 12 novembre 2009

Les absences sont toujours raison

La liste dont j'oublie le nom
Une amie appelle ça la liste Nougaro: l'ensemble de tous les noms propres et (très) communs dont on perd la mémoire pile au moment où l'on en a besoin. Avez-vous remarqué comme ce sont toujours les mêmes noms qui se cachent au bout de votre langue, alors qu'on sait très bien de qui l'on veut parler? Pour ce qui me concerne, d'ailleurs, le nom de ma liste est mal choisi car depuis qu'on a rigolé sur ce concept, je n'ai plus de problème pour me souvenir du nom de Claude Nougaro. Pour moi, ça devrait être plutôt la liste de... de... Arf! Mais si, vous savez, cette sublime actrice blonde, l'ex de Tom Cruise, qui joue dans Australia et fait une pub pour Schweppes... Bon je vais continuer d'appeler ça la liste Nougaro sinon ce billet va vite devenir prise de tête. Je vous préviens tout de suite, je n'ai pas d'explication définitive à l'existence de ce genre de liste, mais l'exploration des hypothèses qu'on peut faire à leur sujet est l'occasion de démonter certaines idées reçues à propos des mécanismes de l'oubli. En particulier les récentes découvertes en neurologie remettent en cause l'explication freudienne d'un refoulement actif de l'inconscient et suggèrent que paradoxalement on peut "oublier volontairement" de manière très efficace.

L'inconscient, usual suspect
Qui sait? Peut-être qu'une une petite Nicole m'a volé mon doudou en maternelle et que depuis cet épisode, mon inconscient fait activement barrage chaque fois que je tente d'évoquer le nom de mon actrice fétiche? Cette interprétation d'inspiration psychanalytique supposerait que mon inconscient sache contrôler le rappel de mes souvenirs de manière à protéger mon "Moi". Est-ce plausible?
Les expérimentations montrent qu'effectivement un traitement non conscient de l'information peut influencer nos comportements. En revanche on constate que cette influence s'exerce toujours dans le sens d'un traitement mécanique, stéréotypé. Pour comprendre ce que j'entends par là, essayez de nommer à haute voix la couleur des mots suivants:
vert
bleu
orange

Si vous n'êtes pas né sur la planète Zorglub, il vous a été difficile de nommer les couleurs des mots (c'est ça le comportement contrôlé) sans lire les mots (le comportement réflexe). Nous sommes quasiment en permanence en mode "pilotage automatique", réagissant machinalement à notre environnement. Et tant mieux d'ailleurs! Cela permet de réagir vite et de concentrer son attention sur les rares moments où il ne faut surtout pas répondre de cette façon routinière! Comme aime à le dire Alain Berthoz du Collège de France, l'intelligence c'est la capacité d'inhiber opportunément une réponse automatique. Notre intelligence est un mélange de 99% d'automatismes et de 1% d'inhibition.
Or quel que soit le dispositif expérimental utilisé -que ce soit en manipulant des signaux subliminaux, en distrayant l'attention des participants ou en leur demandant de répondre très vite sans réfléchir- l'influence de l'inconscient se range toujours du côté des réponses routinières et mécaniques. En particulier, on peut montrer qu'on ne parvient jamais à traiter de manière sophistiquée une information non consciente (je vous raconte ça en commentaire).

Peut-on inhiber ce dont on n'a pas conscience?
Revenons à notre problème de trous de mémoire. D'après ce qu'on vient de dire sur le mode d'action automatique de l'inconscient, l'hypothèse d'un refoulement non-conscient supposerait que l'on a tendance spontanément à ne pas associer un nom à une image connue. Le refoulement inconscient pourrait alors accentuer cette tendance naturelle à l'oubli.
Mais, tiens tiens, l'expérience montre exactement l'inverse: c'est le rappel à la conscience d'une information qui est un acte-réflexe, pas son oubli. Le psychologue américain Larry Jacoby a montré expérimentalement que lorsque nous percevons inconsciemment une information, nous avons spontanément tendance à l'utiliser, mais nous sommes incapables de l'exclure de notre esprit:


On ne peut inhiber une association mentale qu'à condition d'en avoir pris pleinement conscience. Si une information n'est pas consciente, on a tendance à la rapporter plus souvent que le hasard, quelque soit l'instruction reçue. Autrement dit, c'est le rappel à l'esprit qui est un processus inconscient, mécanique. Le refoulement d'une information est l'apanage de la conscience uniquement. L'hypothèse d'un refoulement inconscient d'une association entre un mot et une image pour expliquer notre "liste Nougaro" ne semble donc pas très vraisemblable.

Le neurologue Lionel Naccache généralise ce résultat dans son "Nouvel Inconscient": "Le déclenchement de ces mécanismes de contrôle cognitif qui gouvernent les processus de rejet actif d'une représentation, est nécessairement et exclusivement conscient. Le problème avec le concept de refoulement freudien, c'est qu'il est explicitement défini comme un processus inconscient qui opérerait sur des représentations inconscientes". Et il conclut: " L'idée d'un refoulement au sens freudien semble en contradiction totale avec les données expérimentales et les modèles théoriques les plus pertinents." On ne peut être plus clair...

Rappelez-moi souvent d'oublier tout ça!
Puisqu'on peut écarter l'hypothèse d'une inhibition inconscient, intéressons-nous d'un peu plus près au refoulement volontaire. Une étude en 2004 a montré qu'inhiber sciemment une association mentale est non seulement possible mais permet également de l'oublier beaucoup plus vite que ne le ferait la simple érosion du temps. On a demandé à des volontaires de mémoriser certaines associations arbitraires de mots (par exemple valise-drapeau). Puis pendant trente minutes on leur a présenté des mots-indices ("valise") de la liste apprise en les entrainant:
- sur un premier tiers des associations, à se rappeler le second mot lorsqu'on leur présentait le premier (renforcement du souvenir);
- sur un second tiers, à éviter d'associer le second mot au premier (refoulement du souvenir).
On ne leur a pas présenté le troisième tiers des associations, pour avoir une liste de contrôle.

Quelques jours plus tard on demanda aux participants de se rappeler toutes les associations initiales (y compris celles qui avaient été réprimées) en les récompensant pour chaque association rappelée afin d'éviter la triche. Par rapport au troisième groupe d'associations servant de contrôle, les volontaires se souvenaient beaucoup mieux des associations renforcées. Jusque là tout est logique. Ce qui l'est moins c'est qu'ils se souvenaient moins bien des associations volontairement réprimées que de celles n'ayant fait l'objet d'aucun rappel. Comme l'explique Michael Anderson, le psychologue de Stanford qui a mené ces expériences, "le souvenir des gens s'efface à mesure qu'ils s'efforcent de ne plus y penser. Si vous rappelez régulièrement un souvenir à une personne qui s'efforce de ne pas y penser parce qu'elle ne le souhaite pas, son souvenir s'effacera plus efficacement que si elle n'était exposée à aucun rappel de ce souvenir indésirable". C'est contre-intuitif, évidemment, car si vous demandez à quelqu'un de ne surtout pas penser à un "éléphant-chapeau", il va immédiatement avoir un flash de cette image dans sa tête. Est-ce à dire qu'après un chagrin d'amour ou le décès d'un proche, il est contreproductif de se débarrasser de tout ce qui rappelle trop fortement notre douleur?

Oublier, une marque d'intelligence?
L'imagerie cérébrale de ces mécanismes "d'oubli volontaire" a révélé depuis que sont alors à l'œuvre les mêmes régions du cortex préfontal qui inhibent nos mouvements musculaires réflexes, lorsque par exemple dans la rue on retient son pied juste avant de parfumer sa semelle... Eviter de se rappeler serait donc encore un mécanisme d'inhibition volontaire, l'acte d'intelligence par excellence, cher à Alain Berthoz! Mais en quoi oublier quelque chose est-il intelligent? L'écrivain argentin Jorge Luis Borges avait imaginé une piste de réponse dans sa celèbre nouvelle "Funes ou la mémoire": à la suite d'un accident, le personnage principal de l'histoire perd la faculté d'oublier. Il se souvient d'absolument tout dans ses moindres détails. "Il connaissait les formes des nuages astraux de l'aube du 30 avril 1882 et pouvait les comparer au souvenir des marbrures d'un livre en papier espagnol qu'il n'avait regardé qu'une fois et aux lignes de l'écume soulevée par une rame sur le le Rio Negro la veillle du combat du Quebracho." La vie de Funes est un enfer et Borgès conclut "Je soupçonne cependant qu'il n'était pas très capable de penser. Penser c'est oublier des différences, c'est généraliser, abstraire. Dans le monde surchargé de Funes il n'y avait que des détails, presque immédiats."

L'imagerie cérébrale semble donner raison à l'intuition de Borges: lorsque plusieurs souvenirs sont en concurrence, par exemple plusieurs paires de mots ayant le même premier mot indice (éléphant-rose, éléphant-chapeau, éléphant-cahier etc) l'imagerie cérébrale montre qu'à mesure qu'une paire de mots est privilégiée, l'effort fourni par le cerveau pour retrouver la bonne association diminue. A chaque fois qu'une association est invoquée, elle est renforcée dans notre mémoire et les associations concurrentes sont affaiblies. Ce jeu dynamique de renforcements et d'affaiblissements permet d'adapter notre circuiterie neuronale de façon à accélérer notre réponse à la prochaine sollicitation. L'oubli est en quelque sorte une manière de ne pas polluer notre cortex préfrontal avec des associations non pertinentes. On peut ainsi automatiser les réponses et concentrer notre attention sur les sollicitations qui en valent vraiment la peine. Des exemples?
- Chaque fois que l'on change de mot de passe ou le code de votre carte de crédit, il est essentiel d'oublier activement l'ancien code si l'on veut éviter le blanc devant le distributeur de billets.
- Le phénomène est bien connu de ceux qui apprennent une langue étrangère. Le même professeur Anderson a montré qu'après une immersion linguistique prolongée, des personnes mettaient plus de temps à nommer une image dans leur langue natale, car apprendre une langue suppose d'inhiber temporairement sa langue natale.

Chassez vos associations parasites!
Bref un trou de mémoire serait le signe d'une tête trop pleine plutôt que pas assez! Si l'on ne se souvient plus du nom de quelqu'un ce ne serait pas parce que l'association mentale recherchée est momentanément aux abonnés absents, mais plutôt qu'elle est en concurrence avec d'autres associations parasites qu'on n'a pas réussi à inhiber suffisamment.
Mais pour en revenir à ma liste Nougaro, pourquoi sont-ce toujours les mêmes noms que l'on oublie? Je n'en sais trop rien finalement, mais cette histoire d'associations parasites me fait penser que les sons de "Nicole" "Kid" "man" (merci Google) ne me suggèrent pas du tout une jolie jeune femme. Nicole en français m'évoque une femme plutôt âgée, "Kid" un enfant et "man" un homme. Ces trois affinités parasites m'empêchent de retrouver facilement le nom de l'actrice, surtout si mon cortex préfrontal, fatigué ou stressé, ne parvient pas à les inhiber.
A défaut de vous avoir convaincu, ce billet m'aura au moins permis de ne plus avoir de problème avec le nom de Nicole Kidman!


Sources:

Lionel Naccache, Le nouvel Inconscient (2009): un excellent bouquin à lire absolument si vous vous intéressez à ces sujets.
Michael Anderson, Suppressing unwanted memory (2008)
Science Daily, Forgetting helps you remember important things (2007)

Billets connexes:
Psychologie de l'agacement: ce qui arrive quand son conjoint interrompt continuellement ces fameux automatismes quotidiens.
Eloge du pifomètre: comment l'inconscient permet de prendre de bonnes décisions en éviter d'y réfléchir...
L'étrange vision d'un aveugle: comment notre vision s'appuie elle-aussi sur des circuits totalement inconscients
Conscience en flagrant délire (4): comment notre mémoire s'adapte continuellement au service d'une image valorisante de soi.