Nouvelles du futur : où en sommes-nous avec les prévisions?

English version available here.

Cet article examine plusieurs méthodes qui ont montré une capacité certaine de prévoir le futur. La première comprend des équations simples (lois de puissance, power laws) dont les coefficients empiriques ont pu être déterminés sur plusieurs ordres de grandeur dans des conditions très variées. Les modèles sous-jaçants sont à la limite de plusieurs disciplines, de l'écologie à la sociologie. Vient ensuite le suivi systématique des innombrables sources d'information numériques sur l'actualité dont nous dispososons dorénavant, approche connue sous le nom de culturomique (note 3). Finalement, la vieille méthode des seuils critiques chère aux anciens polémologues (Bouthoul, 1962) et dont le dépassement conduit à des changements qualitatifs a été remis à l'honneur dans le cas des émeutes liées au prix des denrées alimentaires.

Peut-on prévoir le futur à partir des connaissances sur la psychologie humaine et les phénomènes sociaux, en appliquant une analyse statistique à l'image de la thermodynamique (Voir note 1)? Il semble bien que la réponse soit oui, et de nombre de publications scientifiques récentes vont dans ce sens.

1. Equations empiriques

Commençons par quelques articles publiés il y a deux ans environ par Bohorquez et al. (2009) et par Johnson et al. (2011). Dans le cas du premier article,

Fréquence cumulée d'actes de guerre en Afghanistan en fonction du nombre de blessés (a) nombre de tels actes depuis le 5ooème jour des opérations dans le pays (b). Figure composée à partir de deux figures de Bohorquez, 2009. Voir note 2.

les auteurs sont des ingénieurs, des physiciens et un économiste. A l'époque de la publication, Bohorquez travaillait au Department of Industrial Engineering and CEIBA Complex Systems Research Center à l'Universidad de Los Andes à Bogota, en Colombie. Les scientifiques qui cosignent l'article de Johnson comprennent un plus grand nombre de disciplines, de la biologie à la sociologie en passant par l'informatique et la physique. Johnson lui-même est un physicien de l'université de Miami. Notons par ailleurs que ces deux groupes travailent en collaboration.

Que disent ces articles? D'abord qu'il existe un loi de puissance (power law) très simple qui relie l'intervalle entre deux attaques terrroristes (ou actions belliqueuses). Cet intervalle a tendance à raccourcir en même temps que les terroristes apprennent leur métier. Si la loi est connue, la date de la prochaine attaque peut être estimée (avec une certaine erreur, bien évidemment). Il existe aussi un rapport simple entre l'importance des attaques et leur fréquence: la fréquence diminue avec la "taille" des attaques à la puissance 2.5 (Gilbert, 2009).

Le mérite de ces travaux est qu'ils relient de manière quantitative certains comportements humains violents ou non (au-delà du terrorisme, donc), l'écologie et certains modèles économiques (ce n'est pas par hasard que nous avons l'éco-logie et l'éco-nomie!). Ils ne manquent pas de rappeler d'autres études (Bettencourt et al, 2007; Bettencourt et  West, 2011) qui utilisent des lois de puissance pour décrire les relations entre la taille des villes (mesurée par leur nombre d'habitants) et une collection disparate d'indicateurs qui vont du salaire moyen au nombre d'inventeurs en passant par la consommation  d'électtricité des ménages et la densité des stations d'essence. Ces travaux permettent eux aussi de "prédire" la façon dont un certain nombre de variables vont se comporter dans le futur, disons en 2050. En effet, beaucoup d'indicateurs sont liés à la population comme variable indépendante, laquelle population est très prévisible puisque la majorité des êtres humains qui peupleront la terre en 2050 sont déjà nés. Par ailleurs, les projections de population faites au cours de l'immédiat après-guerre (je parle de 1940-45) se sont avérées étonnamment exactes (voir par exemple Chi, 2009).

Figure extraite de Lagi et al., 2011: historique des émeutes/révolutions depuis 2004 en fonction d'un indice de prix des denrées alimentaires.

2. Culturomique

Récemment, d'autres auteurs, dont Leetaru (2011), ont abordé les prévisions d'une manière radicalement différente, basée sur le fait que nous disposons maintenant d'énormes bases de données numériques relatives à la presse écrite et parlée et aux agences de presse, sans parler des sites web des journaux et magazines nationaux et internationaux. Ces bases de données couvrent au moins les trente dernières années. Les techniques d'exploration des données (data mining) permettent de trouver certains termes, leur fréquence, leur association avec d'autres termes, ainsi que leur ton et leur géolocation. Le ton (tone en anglais, mais mood serait plus approprié) et la géolocation constituent la principale innvation apportée par Leetaru. Le ton est donné par des termes "postifs" ou "négatifs" comme "terrible", "amélioration" ou "heureux". La géolocation consiste simplement à situer géographiquement tous ces termes. Cette approche, que Leetaru appelle "culturomique" (note 3) lui a permis de faire des prévisions à court terme relatives aux révolutions en Egypte, Tunisie et Lybie, de voir se préparer le conflit en Serbie et prédire la stabilité de l'Arabie Saoudite jusqu'en 2012. Appliquée à la localisation de Ossama Bib Laden, la méthode identifie une région qui comprend Abbotabad où le raid étatsunien a finalement eu raison de lui.

3. Dépassement de seuils critiques

Je terminerai en signalant une étude très remarquée de Lagi et al. (2011) dont une description très lisible est donnée par Johnson, 2011 (Il s'agit d'un autre Johnson que l'auteur cité plus haut.) Ces auteurs ont observé une association historique entre certaines émeutes et la cherté des denrées alimentaires. Le seuil se situe vers 220 $/tonne en prix courants et vers 190$/tonne en prix constants de 2004. Il a été dépassé en 2008 et en concordance avec le Printemps Arabe. Selon les auteurs, si la tendance des prix courante se maintient, les prochaines révolutions sont à attendre entre juillet 2012 et août 2013.

4. Conclusion

Dans l'ensemble, ces méthodes sont intéressantes, et l'engouement suscité par les articles de Leetari, Lagi et ceux issus du cercle de Geoffrey West (p.ex. Bettencourt et al.) témoignent de l'intérêt des milieux scientifiques comme de celui de la prese généraliste pour les prévisions. Il me semble,  cependant,  que le succès des méthodes soit dû à l'abondance des données disponibles plus qu'à la nouveauté des approches. D'une certaines façon, ces méthodes témoignent toutes de l'importance et de l'efficacité de l'internet. La note de Leetari, par exemple, n'a pas souffert de sa publication sur un site jusqu'alors confidentiel. Le village global existe bel et bien!

Notes

Note 1 : Cette note est un clin d'oeil. La phrase est extraite avec quelques modifications mineures de Wikipedia: La psychohistoire est une science imaginée par l'auteur de science-fiction Nat Schachner et développée plus largement par Isaac Asimov (1920-1992) dont le but est de prévoir l'Histoire à partir des connaissances sur la psychologie humaine et les phénomènes sociaux en appliquant une analyse statistique à l'image de la thermodynamique.

Note 2 : La partie supérieure de la figure (a) indique que 100% des actes de guerre font au moins une victime, alors que 1/1000 fait 100 victimes. Partie inférieure (b): 8 événements par jour ne se produisent pratiquement jamais, alors quer 30% des jours sont caractérisés par deux événements.

Note 3 : culturomics en anglais. Comme thermodynamics devient "la thermodynamique" et cyndinics "la cyndinique" j'ai osé le terme de "culturomique"

References

Bettencourt, L.M.A., J.Lobo, D.Helbing, C.Kühnert & G.B. West. 2007. Growth, innovation, scaling, and the pace of life in cities. PNAS, 104(17):7301–7306.

Bettencourt, L.M.A & G.B. West. 2011. Bigger Cities do more with less: new science reveals why cities become more productive and efficient as they grow. 305(3):51-53.

Bohorquez, J.C., S.Gourley, A.R.Dixon, M.Spagat & N.F.Johnson. 2009. Common ecology quantifies human insurgency. Nature 462:911-914.

Bouthoul, G. 1962. Le Phénomène-Guerre. Petite bibliothèque Payot, Paris. 283 pp.

Chi, G. 2009. Can knowledge improve population forecasts at subcounty levels? Demography,46:405–427. Disponible sur le net. Voir aussi http://www.esri.com/library/whitepapers/pdfs/evaluating-population.pdf et http://www.ageing.ox.ac.uk/files/workingpaper_507.pdf

Gilbert, N. 2009. Modellers claim wars are predictable.Insurgent attacks follow a universal pattern of timing and casualties. Nature 462:836. L'article de Gilbert est une présentation du travail de Bohorquez et al., 2009.

Johnson, E.M. 2011. Freedom to Riot: On the Evolution of Collective Violence.

Johnson, N.F., S.Carran, J.Botner, K.Fontaine, N.Laxague, P.Nuetzel, J.Turnley & B.Tivnan. 2011. Patterns of Escalations in Insurgent and Terrorist Activity. Science 333(81):81-84. Voir aussi NPR staff, 2011. Math Can Predict Insurgent Attacks.

Lagi, M., K.Z.Bertrand & Y.Bar-Yam. 2011. The Food Crises and Political Instability in North Africa and the Middle East. http://arxiv.org/abs/1108.2455v1. L'article est téĺéchargeable.

K.H.Leetaru. 2011. Culturomics: forecasting large-scale human behaviour using glocal news mwdia tone in time and space. First Monday,  16(9). This is an internet publication. Voir ce site. Voir aussi http://www.kurzweilai.net/culturomics-2-0-forecasting-large-scale-human-behavior-using-global-news-media-tone-in-time-and-space qui comprend des animations intéressantes.

 

L'identité d'Euler

L'identité d'Euler est l'une des équations les plus connues et fascinantes des mathématiques, liant en une formule compréhensible par un écolier quatre constantes fondamentales occupant d'ordinaire des territoires bien distincts :

e^{i\pi}=-1

Carl Friedrich Gauss affirmait de cette formule que si un étudiant ne la percevait pas immédiatement comme évidente, il ne deviendrait jamais un mathématicien de premier plan. Ce n'est donc pas à eux que s'adresse ce billet, mais, désolé d'être désagréable, à tous les autres...

Le web regorge de démonstrations géométriques qui ne font guère qu'illustrer l'identité sans guère la démontrer. Pourtant, il existe une démonstration élégante et facilement accessible. On y va...

 

1. Les vieilles séries de Taylor

Vous vous souvenez de l'idée de Taylor ? Elle consistait, en un point d'une fonction dérivable f, à construire une série constituée de f et de ses dérivées successives en ce point précis. Dans le cas de certaines fonctions, cela donne des égalités intéressantes qu'on est censé connaître par coeur :

e^x = 1 + x + \frac{x^2}{2!} + \frac{x^3}{3!} + \ldots \hspace{4 mm}(a)

\sin(x)=x-\frac{x^3}{3!}+\frac{x^5}{5!}-\frac{x^7}{7!}+\ldots \hspace{4 mm}(b)

\cos(x)=1-\frac{x^2}{2!}+\frac{x^4}{4!}-\frac{x^6}{6!}+\ldots \hspace{4 mm}(c)

 

2. i

Bon, là c'est simple. Par définition :

i^2=-1 \hspace{4 mm}(d)

En conséquence :

i^1=i ; i^2=-1 ; i^3=-i ; i^4=1 ; i^5=i ; i^6=-1\ldots \hspace{4 mm}(e)

 

3. Mélange

Il est facile de transposer la série (a) en y injectant l'exposant i :

e^{ix}=1+ix+\frac{(ix)^2}{2!}+\frac{(ix)^3}{3!}+\frac{(ix)^4}{4!}+\frac{(ix)^5}{5!}\ldots \hspace{4 mm}(f)

Autrement dit, en enlevant les parenthèses :

e^{ix}=1+ix+\frac{i^2x^2}{2!}+\frac{i^3x^3}{3!}+\frac{i^4x^4}{4!}+\frac{i^5x^5}{5!}\ldots \hspace{4 mm}(g)

Grâce aux égalités (e), on peut sans difficulté remplacer les puissances de i :

e^{ix}=1+ix-\frac{x^2}{2!}-\frac{ix^3}{3!}+\frac{x^4}{4!}+\frac{ix^5}{5!}-\frac{x^6}{6!}\ldots \hspace{4 mm}(h)

 

4. Distribution

La clé de voûte de l'opération consiste à redistribuer les termes de cette série en deux séries distinctes : l'une sans les i et l'autre avec. Autrement dit :

e^{ix}=(1-\frac{x^2}{2!}+\frac{x^4}{4!}-\frac{x^6}{6!}+\ldots )+i(x-\frac{x^3}{3!}+\frac{x^5}{5!}-\frac{x^7}{7!}+\ldots ) \hspace{4 mm}(j)

Et là, on retrouve respectivement nos séries de Taylor (c) et (b). Donc :

e^{ix}=\cos(x)+i\sin(x) \hspace{4 mm}(k)

Il suffit de choisir pour x la valeur particulière de π et nous avons démontré que :

e^{i\pi}=\cos(\pi)+i\sin(\pi)=-1

Voilà ! Ça vous a plu ? La semaine prochaine, Cédric analysera en hexamètres dactyliques la démontration qu'Andrew Wiles a établie du Théorème de Fermat.

 

Sources :

Pi = C,CVEZCVBMLYZGEC

Il y a une propriété de pi qui me fait douter de son existence, ou plus modestement, qui me fait réaliser que je n’avais pas vraiment compris ce qu’est un nombre. Et cette propriété est : « pi est un nombre normal. » Cela veut dire que la suite des chiffres qui composent pi, et qui commence par 314159 a toutes les propriétés d’une suite aléatoire infinie, où chaque chiffre apparaît avec la même fréquence 1/10.

Une conséquence de cette propriété de pi est que toute suite de chiffres de longueur finie, comme 0123456789, est présente quelque part dans la suite des chiffres qui composent pi. Plus la séquence est longue plus sa fréquence est faible, mais comme pi est une suite infinie, on a la certitude que n’importe quelle suite finie y est présente une infinité de fois. Par exemple, la suite la 10 chiffres 0123456789 est présente en moyenne une fois tous les 10000000000 chiffres, tout comme 0000000000, ou 3141592653.

La même observation est plus frappante quand on l’exprime différemment. Quand on écrit pi = 3.1415, ce n’est qu’une manière concise d’écrire que pi est le nombre qu’on obtient en faisant le calcul 3*1+1*1/10+4*1/(10*10)+1*1/(10*10*10)+5*1/(10*10*10*10). C‘est ce qu’on appelle la base 10. Avec la numération en base 2 des ordinateurs on écrirait pi = 11,0010010… ce qui veut dire pi = 1*2+1+0*1/2+0*1/(2*2)+1*1/(2*2*2)+… Si on veut utiliser une base plus grande que 10, il nous faut des symboles pour écrire tous les chiffres jusqu’à la valeur base. Pour écrire les nombres en base 27, par exemple, on peut convenir d’utiliser les lettres de notre alphabet et l’espace. On conviendrait 0 = «_», 1 = « A », 2 = « B», etc. jusqu’à 26 = « Z ». En base 27, et avec cette convention, les premières décimales de pi sont reprises dans le titre.

La normalité d’un nombre est indépendante de la base dans laquelle il est écrit, ce qui signifie que n’importe quelle suite finie de lettres se trouve quelque part dans pi. Par exemple, on s’attend à trouver le mot « PAPA » une fois toutes les 500000 décimales. Le texte du journal de demain figure aussi quelque part dans pi, de même que toute l’oeuvre de Voltaire. Tout cela y figure même plusieurs fois, une infinité de fois ! Pire, ce n’est pas propre à pi : la plupart des nombres sont normaux. Cela veut dire que la plupart des fois que vous faites un calcul, l’œuvre de Voltaire est cachée dans la réponse.

La situation est analogue à celle du singe imaginé par Emile Borel, qui reproduirait l’œuvre de Molière en tapant au hasard à la machine à écrire. Dans ce cas là, on peut se consoler de ce que cette situation n’est pas vraiment réelle, puisqu’il faudrait au singe un temps plus long que l’age de l’univers pour ne taper qu’un début de tirade. Ce que je trouve choquant avec la normalité des nombres, c’est que tout y serait dès le début. De manière statique, et depuis toujours. Faut-il en conclure que la plupart des nombres ne sont pas vraiment réels ?

Cedric Gommes

Du nombre d’accordeurs de pianos à Chicago à l’avenir de l’humanité

Peu de gens croient savoir le nombre d’accordeurs de piano qu’il y a Chicago. Pourtant, si on ne s’intéresse qu’à un ordre de grandeur, c’est un nombre facile à estimer. Le résultat en soi présente assez peu d'intérêt, mais la méthode est intéressante.Il y a vraisemblablement 2 millions d’habitants à Chicago, c’est à dire 500 000 familles, dont sans doute une sur 100 possède un piano, il y a donc 5000 pianos. Chaque piano doit être accordé tous les 2 ans, et ça nécessite 1/2 journée de travail. L’accordage de tous les pianos de Chicago représente donc 1250 journées de travail par an, c'est grosso modo du travail à temps plein pour 4 personnes. En comptant que ces gens ne font vraisemblablement pas ça à temps plein, 10 accordeurs serait un chiffre plausible. Compte tenu des incertitudes sur les chiffres utilisés, il y en a peut être 1, ou peut être 100, mais pas 1000 !

On peut utiliser le même type de raisonnement pour estimer la production céréalière mondiale, le nombre de centrales nucléaires qui alimentent la téléphonie mobile, la part des serviettes jetables dans le prix des Big Macs, et même le nombre de civilisation extraterrestres dans notre galaxie. On raconte qu’Enrico Fermi mangeait silencieusement en compagnie de collègues avec qui il construisait la bombe atomique, quand il s’est soudain écrié « Mais où sont-ils ? » [1]. Il venait d’estimer que la Terre aurait déjà du être explorée à de nombreuses reprises par des extraterrestres.

L’estimation à la Fermi du nombre de civilisations extraterrestres dans notre galaxie porte aujourd’hui le nom d’équation de Drake [2]. Elle comporte une succession de facteurs tels que (1) le nombre d’étoiles crées chaque année, (2) la fraction des étoiles qui ont des planètes habitables, (3) la fraction de celles-ci où la vie apparaît, et (4) la durée de vie d’une civilisation capable de communiquer sur des distances interstellaires. On fait généralement l’hypothèse que la Terre n’est pas exceptionnelle, c'est-à-dire que chaque étoile possède de l’ordre d’une planète où la vie apparaît. Selon les estimations, on trouve entre 100 et 10000 civilisations extraterrestres dans notre environnement immédiat [3]. Si on étend ce calcul à tout l’Univers visible, il faut multiplier ce chiffre par 100 milliards !

Parmi les nombreuses courses est-ouest de la guerre froide, il y avait notamment la recherche des extraterrestres. C’est dans ce contexte qu’est né le projet américain « Search for Extra-Terrestrial Intelligence » (SETI), pendant que les Russes avaient un projet similaire [4]. Et en tout ce temps, personne n’a rien vu : « Mais où sont-ils ? » [5]. On admet généralement que les difficultés technologiques liées aux voyages interstellaires ne peuvent pas être la réponse. Il y a là-haut des systèmes solaires deux fois plus âgés que le notre, ce qui permet d’imaginer qu’il existe des technologies autant supérieures à la notre, que la notre est supérieure à celle des algues bleues. Bref, c’est un vrai mystère.

L’explication la plus simple serait que notre forme de vie est très rare. Et il n’y aurait que deux explications possibles : soit il y a dans l’évolution de la vie terrestre une étape que nous avons déjà traversée qui était hautement improbable, soit la durée de vie d’une civilisation à haute technologie est très courte. Dans un texte intéressant [6], Nick Bostrom explique pourquoi il espère qu’on ne trouvera pas trace de vie sur Mars. Si on trouvait de la vie sur la première planète qu’on explore autre que la terre, ça voudrait dire que la vie est un phénomène banal dans l’Univers. Tout cela augmenterait la vraisemblance du deuxième scénario, et nos jours seraient comptés [7].

Cedric Gommes

Sources

[1] Wikipedia : Fermi_paradox
[2] Wikipedia : Drake_equation
[3] L. Gresh & R. Weinberg, « The science of the Superheroes », Wiley 2002.
[4] Wikipedia : SETI
[5] Leo Szilard aurait répondu à Fermi « they are already among us - but they call themselves Hungarians ».
[6] nickbostrom [PDF]
[7] Philippulus le Prophète, « La fin est proche », In: L’étoile mystérieuse, Hergé.

Zimbabwe et confusions numériques

En mai dernier, les planches à billets zimbabwéennes sortaient une coupure de 250.000.000 ZWD, signe d'une hyperinflation estimée en juin à 9.030.000%. Dans l'hypothèse où ces chiffres veulent encore dire quelque chose, c'est-à-dire qu'il existe un marché pour une telle monnaie, 1 USD = 40.000.000.000 ZWD.

  • 1983 : USD $1 = ZWD 1$
  • 2000: USD $1 = ZWD 1,000$
  • 2006: USD $1 = ZWD 100,000$
  • 2006: USD $1 = ZWD 500,000,000$
  • 2008: USD $1 = ZWD 18,700,000,000$

Ancienne colonie anglaise, le Zimbabwe a gardé l'anglais comme langue officielle, ce qui ne facilite pas les choses lorsque l'on manipule quotidiennement des sommes dépassant le milliard.

En français, les choses sont relativement simples :

  • un milliard = 1.000 millions (10**9) ;
  • un billon = 1.000 milliards (10**12) ;
  • un trillion = 1.000.000 billions (10**18) ;
  • etc.

Notons toutefois que beaucoup de gens pense que milliard est le synonyme populaire de billion, faisant ainsi une erreur d'un facteur 1.000.

En anglais, la confusion est encore bien pire, ainsi que l'explique l'excellent Neil Minkley. La signification d'un terme tel que billion varie selon le type d'anglais (British ou American), mais aussi selon le dictionnaire considéré.

Ainsi, selon le Harrap's Unabridged, « trillon » pourra être compris par un anglophone comme 10**12 (Anglais) ou comme 10**18 (Américain) :

Français    British English    American English
milliard    billion            billion
billion     trillion           trillion
trillion    trillion           quintillion

tandis que pour le Grand Dictionnaire Hachette-Oxford, « trillion » est ambigu pour les Américains et « billion » est ambigu pour les Anglais :

Français    British English    American English
milliard    billion            billion
billion     billion            trillion
trillion    trillion           trillion

En fait, les deux usages sont permis selon que l'on considère une short-scale acception ou une long-scale acception (laquelle intègre aussi billiard et trilliard). Mais il ne semble guère exister de convention permettant de trancher.

Pensée émue pour tous les Zimbabwéens qui se trouvent en aval de la planche à billets, et plus particulièrement pour les comptables.

avk

Sources :

Anglais pratique (Neil Minkley)

CIA factbook

Wikipedia : Long and short scales

Wikipedia : Zimbabwe

Worldbank

Pourquoi croit-on que les voitures vont plus vite dans la file d’à coté ?

Sans doute parce qu’elles vont effectivement plus vite dans la file d’à coté. Et si vous passez d’une file à l’autre, ça n’y changera rien : la plupart du temps, vous serez dans la file la plus lente. Comme tout le monde d’ailleurs.
C’est parce qu’une file est dense qu’elle est lente, parce qu’on ajuste sa vitesse à la distance qui nous sépare de la voiture de devant. C’est pour la même raison que le traffic est plus rapide dans un tronçon peu dense, où la distance entre véhicules est grande. Dans une situation de traffic hétérogène, les voitures lentes sont donc nécessairement plus nombreuses que les voitures rapides. Pour fixer les idées, imaginons que les files lentes contiennent 2/3 des voitures, et que les files rapides en contiennent 1/3.

Chaque conducteur est alternativement dans une zone rapide et dans une zone lente. Soit qu’il change de file, soit que son tronçon devienne temporairement plus rapide ou plus lent. Comme la proportion globale de véhicules dans les tronçons rapides et lents est de 1/3 et 2/3, chaque conducteur individuellement passe 2/3 du temps à rouler plus lentement que les autres, et seulement 1/3 du temps à rouler plus vite. Bref, 2 fois sur 3, les voitures d’à coté vont bel et bien plus vite.

Cedric Gommes

Source

http://plus.maths.org/issue17/features/traffic/index.html

Les deux modes de chez nous

Oui, vous avez lu Tintin, mais savez-vous réellement ce qu’est une gamme? Selon le Grove, une gamme est une séquence de notes ordonnées en fonction de leur hauteur tonale. Ainsi, la séquence Do-Mi-Si constitue une gamme. C’est là la définition générale. Une acception plus utile implique que cette séquence permette de définir un mode et une tonalité. Ah! ça se complique...

Une tonalité, c’est intuitivement très simple : c’est la note où le morceau peut s’arrêter élégamment. Jouez au hasard sur les touches blanches d’un piano et ne vous arrêtez que lorsque la note vous semble de nature à clôturer votre improvisation. Si l’auditoire ne semble pas rester sur sa faim, ce sera un Do : les touches blanches de l’instrument forment une gamme de Do majeur. Do est la tonalité de cette gamme.

Le mot majeur désigne lui le mode. Le Grove consacre 76 pages à définir ce qu’est un mode mais, pour faire plaisir à Olivier, je vais résumer : un mode est une séquence d’intervalles. Soit T un intervalle d’un ton et t un intervalle d’un demi-ton, le mode majeur est : [T T t T T T t]. La gamme de Do majeur sera donc simplement Do-Ré-Mi-Fa-Sol-La-Si-Do puisque chacune de ces notes est espacée de la suivante par un ton à l’exception du Fa et du Si qui sont suivis d’un demi-ton. Vous me suivez?

Un autre mode bien connu est le mode mineur, associé à la séquence d’intervalles suivantes : [T t T T t T T]. La gamme en Ré mineur sera Ré-Mi-Fa-Sol-La-Sib-Do-Ré. Terminez votre petite mélodie en Ré mineur sur la touche Ré et tout le monde sera content.

Alors, combien existe-t-il de modes? Une infinité bien sûr. Les exemples que j’ai pris comprenaient 7 intervalles mais rien n’empêche de concevoir des modes à 5 ou à 20 intervalles. De plus, mes exemples ne donnaient que deux valeurs possibles à ces intervalles mais la musique arabe, par exemple, fait appel aux tiers de tons et la musique électronique nous libère, en cette matière, de toute contrainte.

Mais restons raisonnables, occidentaux et passéistes. Même avec un mode de 7 intervalles et seulement 2 valeurs pour ces intervalles, nous disposons tout de même d’un coquet réservoir de 128 modes possibles.

Pourtant, sur ces 128 modes, nous n’en utilisons que deux : le majeur et le mineur. Héritage du passé? Nullement : les Grecs utilisaient 7 modes ou 8 modes selon les époques et les Latins n’en manquaient pas non plus (protus, deuterus, tritus...). Nécessité créative de restreindre un univers trop large? Alors pourquoi la musique indienne dispose toujours de l’un des univers modaux les plus complexes au monde (les raga, dont je ne suis pas sûr qu’ils soient tous inventoriés)?

Mon hypothèse est que deux sillons se sont avérés, à un moment donné, un peu plus fertiles. Nous avons alors laissé le reste du champ en friches, nous concentrant sur ces deux sillons avec gaieté, labeur et aveuglement.

Bon, je vous laisse. Il y a un gros bourdon sur le vitre qui essaye de sortir. Cet idiot ne voit pas que la porte est grande ouverte, juste à côté. Heureusement que je suis là!

avk