Suite logistique et arbre chaotique

Il arrive parfois que des relations d’apparence très simples aboutissent à des comportements extrêmement complexes. A titre d’exemple, intéressons-nous aujourd’hui à ce que l’on nomme la suite logistique.

Modéliser une population

Comme son nom ne l’indique pas forcément, la suite logistique vise à estimer l’évolution de la taille d’une population au cours du temps. Peu convaincu par le modèle de Malthus, qui utilise un taux de croissance constant de la population, le mathématicien Pierre François Verhulst imagine, en 1840, un tout autre modèle qui introduit une part de concurrence.

En effet, on imagine bien que, dans de bonnes conditions, la taille de la population d’une espèce donnée tend à augmenter. Seulement, lorsque cette taille est trop importante alors que les ressources disponibles n’augmentent pas, de la compétition se met en place entre les individus, ce qui aboutit alors à une diminution de la taille de population.

Si, une année, une population se trouve en deça d’un certain seuil, alors l’année suivante, la population sera plus importante. Si, à l’inverse, elle se trouve au-delà, alors la compétition et la concurrence la fera baisser l’an suivant.

Pour modéliser cela, Verhulst propose une formule toute simple. Appelons P(n) la taille de population de notre espèce à l’année n. Nous pouvons redimensionner cette population pour que ce nombre soit compris entre 0 et 1 (en divisant tout simplement par la population maximale). 0 correspond à une extinction de la population, 1 signifie que la population a atteint son niveau maximal. Alors :

P(n+1) = R x P(n) x (1 – P(n))

où R est une constante qui dépend de l’espèce que nous souhaitons modéliser.

Par exemple, choisissons R=2, et une population de départ de taille P(0) = 0.2

  • Après la 1ère année, la population P(1) sera de R x P(0) x (1 – P(0)) soit 2 x 0.2 x 0.8, soit 0.32
  • Recommençons en partant de 0.32. Après la deuxième année, la taille de notre population sera donc de 2 x 0.32 x (1 – 0.32) ce qui vaut 0.4352
  • Puis elle vaudra 0.4916019
  • Puis 0.4998589
  • Puis elle vaudra 0.5, et à l’étape suivante, encore 0.5, et ainsi de suite, jusqu’à la fin des temps.

Evolution de la taille de population pour R = 2

Chaque nouvelle application de la formule s’appelle une itération, et lorsque nous itérons suffisamment le procédé, nous observons que la taille de population se stabilise aux alentours d’une taille limite. Dans le cas où R=2 et P(0)=0.2, cette valeur limite vaut 0.5.

Changeons alors la valeur de notre R et observons le comportement de la taille de la population. Pour R = 2.9, la population se stabilise autour de 0.655, tout en oscillant autour de cette valeur.

Pour un R trop faible, plus petit que 1, le population atteindra 0 : c’est l’extinction, claire et nette, aucun survivant.

Prenons maintenant R=3.1 et regardons les tailles de population au cours du temps :
0.2 ; 0.496 ; 0.7749504 ; 0.5406471  ; 0.7698782 ; 0.5492138 ; 0.7674918 ; 0.5531892…

Evolution de la taille de population pour R = 3.1

Cette fois, nous n’observons plus une mais deux valeurs qui se répètent indéfiniment et la taille de notre population passe de l’une à l’autre, d’une année sur l’autre. Passons alors à 3.5 et observons :

Evolution de la taille de population pour R = 3.5

Cette fois, notre taille de population se met à osciller indéfiniment entre 4 valeurs. Et en augmentant encore notre R, nous pourrions trouver des oscillations entre 8, 16, 32 valeurs… Jusqu’à trouver le chaos le plus total !

Diagramme de Feigenbaum

Nous allons construire un graphique avec, sur l’axe horizontal, la valeur du paramètre R et, sur l’axe vertical, les valeurs autours desquelles la population semble se stabiliser ou osciller. La figure obtenue, appelée diagramme de Feigenbaum, du nom du mathématicien qui l’étudia, ressemble à ceci :

Diagramme de Feigenbaum

Avant la valeur de R = 3, il n’y a qu’une seule valeur stable, comme c’était le cas pour notre premier essai. Puis, à partir de ce point, le graphe se scinde en deux parties, les deux valeurs que prend la taille de population. Puis, aux alentours de R = 3.45, ces deux branches se dédoublent de nouveau, donnant naissance à 4 branches, puis 8 un peu plus tard.

On peut constater que ces dédoublements sont de plus en plus rapprochés, mais surtout qu’à partir de R = 3.57, la population va alterner entre une infinité de valeurs, sans période précise : c’est le chaos.

Un peu d’ordre dans le chaos

Malgré le désordre ambiant, le diagramme de Feigenbaum (ou figuier, comme certains le nomment) possède plusieurs propriétés intrigantes.

Zoomons par exemple autour de l’embranchement supérieur : on retrouve exactement la même structure que notre arbre de départ. Le graphe contient plusieurs versions miniatures de lui-même.

Le graphique contient plusieurs versions miniatures de lui-même.

L’ordre reprend par ailleurs ses droits pour certaines valeurs isolées, que nous pouvons apercevoir sur les zones plus clairs du diagramme. Ainsi, en prenant un R d’environ 3.83, on se retrouve avec une oscillation de période 3.

Evolution de la taille de population pour R = 3.83

En vérité, le résultat est plus puissant que cela : les périodes dans un tel diagramme apparaissent dans un ordre très précis, appelé Ordre de Charkovski. Au début, la période était de 1, puis de 2, puis de 4, et ainsi de suite. La dernière période de ce classement est justement la période 3. Autrement dit, si quelque part dans le graphe se trouve un cycle de période 3, alors toutes les autres périodes s’y trouvent (et elles s’y trouvent avant, soit entre R = 0 et R = 3.83 dans notre cas).

Un autre exemple d’ordre dans le chaos ? Nous avons plus tôt mentionné que les temps de dédoublement étaient de plus en plus courts… et il s’avère que ces temps obéissent en fait à une loi très précise. Appelons B(n) la valeur de R pour la n-ième bifurcation, alors le rapport B(n)/B(n+1) tend vers une certaine constante δ appelée Nombre de Feigenbaum, et qui vaut environ 4,6692016…

Et cette constante n’est pas inhérente à notre cas : si nous choisissons une autre suite que notre suite logistique, pourvu qu’elle respecte certaines propriétés, alors nous obtiendrons le même comportement pour notre taille de population, un diagramme semblable, un comportement qui finit par devenir chaotique, mais aussi un rapport entre les temps de bifurcation qui se rapproche de cette même constante.

Voici par exemple le résultat quand nous prenons P(n + 1) = R x sin( π x P(n) )

Oui, c’est presque pareil… Et nous aurons la même allure pour toute fonction dont la courbe forme une « bosse » comme le font les deux précédentes. A vous de choisir celle que vous préférez alors.

Pour compléter

Envie d’explorer un peu plus le chaos ?

Cet article, publié dans Curiosités et récréation, Mathématiques appliquées, est tagué , , , . Ajoutez ce permalien à vos favoris.

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s