Équation de Poisson
Résolution numérique par différences finies
Y. Morel
Equation de Poisson
L'équation de Poisson (Siméon Denis - , 1781-1840) est la célèbre équation aux dérivées partielles du second ordre:
ΔΦ = f
où
Δ est l'opérateur laplacien voir ci-dessous,
et f une distribution donnée.Poisson aboutit à cette équation en corrigeant celle de Laplace:
ΔΦ = 0
On retrouve l'équation de Poisson dans de nombreux domaines physiques. En électrostatique, le potentiel électrique V est solution de l'équation de Poisson
ΔΦ =
-ρ
ε0
dans laquelle
ρ décrit la distribution de charges électriques dans l'espace,
et ε0 est une constante (permittivité diélectrique du vide).
En gravitation universelle, le potentiel gravitationnel Φ est relié à la masse volumique ρ et à la constante universelle de gravitation G par l'équation de Poisso
ΔΦ = 4πGρ
Laplacien
Le laplacien d'une fonction est la somme de ses dérivées partielles secondes. En 2D, le laplacien d'une fonction f de deux variables, f(x,y) est
Δf =
∂2f
∂x2
+
∂2f
∂y2
Par exemple, les fonctions du 1er degré en chaque variable
f (x,y) = ax + bxy + cy + d
sont solutions de l'équation de Laplace
Δf = 0. Bien sûr, on n'a pas ici résolu l'équation de Laplace, car résoudre une équation, qu'elle soit algébriqe du 1er ou 2nd degré, ou différentielle (EDO) ou aux dérivées partielles (EDP), signifie toujours trouver toutes les solutions…
De plus, le domaine dans lequel on cherche à résoudre cette équation, et les conditions imposées sur le bord de ce domaine importent aussi.
Les paragraphes qui suivent ne visent pas à résoudre formellement et théoriquement cette équation (ni même d'ailleurs, ce qui constitue la première question à adresser, à déjà s'assurer que de telles solutions existent).
En général, on ne connaît pas d'expression explicite et analytique de la solution de ce type d'équation. On arrive néanmoins à en donner des valeurs approchées: c'est l'objet de ce qui suit.
Discrétisation des dérivées, première et seconde
Formules de Taylor-Young et approximation des dérivées
Les formules de Taylor sont les formules fondamentales pour approximer des dérivées et discrétiser des équations différentielles.
Pour une fonction d'une seule variable, de classe C1, la formule de Taylor-Young à l'ordre 1 s'écrit:
f (x + h) = f (x) + hf'(x) + o(h)
soit, en isolant la dérivée,
f' (x) =
f (x + h) − f (x)
h
+ o(1)
ce qui donne l'approximation, pour h petit,
f' (x) ≃
f (x + h) − f (x)
h
qui n'est rien d'autre que le taux d'accroissement de la fonction entre x et x + h.
À l'ordre 2, pour une fonction de classe C2, la formule de Taylor-Young est
f (x + h) = f (x) + hf'(x)
+
h2
2
f''(x)
+ o(h2)
On peut aussi écrire cette formule avec un accroissement de −h:
f (x − h)
=
f (x) + (− h)f'(x)
+
(−h)2
2
f''(x)
+ o(h2)
=
f (x) − hf'(x)
+
h2
2
f''(x)
+ o(h2)
et donc, en ajoutant ces deux dernières relations, on obtient
f (x + h)
+
f (x − h)
= 2f (x) + h2f''(x)
+ o(h2)
ou encore, en isolant la dérivée seconde:
f'' (x) =
f (x + h) + f (x − h) − 2f(x)
h2
+ o(1)
ce qui nous donne l'approximation, pour h petit,
f'' (x) ≃
f (x + h) + f (x − h) − 2f(x)
h2
Discrétisation et grille de calcul en 1D
Pour approximer une équation différentielle avec une fonction f d'une seule variable sur un intervalle [a, b], on discrétise l'intervalle en une suite d'abscisses x0, x1, …
On note alors fi = f (xi) et on a donc, avec la formule de Taylor-Young, une approximation de la dérivée
f' (xi)
≃
f (xi + h) − f (xi)
h
=
fi+1 − fi
h
et de même de la dérivée seconde
f'' (xi)
≃
f (xi + h)
+ f (xi − h)
− 2f (xi)
h2
=
fi+1 + fi−1 − 2fi
h2
Discrétisation et grille de calcul en 2D
On procède de même en 2D, en discrétisant comme précédemment abscisses et ordonnées: avec un pas h en abscisse et un pas k en ordonnée:
Chaque point de la grille est maitenant repéré par un couple ( xi , yj ) ou encore, plus simplement par un couple d'entiers ( i , j )
On note maintenant, en utilisant cette grille
fi, j = f (xi , yj)
et on approxime les dérivées secondes comme dans le cas à une variable,
f(x,y) est
Δf (xi , yj) =
∂2f
∂x2
(xi , yj)
+
∂2f
∂y2
(xi , yj)
≃
fi+1, j + fi−1, j − 2fi, j
h2
+
fi, j+1 + fi, j−1 − 2fi, j
k2
Exemple: potentiel électrostatique dans un condensateur
La charge électrostatique V dans un condensateur est solution du problème schématisé par la situation suivante:
En reprenant la grille de discrétisation précédente, on cherche donc les valeurs
Vi, j = V (xi , yj)
telles que, de plus, pour tout i,
Vi, n
= 0
Vi, 0
= 1
pour les conditions à l'anode et la cathode du condensateur,
et dans le vide (de charge) à l'intérieur du condensateur,
l'équation de Laplace discrétisée
ΔV ≃
Vi+1, j + Vi−1, j − 2Vi, j
h2
+
Vi, j+1 + Vi, j−1 − 2Vi, j
k2
= 0
Pour simplifier, on peut choisir le même pas pour les deux variables h = k ce qui permet de réécrire la relation précédente suivant:
Vi,j =
14
Vi+1, j +
Vi−1, j +
Vi, j+1 +
Vi, j−1
En d'autres termes, l'équation de Poission impose qu'en chaque point le potentiel soit la moyenne de ces quatre voisins ("voisins" au sens de Von Neumann, voir plus loin).
Programmation et simulation
Il s'agit donc de construire un tableau de valeurs, ou matrice, dont les éléments vérifient la relation précédente ainsi que les conditions au bord cf. .
Une méthode pour le faire est de construire une suite en itérant l'équation précédente, c'est-à-dire en définissant une suite V(n)
Vi , j(n+1) =
14
Vi+1, j(n) +
Vi−1, j(n) +
Vi, j+1(n) +
Vi, j−1(n)
En quelques itérations, la méthode converge. Il y a donc ici 3 boucles à programmer: i et j pour balayer les éléments de la matrice V et enfin n pour le nombre d'itérations de la méthode.
Le programme peut s'écrire en python (en utilisant la bibliothèque Pylab):
from pylab import *
n=100
T=200
V=zeros([n,n])
# cathode, V=1
V[-1,:]=1
for t in range(T):
for i in range(1,n-1):
for j in range(1,n-1):
V[i,j]=(V[i+1,j]+V[i-1,j]+V[i,j+1]+V[i,j-1])/4
# cathode, V=1
V[-1,:]=1
matshow(V)
show();
La fonction matshow
utilisée finalement permet d'afficher le contenu de la matrice, c'est-à-dire exactement les valeurs du potentiel en tous les points de la grille. On obtient le résultat:
Dernier point: on remarque des "effets de bord" qui n'ont pas forcément lieu d'être. Pour modéliser une situation "infinie", on utilise souvent la condition au bord de Neumann (condition d'absorption), qui s'écrit ici, en Python,
from pylab import *
n=100
T=200
V=zeros([n,n])
# cathode, V=1
V[-1,:]=1
for t in range(T):
for i in range(1,n-1):
for j in range(1,n-1):
V[i,j]=(V[i+1,j]+V[i-1,j]+V[i,j+1]+V[i,j-1])/4
# cathode, V=1
V[-1,:]=1
# Neumann au bord
V[:,0]=V[:,1]
V[:,-1]=V[:,-2]
matshow(V)
show();
et on obtient cette fois le résultat:
Accélération de convergence
Dès que la grille de calcul devient importante, c'est-à-dire que l'on souhaite un résultat de plus en plus fin, le temps de calcul devient très important.
Deux méthodes (au moins) permettent d'accélérer les calculs.
Calculs vetoriels avec python
Tout comme en Matlab ou dans d'autres langages interprétés, les boucles imbriquées prennent un temps important de calcul: chaque instruction répétée et interprétée puis exécutée. Tout comme en Matlab (ou...) il est bien plus judicieux d'utiliser des instructions vectorielles, nécessitant alors de moins d'étapes iontermédiaires d'interprétation avant exécution.
En Python, comme en Matlab, on peut astucieusement remplacer les boucles imbriquées
for t in range(T):
V[-1,:]=1
tmp=V[2:n,1:n-1]+V[0:n-2,1:n-1]+V[1:n-1,2:n]+V[1:n-1,0:n-2]
V[1:n-1,1:n-1]=1/4*tmp
Il ne resta alors plus qu'une boucle globale, et le temps de calcul, pour aboutir au même résultat est considérablement réduit:
Accélération de convergence par relaxation
On a accéléré indéniablement les calculs en utilisant des instructuions vectorielles plutôt que de multiples boucles imbriquées.Maintenant ces calculs vectoriels restent éventuellement effectués un grand nombre de fois. On peut maintenant essayer de réduire la taille de cette dernière boucle. On se rappelle qu'on calcule ici une approximation, par itération successive: plus le nombre d'itération est grand, emilleure est l'approximation.
Ce calcul se présente comme celui de la recherche d'un point fixe, et à ce titre on peut lui appliquer la même méthode d'accélaration de convergence, par relaxation. Plus précisément, cette méthode est connue sous l'acronyme de SOR, pour Successive Over Relaxation: on utilise une méthode de relaxation qu'on applique successivement à chaque itération.
Le programme précédent, est modifié en:
w=1# paramètre de relaxation
T=100
for t in range(T):
tmp=V[2:n,1:n-1]+V[0:n-2,1:n-1]+V[1:n-1,2:n]+V[1:n-1,0:n-2]
V[1:n-1,1:n-1]=(1-w)*V[1:n-1,1:n-1]+w/4*tmp
Le paramètre de relaxation optimal ωopt est difficile à déterminer, au contraire du cas plus simple décrit là.
Cette méthode est surtout utile si ce calcul doit lui-même être effectué un grand nombre de fois, c'est-à-dire lui-même imbriqué dans une boucle. Dans ce cas, on essaie simplement de déterminer une valeur efficace (même si elle n'est pas otpimale) de ce paramètre avec quelques tests.
Par exemple, dans la simulation numérique d'éclairs, ou le calcul du nouveau potentiel V doit être effectué un grand nombre de fois, cette méthode de relaxation est particulièremnet bienvenue.