Solutions de viscosité d'équations elliptiques et ... - CiteSeerX

contentons de donner ici l'équation obtenue pour le “mouvement par courbure moyenne”. Cette équation est le prototype d'équation dégénérée et singuli`ere :.
341KB taille 26 téléchargements 134 vues
Solutions de viscosit´ e d’´ equations elliptiques et paraboliques non lin´ eaires

Pierre Cardaliaguet

Janvier 2004

Ces notes sont issues d’un cours de DEA enseign´e `a Rennes fin 2003.

1

Table des mati` eres 1 Introduction 1.1 L’´equation eikonale . . . . . . . . . . . . . . . . . . . . . . 1.2 Contrˆ ole optimal . . . . . . . . . . . . . . . . . . . . . . . 1.3 Approche par lignes de niveau des ´equations g´eom´etriques 1.4 Quelques r´ef´erences sur les solutions de viscosit´e . . . . .

. . . .

3 3 4 5 5

2 D´ efinitions et propri´ et´ es ´ el´ ementaires 2.1 Le cas des ´equations elliptiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Le cas d’une ´equation parabolique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Stabilit´e, passage ` a la limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

7 7 8 9

3 Existence d’une solution par la m´ ethode de Perron 3.1 Solutions de viscosit´e discontinues . . . . . . . . . . . 3.2 Suprema de sous-solutions . . . . . . . . . . . . . . . . 3.3 La m´ethode de Perron . . . . . . . . . . . . . . . . . . 3.4 Existence d’une solution de viscosit´e continue . . . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

4 Preuve du principe de comparaison pour le premier ordre

12 12 12 13 14 16

5 Preuve du principe de comparaison pour le second 5.1 Semi-convexit´e . . . . . . . . . . . . . . . . . . . . . 5.2 Inf- et sup-convolutions . . . . . . . . . . . . . . . . 5.3 Preuve du th´eor`eme de comparaison . . . . . . . . .

ordre 18 . . . . . . . . . . . . . . . . . . . . . . . 19 . . . . . . . . . . . . . . . . . . . . . . . 21 . . . . . . . . . . . . . . . . . . . . . . . 23

6 Quelques r´ esultats d’unicit´ e classiques 6.1 Equations du premier ordre . . . . . . . . . . . . . . 6.1.1 Equations de type stationnaire: ouvert born´e 6.1.2 Equations de type stationnaire: cas de IRN . 6.1.3 Equations d’´evolution . . . . . . . . . . . . . 6.2 Equations du second ordre . . . . . . . . . . . . . . . 6.2.1 Le “lemme matriciel” d’Ishii . . . . . . . . . . 6.2.2 Probl`eme de Dirichlet . . . . . . . . . . . . . 6.2.3 Conditions au bord de type Neumann . . . . 6.2.4 Equations d’´evolution . . . . . . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

26 26 26 26 27 28 28 29 30 31

7 Evolutions g´ eometriques 7.1 Quelques rappels sur les ´evolutions r´eguli`eres . . . . . 7.2 L’approche par lignes de niveau . . . . . . . . . . . . . 7.3 Le principe de comparaison et applications . . . . . . 7.4 Lien entre solutions g´en´eralis´ees et solutions r´eguli`eres

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

32 32 32 33 36

8 R´ egularit´ e pour les probl` emes uniform´ ement elliptiques 38 8.1 Equations fortement elliptiques, op´erateurs de Pucci . . . . . . . . . . . . . . . . . . . . . . . 38 8.2 L’in´egalit´e de Harnack et la r´egularit´e H¨older des solutions . . . . . . . . . . . . . . . . . . . 39 8.3 R´egularit´e C 1,α int´erieure de F (D2 u) = 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

2

1

Introduction

On s’int´eresse dans ces notes aux solutions de viscosit´e d’´equations d’ordre 1 ou 2 dites “elliptiques” ou “paraboliques”. Les ´equations elliptiques ont la forme g´en´erale H(x, u(x), Du(x), D2 u(x)) = 0 x ∈ Ω

(1)

o` u Ω est un ouvert de IRN donn´e, u : Ω → IR est l’inconnue, Du(x) et D2 u(x) d´esignant le gradient et la matrice hessienne de u au point x et o` u H : Ω×IR ×IRN ×SN → IR est une application donn´ee (SN d´esignant l’ensemble des matrices sym´etriques de format N × N ). Nous supposerons syst´ematiquement par la suite que l’´equation est elliptique, c’est-` a-dire que la fonction H = H(x, s, p, X) est d´ecroissante par rapport `a la matrice X. L’´equation peut ˆetre d´eg´en´er´ee : nous ne supposerons pas en g´en´eral que H est “strictement” d´ecroissante par rapport ` a X. En particulier, H peut tr`es bien ne pas d´ependre du tout de X, l’´equation devenant alors d’ordre 1. Dans le cas parabolique, l’´equation prend la forme (2)

ut (t, x) + H(t, x, u(t, x), Du(t, x), D2 u(t, x)) = 0 (t, x) ∈]0, T [×Ω

o` u Ω est un ouvert de IRN donn´e, u :]0, T [×Ω → IR est l’inconnue, ut (t, x) d´esigne la d´eriv´ee partielle de u par rapport ` a t, Du(t, x) et D2 u(t, x) ´etant le gradient et la matrice hessienne de u par rapport `a la variable x. Enfin, H :]0, T [×Ω × IR × IRN × SN → IR. Comme pour le cas elliptique, nous supposerons toujours que H = H(t, x, s, p, X) est d´ecroissante par rapport `a X (H sera dite elliptique), mais pas forc´ement “strictement d´ecroissante”. Les ´equations elliptiques et paraboliques non lin´eaires que nous ´etudierons dans ces notes interviennent dans de nombreux domaines des math´ematiques. L’´etude des solutions de viscosit´e a ´et´e particuli`erement motiv´ee par la th´eorie du contrˆ ole optimal et des propagations d’interfaces. Nous poursuivons cette introduction par quelques exemples de telles ´equations.

1.1

L’´ equation eikonale

Consid´erons d’abord un exemple typique d’´equation elliptique tr`es d´eg´en´er´ee qu’est l’´equation eikonale : kDu(x)k = 1

x∈Ω

o` u Ω est un ouvert de IRN et k · k est la norme euclidienne usuelle. C’est une ´equation du premier ordre, qui peut ˆetre vue comme une ´equation elliptique de la forme (1) en posant H(x, s, p, X) = kpk − 1

∀(x, s, p, X) ∈ Ω × IR × IRN × SN .

Pour fixer les id´ees on s’int´eressera plus particuli`erement au probl`eme de Dirichlet “homog`ene”  kDu(x)k = 1 pour x ∈ Ω (3) u(x) = 0 pour x ∈ ∂Ω et on supposera que Ω est born´e. Notons d’abord que ce probl`eme n’a pas de solution classique, c’est-`a-dire qu’il n’existe pas de fonction u ∈ C 1 (Ω) ∩ C 0 (Ω) solution de (3). En effet, comme Ω est born´e et que u est constant sur ∂Ω, la fonction u poss`ede forc´ement un point de maximum ou de minimum x0 dans Ω. Or en ce point, on doit avoir Du(x0 ) = 0, ce qui est en contradiction avec l’´equation. On s’attend donc a ` ce que l’´equation (3) poss`ede une solution g´en´eralis´ee, disons, vu l’´equation, dans W01,∞ (Ω). D’ailleurs, il est ` a peu pr`es imm´ediat que la fonction distance au bord de Ω, d´efinie par (4)

d∂Ω (x) = min ky − xk y∈∂Ω

3

est solution de (3) au sens presque partout. En effet, d∂Ω appartient `a W01,∞ (Ω), car c’est une fonction lipschitzienne, et une fonction de W01,∞ (Ω) est presque partout diff´erentiable (c’est le th´eor`eme de Rademacher, voir par exemple [9]). De plus, on montre sans difficult´e qu’un point x ∈ Ω est un point de diff´erentiabilit´e y−x de d∂Ω , si et seulement si, x poss`ede une unique projection y sur ∂Ω. Alors Dd∂Ω (x) = ky−xk et est donc de norme 1. Notons que −d∂Ω est ´egalement solution presque partout. Malheureusement, l’´equation (3) poss`ede en fait une infinit´e de solutions au sens presque partout. La meilleure fa¸con de s’en convaincre est de travailler dans IR, avec Ω =] − 1, 1[. On peut montrer, en utilisant le th´eor`eme de Baire, que l’ensemble des solutions presque partout de (3) est un Gδ −dense dans l’ensemble {w ∈ W01,∞ (Ω) | kDwk∞ ≤ 1} . Cet ensemble de solutions est donc particuli`erement gros. Pour le probl`eme d’EDP qui nous occupe, cette situation est tr`es d´esagr´eable. Elle peut cependant ˆetre utilis´ee pour construire des solutions pour des syst`emes d’´equations tr`es d´eg´en´er´ees, lorsque l’on ne se pr´eoccupe pas d’unicit´e. Voir en particulier la monographie de Dacorogna & Marcellini [8]. Nous verrons plus loin qu’un crit`ere possible de s´election des solutions est de demander `a la solution de v´erifier l’´equation “au sens viscosit´e”. Avec ce crit`ere, d∂Ω sera l’unique solution de viscosit´e de l’´equation (3).

1.2

Contrˆ ole optimal

L’´etude des ´equations elliptiques ou paraboliques non lin´eaires est motiv´ee en grande partie par des probl`emes de contrˆole optimal (voir en particulier les monographies [2] et [3] pour les probl`emes d´eterministes, et [10] et [16] pour les probl`emes stochastiques). Juste pour donner une id´ee du lien entre ces deux domaines, et montrer `a quelle type d’´equation on peut aboutir, nous d´ecrivons maintenant le probl`eme de Bolza. On consid`ere un syst`eme stochastique contrˆol´e de dynamique  dXt = f (t, Xt , αt )dt + σ(t, Xt , αt )dWt Xt0 = x0 o` u f : IR+ × IRN × A → IRN , σ : IR × IRN × A → IRN ×d , (Wt ) est un mouvement brownien standard d−dimensionnel sur une base stochastique (Ω, F, P ; (Fs,s∈[0,T ] )), et A est l’ensemble de contrˆole (typiquement un sous-ensemble d’un IRP ). Enfin, x0 ∈ IRN est la position initiale du syst`eme `a l’instant t0 . Le probl`eme est le suivant : le contrˆ oleur du syst`eme cherche `a minimiser, `a travers le choix du processus adapt´e (αt ) ` a valeurs dans A, le coˆ ut ! Z T

J(t0 , x0 , (αt )) = E

L(s, Xs , αs )ds + g(XT )

,

t0

o` u T est un temps final fix´e, L : [0, T ] × IRN × A → IR et g : IRN → IR. On associe alors au probl`eme la fonction valeur u, d´efinie par u(t0 , x0 ) = inf J(t0 , x0 , (αt )) , (αt )

o` u l’infimum est pris sur tous les processus adapt´es (αt ) `a valeurs dans A. Il se trouve que, lorsqu’elle est r´eguli`ere, la fonction v(t, x) = u(T − t, x), est solution de l’´equation parabolique (dite de Hamilton-Jacobi-Bellman) :  vt + H(t, x, Dv, D2 v) = 0 dans ]0, T [×IRN (5) v(0, x) = g(x) dans IRN avec

   1 T H(t, x, p, X) = sup − T r σ(t, x, a)σ (t, x, a)X − < f (t, x, a), p > −L(t, x, a) 2 a∈A 4

Cette ´equation est une ´equation parabolique de la forme (2), avec H d´ecroissante par rapport `a X. Lorsque cette ´equation est “uniform´ement elliptique”, on d´emontre, sous des hypoth`eses ad´equates, qu’elle poss`ede une solution r´eguli`ere v (voir par exemple [14]). Le “th´eor`eme de v´erification” affirme alors que la fonction valeur est li´ee ` a cette solution par la relation u(t, x) = v(T − t, x). En particulier, la fonction valeur est elle-mˆeme r´eguli`ere. Lorsque σ est d´eg´en´er´ee (un cas extrˆeme ´etant celui o` u σ = 0, l’´equation (5) ´etant alors du premier ordre) la fonction valeur n’est en g´en´eral plus que lipschitzienne, voire mˆeme seulement continue. L’´equation (5) doit ˆetre interpr´et´ee en un sens ad´equat : une d´efinition convenable se trouve ˆetre celle de solution de viscosit´e. Soulignons pour finir que, dans le cas du contrˆole optimal, H est convexe par rapport au couple (p, X). Cette structure est tr`es utile pour montrer la r´egularit´e des solutions quand l’´equation est uniform´ement elliptique (voir [5] et [14]). Par contre, lorsque l’on s’int´eresse `a la th´eorie des jeux diff´erentiels, le hamiltonien prend la forme    1 H(t, x, p, X) = sup inf − T r σ(t, x, a, b)σ T (t, x, a, b)X − < f (t, x, a, b), p > −L(t, x, a, b) 2 a∈A b∈B et n’est plus convexe par rapport ` a (p, X).

1.3

Approche par lignes de niveau des ´ equations g´ eom´ etriques

Un autre exemple d’´equation d´eg´en´er´ee est la classe d’´equations donn´ee par l’approche par lignes de niveau d’un probl`eme d’´evolution g´eom´etrique. Nous d´etaillons cette question dans le chapitre 7. Nous nous contentons de donner ici l’´equation obtenue pour le “mouvement par courbure moyenne”. Cette ´equation est le prototype d’´equation d´eg´en´er´ee et singuli`ere : ut − ∆u +

< D2 uDu, Du > =0. kDuk2

C’est bien une ´equation de la forme (2), avec H(t, x, p, X) = H(p, X) = −T r(X) +

< Xp, p > . kpk2

Cette ´equation est d´eg´en´er´ee, car, pour tout (p, X) ∈ IR∗N × SN , H(p, X + µppT ) = H(p, X) . De plus, H est manifestement discontinue en p = 0. L`a encore, une d´efinition satisfaisante de solution (pour laquelle on a des r´esultats d’existence, d’unicit´e et de stabilit´e) est donn´ee par la notion de solution de viscosit´e.

1.4

Quelques r´ ef´ erences sur les solutions de viscosit´ e

La notion de solution de viscosit´e a ´et´e introduite en 1981 par Crandall & Lions dans [6] pour traiter les ´equations d’Hamilton-Jacobi du premier ordre (par une une m´ethode de viscosit´e ´evanescente, d’o` u la terminologie). Les principales techniques pour l’´etude des ´equations du second ordre sont dues `a Jensen dans l’article [12] de 1988. La plupart des ´equations ´etudi´ees dans le cadre des solutions de viscosit´e sont issues de la th´eorie du contrˆole optimal (ou des jeux diff´erentiels). Dans ces domaines, la question de l’existence de solutions ne se pose g´en´eralement pas, puisqu’on sait ` a l’avance que la fonction-valeur doit ˆetre solution de l’´equation ; on s’int´eresse au contraire ` a la caract´erisation de la fonction valeur, `a sa stabilit´e, `a son approximation num´erique, ` a sa r´egularit´e. C’est pourquoi les principaux r´esultats de la th´eorie des solutions de viscosit´e sont des r´esultats d’unicit´e et de passage `a la limite, ces deux questions ´etant d’ailleurs indissociables. Les r´esultats d’unicit´e sont toujours obtenus par des “th´eor`emes de comparaison”, dont les techniques de 5

d´emonstration constituent le coeur de la th´eorie. Voici maintenant quelques r´ef´erences, dont les notes qui suivent se sont tr`es largement inspir´ees. Le livre de P.L. Lions [15], celui de Barles [3] et de Bardi & Capuzzo Dolcetta [2] sont consacr´es aux ´equations du premier ordre et—surtout pour le dernier—en relation avec la th´eorie du contrˆole optimal. Pour le second ordre, le “User Guide” de Crandall, Ishii & Lions [7] est une r´ef´erence incontournable ; une autre r´ef´erence g´en´erale est le polycopi´e de cours de Barles [4], disponible en ligne. L’ouvrage de Fleming & Soner [10] pr´esente les solutions de viscosit´e pour les probl`emes de contrˆole optimal stochastique (voir aussi [16]). Pour la partie sur les ´evolutions g´eom´etriques, nous nous sommes inspir´es des notes de cours d’Ambrosio [1]. Enfin, la derni`ere partie de ce polycopi´e est enti`erement emprunt´ee `a l’ouvrage de Caffarelli & Cabr´e [5] sur la r´egularit´e des solutions de viscosit´e d’´equations elliptiques.

6

2

D´ efinitions et propri´ et´ es ´ el´ ementaires

2.1

Le cas des ´ equations elliptiques

On s’int´eresse ici ` a une ´equation de la forme (6)

H(x, u(x), Du(x), D2 u(x)) = 0 x ∈ Ω

o` u Ω est un ouvert de IRN donn´e et H : Ω × IR × IRN × SN → IR. Dans toute la suite on supposera que H est “elliptique”, c’est-` a-dire que H est d´ecroissante par rapport `a la derni`ere variable : (7)

H(x, s, p, X) ≥ H(x, s, p, Y ) si X ≤ Y

∀(x, s, p, X, Y ) ∈ Ω × IR × IRN × SN × SN

(l’in´egalit´e X ≤ Y ´etant comprise au sens des matrices sym´etriques). D´ efinition 2.1 (Sous-solutions, sur-solutions, solutions) On dit qu’une fonction u : Ω → IR est soussolution de viscosit´e de (6) si u est semi-continue sup´erieurement (SCS) dans Ω et si, pour toute fonction-test φ ∈ C 2 (Ω) telle que u − φ a un maximum local en un point x0 ∈ Ω, on a H(x0 , u(x0 ), Dφ(x0 ), D2 φ(x0 )) ≤ 0 . Sym´etriquement, on dit qu’une fonction u : Ω → IR est sur-solution de viscosit´e de (6) si u est semicontinue inf´erieurement (SCI) dans Ω et si, pour toute fonction-test φ ∈ C 2 (Ω) telle que u − φ a un minimum local en un point x0 ∈ Ω, on a H(x0 , u(x0 ), Dφ(x0 ), D2 φ(x0 )) ≥ 0 . Enfin, u : Ω → IR est solution de viscosit´e de (6) si u est sous- et sur-solution de (6). Soulignons que, par d´efinition, une solution est toujours une fonction continue. Nous allons montrer que ces d´efinitions ont bien un sens lorsque u est de classe C 2 ; on remarquera dans la preuve que la condition d’ellipticit´e sur H est cruciale pour cela : Proposition 2.2 Soit u de classe C 2 dans Ω. Alors u est sous-solution de viscosit´e si et seulement si u v´erifie (8) H(x, u(x), Du(x), D2 u(x)) ≤ 0 ∀x ∈ Ω . Remarque : On v´erifie imm´ediatement que les assertions sym´etriques sont ´egalement vraies pour les sur-solutions et pour les solutions. Preuve : La condition est n´ecessaire, car, si u est sous-solution de viscosit´e, et si l’on prend comme fonction-test la fonction φ = u, alors u − u admet un maximum local en tout point x ∈ Ω, et donc (8) doit ˆetre v´erifi´e. La condition est ´egalement suffisante. En effet, si u v´erifie (8), alors pour toute fonction-test φ ∈ C 2 (Ω) telle que u − φ a un maximum local en un point x0 , on a, d’apr`es les conditions n´ecessaires d’optimalit´e, Du(x0 ) − Dφ(x0 ) = 0

et D2 u(x0 ) − D2 φ(x0 ) ≤ 0 .

Comme H(x0 , u(x0 ), Du(x0 ), D2 u(x0 )) ≤ 0 par hypoth`ese et comme H est elliptique (c’est-`a-dire v´erifie (7)), on en d´eduit que H(x0 , u(x0 ), Dφ(x0 ), D2 φ(x0 )) ≤ H(x0 , u(x0 ), Du(x0 ), D2 u(x0 )) ≤ 0 . QED

7

Exemple : Soit Ω =] − 1, 1[⊂ IR et H(x, s, p, X) = |p| − 1. Alors u(x) = 1 − |x| est solution de viscosit´e de |Du(x)| − 1 = 0 dans Ω. D’autre part, la fonction −u n’est pas solution de viscosit´e, alors qu’elle est solution au sens presque partout. Plus g´en´eralement, on montre que, si Ω est un ouvert de IRN , alors la fonction distance au bord de Ω, d∂Ω , d´efinie par (4), est solution de viscosit´e. Le lecteur pourra s’amuser `a chercher les cas o` u −d∂Ω est ´egalement solution de viscosit´e (Indication : remarquer que tous les points de Ω doivent avoir une unique projection sur ∂Ω). Nous allons maintenant montrer que la notion de solution de viscosit´e est “plus forte” que de demander que l’´equation (6) soit satisfaite en tout point o` u la fonction admet un d´eveloppement limit´e d’ordre 2. Lemme 2.3 On suppose ici que H est continue dans toutes ses variables. Soit u une sous-solution de viscosit´e de (6) admettant un d´eveloppement limit´e d’ordre 2 en un point x. Alors H(x, u(x), Du(x), D2 u(x)) ≤ 0. Remarque : Par “ u admet un un d´eveloppement limit´e d’ordre 2 en un point x” nous voulons dire qu’il existe un vecteur p ∈ IRN et une matrice X ∈ SN tels que u(y) = u(x)+ < p, y − x > +

1 < X(y − x), y − x > +ky − xk2 (y − x) . 2

Par abus de notation, nous noterons Du(x) = p et D2 u(x) = X. Preuve du lemme : Fixons  > 0. Alors, comme u admet un DL d’ordre 2 en x, la fonction y → u(y) − [u(x)+ < Du(x), y − x > + 12 (< (D2 u(x) + IN )(y − x), (y − x) >] poss`ede un maximum local en x. Donc H(x, u(x), Du(x), D2 u(x) + In ) ≤ 0. On obtient le r´esultat d´esir´e en laissant tendre  vers 0. QED Proposition 2.4 Soit u sous-solution de (6). Alors −u est sur-solution de ˜ H(x, u(x), Du(x), D2 u(x)) = 0

x∈Ω

o` u ˜ H(x, s, p, X) = −H(x, −s, −p, −X)

∀(x, s, p, X) ∈ Ω × IR × IRN × SN .

˜ est ´egalement elliptique. Remarque : On notera que H Preuve : Il est clair que −u est SCI. Soit φ ∈ C 2 telle que (−u) − φ a un minimum local en un point x0 de Ω. Alors u − (−φ) poss`ede un maximum local en x0 et donc, puisque u est sous-solution de (6), on a ˜ 0 , (−u)(x0 ), Dφ(x0 ), D2 φ(x0 )) = −H(x0 , u(x0 ), −Dφ(x0 ), −D2 φ(x0 )) ≥ 0 . H(x QED

2.2

Le cas d’une ´ equation parabolique

Pour la commodit´e de la lecture, nous r´ep´etons les d´efinitions de solutions de viscosit´e dans le cas d’une ´equation parabolique. On consid`ere un probl`eme de la forme (9)

ut (t, x) + H(t, x, u(t, x), Du(t, x), D2 u(t, x)) = 0

(t, x) ∈]0, T [×Ω

o` u Ω est un ouvert de IRN donn´e et H :]0, T [×Ω × IR × IRN × SN → IR. On supposera toujours que H est elliptique, c’est-` a-dire d´ecroissante par rapport `a cette derni`ere variable.

8

D´ efinition 2.5 (Sous-solutions, sur-solutions, solutions) On dit qu’une fonction u :]0, T [×Ω → IR est sous-solution de viscosit´e de (9) si u est SCS dans ]0, T [×Ω et si, pour toute fonction-test φ ∈ C 2 (]0, T [×Ω) telle que u − φ a un maximum local en un point (t0 , x0 ) ∈]0, T [×Ω, on a φt (t0 , x0 ) + H(t0 , x0 , u(t0 , x0 ), Dφ(t0 , x0 ), D2 φ(t0 , x0 )) ≤ 0 . Sym´etriquement, on dit qu’une fonction u :]0, T [×Ω → IR est sur-solution de viscosit´e de (9) si u est SCI dans ]0, T [×Ω et si, pour toute fonction-test φ ∈ C 2 (]0, T [×Ω) telle que u − φ a un minimum local en un point (t0 , x0 ) ∈]0, T [×Ω, on a φt (t0 , x0 ) + H(t0 , x0 , u(t0 , x0 ), Dφ(t0 , x0 ), D2 φ(t0 , x0 )) ≥ 0 . Enfin, u :]0, T [×Ω → IR est solution de viscosit´e de (9) si u est sous- et sur-solution de (9). On notera qu’une ´equation parabolique est juste une ´equation elliptique en N + 1 variables, d’un type un peu particulier. C’est pourquoi tous les r´esultats de la partie pr´ec´edente restent vrais pour les ´equations paraboliques, avec la mˆeme d´emonstration.

2.3

Stabilit´ e, passage ` a la limite

Soient Hn , H : Ω × IR × IRN × SN → IR des applications donn´ees. Th´ eor` eme 2.6 (Stabilit´ e) On suppose que (un ) est une suite de sous-solutions continues de (10)

Hn (x, u(x), Du(x), D2 u(x)) = 0

x∈Ω

qui converge uniform´ement vers une fonction u : Ω → IR dans tous les compacts de Ω et que (Hn ) converge uniform´ement vers H sur tous les compacts de Ω × IR × IRN × SN . Alors u est encore une sous-solution de (6). Remarque : Un r´esultat sym´etrique est aussi vrai pour les sur-solutions et pour les solutions. Noter qu’un tel r´esultat est assez ´etonnant, puisqu’il affirme que l’on peut passer `a la limite dans une ´equation avec seulement une hypoth`ese de convergence uniforme. La d´emonstration n´ecessite quelques remarques pr´eliminaires. Lemme 2.7 On peut remplacer “maximum local” (respectivement “minimum local”) par “maximum local strict” (resp. “minimum local strict”) dans la d´efinition de sous-solution (resp. sur-solution). Preuve : On ne fait la preuve que dans le cas des sous-solutions, le cas des sur-solutions pouvant ˆetre trait´e de fa¸con identique. On suppose que u est SCS et que, pour toute fonction-test φ ∈ C 2 telle que u−φ a un maximum local strict en un point x0 ∈ Ω, on a H(x0 , u(x0 ), Dφ(x0 ), D2 φ(x0 )) ≤ 0. Pour montrer que u est sous-solution, supposons que u−φ a un maximum local en un point x0 ∈ Ω. Posons φ1 (x) = φ(x)+kx−x0 k4 . Alors u − φ1 a un maximum local strict en x0 , et donc H(x0 , u(x0 ), Dφ1 (x0 ), D2 φ1 (x0 )) ≤ 0 par hypoth`ese. Or Dφ1 (x0 ) = Dφ(x0 ) et D2 φ1 (x0 ) = D2 φ(x0 ). D’o` u H(x0 , u(x0 ), Dφ(x0 ), D2 φ(x0 )) ≤ 0. QED Le lemme suivant est pratiquement ` a la base de tous les arguments de stabilit´e et de perturbation, et connaˆıtra de multiples variantes par la suite. Lemme 2.8 Si une fonction continue v : Ω → IR poss`ede un maximum local strict en un point x0 et si une suite de fonctions continues (vn ) converge localement uniform´ement vers v, alors il existe une suite (xn ), avec xn maximum local de vn , qui converge vers x0 .

9

Preuve : Puisque la fonction continue v poss`ede un maximum strict en x0 , il existe r > 0 tel que B2r (x0 ), la boule ouverte centr´ee en x0 et de rayon 2r, est contenue dans Ω, et telle que v(x0 ) = max v > Br (x0 )

max v . ∂Br (x0 )

Comme (vn ) converge localement uniform´ement vers v, il existe un indice n0 tel que vn (x0 ) > max∂Br (x0 ) vn pour tout n ≥ n0 . Mais alors vn poss`ede un maximum local en un point xn de Br (x0 ). Reste `a prouver que (xn ) converge vers x0 . Soit y un point d’adh´erence de la suite born´ee (xn ). Comme, pour tout z ∈ Br (x0 ), vn (xn ) ≥ vn (z), et comme vn converge localement uniform´ement vers v, on a, en passant `a la limite, v(y) ≥ v(z). Donc y est un point de maximum de v dans Br (x0 ), ce qui prouve que y = x0 puisque x0 est le seul point de maximum de v dans Br (x0 ). La suite born´ee (xn ) n’ayant qu’un seul point d’adh´erence, x0 , elle converge vers x0 . QED Preuve du th´ eor` eme 2.6 : Soit une fonction-test φ ∈ C 2 telle que u − φ poss`ede un maximum local strict en un point x0 . Alors, comme un − φ converge localement uniform´ement vers u − φ, il existe une suite (xn ) qui converge vers x0 , et telle que xn est un maximum de un − φ pour tout n. Comme un est une sous-solution de (10), on a Hn (xn , un (xn ), Dφ(xn ), D2 φ(xn )) ≤ 0. La suite (Hn ) convergeant localement uniform´ement vers H, on peut passer ` a la limite pour obtenir H(x0 , u(x0 ), Dφ(x0 ), D2 φ(x0 )) ≤ 0. QED On utilise g´en´eralement ce r´esultat de la fa¸con suivante. On consid`ere une suite de probl`emes—pour fixer les id´ees des probl`emes de Dirichlet par exemple :  Hn (x, u, Du, D2 u) = 0 dans Ω u = gn sur ∂Ω On suppose que (un ) sont des solutions de ces probl`emes, que les donn´ees au bord convergent uniform´ement, et que les Hn convergent localement uniform´ement vers une fonction H. Sous certaines hypoth`eses sur les (Hn ), on d´emontre que les (un ) sont localement uniform´ement continus (par exemple ´equi-Lipschitziens) dans Ω. On extrait une sous-suite convergente convergente vers une limite u. Le th´eor`eme 2.6 affirme alors que u est une solution de viscosit´e de  H(x, u, Du, D2 u) = 0 dans Ω u=g sur ∂Ω Le point-cl´e de la d´emonstration consiste ` a prouver que u est l’unique solution de cette ´equation. Nous nous attacherons par la suite ` a donner des hypoth`eses de structure sur H pour que ce soit bien le cas (voir les th´eor`emes de comparaison plus loin). Alors, toute sous-suite convergente de la suite (un ) convergera vers u, ce qui prouvera la convergence de la suite. En fait, pour obtenir le th´eor`eme 2.6 ainsi que faire la d´emarche d´ecrite au-dessus, l’hypoth`ese de convergence uniforme de un vers u est inutilement forte. On peut en effet se contenter d’une borne uniforme sur les solutions. Pour expliquer cela, nous introduisons la technique des “semi-limites relax´ees” de Barles & Perthame. Soit (un ) une suite de fonctions localement uniform´ement major´ees (resp. minor´ees) dans Ω. On d´efinit la semi-limite relax´ee sup´erieure (resp. inf´erieure) par u∗ (x) = lim sup un (xn )

∀x ∈ Ω

xn →x

(resp. u∗ (x) = lim inf un (xn ) xn →x

∀x ∈ Ω ) .

Il est ais´e de prouver que u∗ est SCS tandis que u∗ est SCI. Le th´eor`eme de stabilit´e 2.6 s’adapte tr`es bien `a ce type de convergence : 10

Th´ eor` eme 2.9 (Stabilit´ e par semi-limites relax´ ees) On suppose que (un ) est une suite de sous-solutions localement uniform´ement major´ees de (10), et que (Hn ) converge uniform´ement vers H sur tous les compacts de Ω × IR × IRN × SN . Alors u∗ est encore une sous-solution de (6). De mˆeme, si (un ) est une suite de sur-solutions localement uniform´ement minor´ees de (10), et si (Hn ) converge uniform´ement vers H sur tous les compacts de Ω×IR ×IRN ×SN , alors u∗ est encore une sur-solution de (6). La d´emonstration suit celle du th´eor`eme (2.6), `a condition de remplacer le lemme 2.8 par le lemme suivant, dont on laisse la preuve en exercice. Lemme 2.10 Si une fonction SCS v : Ω → IR poss`ede un maximum local strict en un point x0 et si (vn ) est une suite de fonctions SCS telle que v(x0 ) = lim supzn →x0 vn (zn ), alors il existe une suite (xn ), avec xn maximum local de vn , qui converge vers x0 et telle que (vn (xn )) tend vers v(x0 ).

11

3

Existence d’une solution par la m´ ethode de Perron

Nous expliquons dans cette partie comment construire une solution de viscosit´e d’une ´equation lorsque l’on en connait une sur- et une sous-solution et que l’on sait que l’´equation poss`ede un “principe de comparaison”. Cette m´ethode est connue sous le nom de m´ethode de Perron (voir [11]), et a ´et´e adapt´ee aux solutions de viscosit´e par Ishii. En fait, le proc´ed´e tr`es g´en´eral d´ecrit ici permet, pratiquement sans hypoth`ese, de construire des solutions “tr`es faibles” : des solutions dites discontinues. Dans cette partie, nous nous contentons de travailler dans le cas des ´equations elliptiques, l’adaptation au cas parabolique ´etant imm´ediate.

3.1

Solutions de viscosit´ e discontinues

Soit Ω un ouvert de IRN et u : Ω → IR une fonction. On appelle enveloppe SCS sup´ erieure la plus petite fonction SCS sup´erieure ` a u. Cette fonction est not´ee u∗ et est donn´ee par u∗ (x) = lim sup u(x0 ) . x0 →x

Sym´etriquement, on appelle enveloppe SCI inf´ erieure la plus grande fonction SCI inf´erieure `a u. Cette fonction est not´ee u∗ et est donn´ee par u∗ (x) = lim inf u(x0 ) . 0 x →x

Notons que u∗ = −(−u)∗ et qu’une fonction u est continue, si et seulement si, u∗ = u∗ . On s’int´eresse ` a nouveau `a l’´equation H(x, u(x), Du(x), D2 u(x)) = 0 x ∈ Ω

(11)

o` u, dans toute cette partie, Ω est un ouvert de IRN et H : Ω × IR × IRN × SN → IR est suppos´ee elliptique et continue. D´ efinition 3.1 On dit qu’une fonction u : Ω → IR est une solution de viscosit´e discontinue de (11) si u∗ est une sous-solution de (11) tandis que u∗ est une sur-solution de cette ´equation. Remarque : continue (!).

3.2

Il ne manque donc ` a une solution discontinue que la continuit´e pour ˆetre une solution

Suprema de sous-solutions

Soit (uα )α∈A une famille localement major´ee de fonctions de Ω dans IR. Posons u(x) = sup uα (x) . α∈A

Lemme 3.2 Supposons que, pour tout α ∈ A, (uα )∗ est une sous-solution de l’´equation (11). Alors u∗ est encore une sous-solution de (11). Preuve : Soit φ de classe C 2 telle que u∗ − φ poss`ede un maximum local strict en un point x0 ∈ Ω. Cela implique qu’il existe r > 0 et η > 0 tels que (u∗ − φ)(x0 ) ≥ max (u∗ − φ) + η . ∂Br (x0 )

(Rappelons que Br (x0 ) d´esigne la boule ouverte de centre x0 et de rayon r). Par d´efinition de u∗ , il existe une suite (xn ) qui converge vers x0 telle que u(xn ) tend vers u∗ (x0 ). De plus, par d´efinition de u, il existe αn ∈ A tel que uαn (xn ) ≥ u(xn ) − n1 . Notons alors que (uαn )∗ (xn ) tend vers u∗ (x0 ) puisque u∗ (x0 ) ≥ lim sup u∗ (xn ) ≥ lim sup(uαn )∗ (xn ) ≥ lim inf(uαn )∗ (xn ) ≥ lim inf uαn (xn ) ≥ lim u(xn ) = u∗ (x0 ) . 12

Donc, pour tout n assez grand, on a ((uαn )∗ − φ)(xn ) ≥ max ((uαn )∗ − φ) + η/2 , ∂Br (x0 )

ce qui prouve que (uαn )∗ − φ poss`ede un maximum local en un point yn de Br (x0 ). Comme (uαn )∗ est une sous-solution de (11), on a (12) H(yn , (uαn )∗ (yn ), Dφ(yn ), D2 φ(yn )) ≤ 0 . Reste `a prouver que (yn ) tend vers x0 et que (uαn )∗ (yn ) tend vers u∗ (x0 ). C’est en effet le cas car (u∗ − φ)(x0 ) ≥ (u∗ − φ)(yn ) ≥ ((uαn )∗ − φ)(yn ) ≥ ((uαn )∗ − φ)(xn ) avec le membre de droite de l’in´egalit´e qui tend vers (u∗ − φ)(x0 ). Donc toute valeur d’adh´erence de la suite born´ee (yn ) est ´egale ` a l’unique point de maximum de la fonction u∗ − φ dans Br (x0 ), c’est-`a-dire `a x0 . De plus, la s´erie d’in´egalit´es prouve aussi la convergence de (uαn )∗ (yn ) vers u∗ (x0 ). Par continuit´e de H, on peut alors passer `a la limite dans (12) pour obtenir l’in´egalit´e d´esir´ee : H(x0 , u∗ (x0 ), Dφ(x0 ), D2 φ(x0 )) ≤ 0 . QED

3.3

La m´ ethode de Perron

Nous d´ecrivons maintenant la m´ethode de Perron. Bien plus que le r´esultat–qui est assez formel–, il convient de retenir de cette partie la technique de construction d’une solution, expliqu´ee au d´ebut de la preuve. Th´ eor` eme 3.3 On suppose que u : Ω → IR est une sous-solution de (11) tandis que v : Ω → IR est une sur-solution de cette ´equation. On suppose de plus u ≤ v dans Ω. Alors il existe une solution de viscosit´e discontinue w : Ω → IR telle que u ≤ w ≤ v. Preuve : Soit E = {z : Ω → IR | z ∗ est une sous-solution de (11) et u ≤ z ≤ v} . Notons que E 6= ∅ puisque u ∈ E. Posons w(x) = sup z(x)

∀x ∈ Ω .

z∈E

Nous allons montrer que w est bien la solution cherch´ee. Remarquons d’abord que w ∈ E puisque u ≤ w ≤ v et w∗ est une sous-solution de (11) grˆace au lemme 3.2. Reste `a prouver que w∗ est une sur-solution de (11). Pour cela on raisonne par l’absurde en supposant qu’il existe un point x0 ∈ Ω et une fonction-test φ ∈ C 2 tels que w∗ − φ a un minimum local strict en x0 et (13)

H(x0 , w∗ (x0 ), Dφ(x0 ), D2 φ(x0 )) < 0 .

Quitte `a remplacer φ par φ − φ(x0 ) + w∗ (x0 ), on peut supposer que φ(x0 ) = w∗ (x0 ). Montrons d’abord que w∗ (x0 ) < v(x0 ). En effet, sinon, comme w ≤ v, cela impliquerait que w∗ (x0 ) = v(x0 ) et donc que v − φ poss`ederait un minimum local en x0 . Mais alors (13) contredirait l’hypoth`ese que v est une sur-solution de (11). Donc w∗ (x0 ) < v(x0 ). Choisissons maintenant r > 0 et  > 0 tels que Br (x0 ) ⊂ Ω et i) H(x, φ(x) + , Dφ(x), D2 φ(x)) ≤ 0

∀x ∈ Br (x0 )

(ce qui est possible d’apr`es (13) et par continuit´e de H) 13

ii) (w∗ − φ)(x) > 

∀x ∈ ∂Br (x0 ) .

(ce qui est possible car w∗ − φ poss`ede un minimum local strict en x0 et φ(x0 ) = w∗ (x0 )) iii) φ(x) < v(x) − 

∀x ∈ Br (x0 )

(ce qui est possible puisque v est SCI et φ(x0 ) = w∗ (x0 ) < v(x0 )) On pose  z(x) =

w(x) si x ∈ Ω\Br (x0 ) max{w(x), φ(x) + } si x ∈ Br (x0 )

On affirme que z ∈ E. En effet, d’apr`es (iii), z ≤ v. De plus, u ≤ w ≤ z, et donc u ≤ z ≤ v. Montrons que z ∗ est une sous-solution de (11). Soit ψ une fonction-test telle que z ∗ − ψ poss`ede un maximum local en un point x1 ∈ Ω. Si z ∗ (x1 ) = w∗ (x1 ), alors w∗ − ψ poss`ede aussi un maximum local en x1 , et donc H(x1 , z ∗ (x1 ), Dψ(x1 , D2 ψ(x1 )) ≤ 0 puisque w∗ est sous-solution. Supposons maintenant que z ∗ (x1 ) > w∗ (x1 ). Alors, d’apr`es la d´efinition de z, on a x1 ∈ Br (x0 ). Notons que, dans Br (x0 ), z ∗ = max{w∗ , φ + }. Donc z ∗ (x1 ) = φ(x1 ) + , et (ii) implique que x1 ∈ Br (x0 ). Par cons´equent, φ +  − ψ poss`ede un maximum local en x1 , ce qui entraˆıne que Dφ(x1 ) = Dψ(x1 ) et

D2 φ(x1 ) ≤ D2 ψ(x1 ) .

D’apr`es (i) et l’ellipticit´e de H, on aura alors 0 ≥ H(x1 , φ(x1 ) + , Dφ(x1 ), D2 φ(x1 )) ≥ H(x1 , z ∗ (x1 ), Dψ(x1 ), D2 ψ(x1 )) . Nous avons donc prouv´e que z ∗ est une sous-solution de (11), et que z ∈ E. Prouvons finalement que z 6= w. Soit (xn ) une suite qui converge vers x0 et telle que w(xn ) tend vers w∗ (x0 ). Alors z(xn ) ≥ φ(xn ) + . De plus (φ(xn ) + ) converge vers φ(x0 ) + , avec φ(x0 ) +  > w∗ (x0 ). Donc, pour n assez grand, z(xn ) > w(xn ). Nous avons donc prouv´e que z ∈ E, z ≥ w et z 6= w. Ceci est en contradiction avec la construction mˆeme de w. L’hypoth`ese de d´epart (13) est donc impossible. Ceci montre que w est une sur-solution, et donc une solution, de (11). QED

3.4

Existence d’une solution de viscosit´ e continue

Afin de r´ecup´erer la continuit´e de la solution, nous allons supposer que l’´equation v´erifie un principe de comparaison : D´ efinition 3.4 On dit que l’´equation (11) v´erifie un principe de comparaison dans Ω si, pour toute soussolution u et pour toute sur-solution v de (11), si u ≤ v dans ∂Ω, alors u ≤ v dans Ω. Remarque : Dans toute la suite, l’in´egalit´e u ≤ v dans ∂Ω signifie par abus de notation : lim sup u(x0 ) ≤ x0 →x , x0 ∈Ω

lim inf

x0 →x , x0 ∈Ω

v(x0 )

∀x ∈ ∂Ω .

Nous ´etudions maintenant le probl`eme de Dirichlet pour l’´equation (11). Soit g : ∂Ω → IR une fonction continue. Corollaire 3.5 Supposons que l’´equation (11) v´erifie un principe de comparaison dans Ω. Supposons ´egalement qu’il existe deux applications u et v telles que • u est une sous-solution de (11) et lim

u(x0 ) = g(x)

∀x ∈ ∂Ω

lim

v(x0 ) = g(x)

∀x ∈ ∂Ω

x0 →x , x0 ∈Ω

• v est une sur-solution de (11) et x0 →x , x0 ∈Ω

14

Alors il existe une unique solution de viscosit´e w de l’´equation (11) telle que w = g dans ∂Ω. Autrement dit, le probl`eme de Dirichlet  H(x, u(x), Du(x), D2 u(x)) = 0 x ∈ Ω u=g x ∈ ∂Ω poss`ede une unique solution de viscosit´e. Preuve : Par la m´ethode de Perron, on construit une solution discontinue w telle que u ≤ w ≤ v. Montrons d’abord que w∗ = w∗ = g sur le bord de Ω. En effet, pour tout x ∈ ∂Ω, on a g(x) =

lim

x0 →x , x0 ∈Ω

u(x0 ) ≤

lim inf

x0 →x , x0 ∈Ω

w(x0 ) ≤ w∗ (x) ≤ w∗ (x) ≤ lim sup w(x0 ) ≤ x0 →x , x0 ∈Ω

lim

x0 →x , x0 ∈Ω

v(x0 ) = g(x) .

D’o` u w∗ = w∗ sur ∂Ω. Comme w∗ est une sur-solution tandis que w∗ est une sous-solution, et comme w∗ = w∗ sur ∂Ω, le principe de comparaison affirme que w∗ ≥ w∗ . L’in´egalit´e inverse ´etant toujours vraie, cela prouve que w∗ = w∗ , et donc que w est en fait une solution de viscosit´e continue. L’unicit´e est une cons´equence directe du principe de comparaison car, si w1 et w2 sont deux solutions du probl`eme de Dirichlet, alors w1 = w2 sur le bord de Ω, et, comme w1 est une sous-solution et w2 une sur-solution, on a w1 ≤ w2 . L’in´egalit´e inverse est obtenue en intervertissant les rˆoles de w1 et w2 . QED

15

4

Preuve du principe de comparaison pour le premier ordre

Nous avons vu dans les parties pr´ec´edentes le rˆole central jou´e par le principe de comparaison pour prouver la stabilit´e et l’existence de solutions. Dans les trois parties qui suivent, nous ´etudions des conditions sous lesquelles une ´equation v´erifie un tel principe de comparaison. Nous commen¸cons par expliquer comment un tel principe se d´emontre, d’abord dans le cas des ´equations du premier ordre, puis, au chapitre suivant, dans le cas des ´equations du second ordre. Nous compl´eterons cette ´etude par un bref survol des r´esultats de comparaison classiques. Dans cette (courte) partie, nous d´emontrons le principe de comparaison pour l’´equation du premier ordre (14)

H(x, u(x), Du(x)) = 0

x∈Ω

o` u Ω est un ouvert born´e et o` u H : Ω × IR × IRN → IR satisfait les hypoth`eses suivantes : il existe des constantes γ > 0 et C ≥ 0 telles que i) H(x, s1 , p) − H(x, s2 , p) ≥ γ(s1 − s2 )

t≥s

si

∀(x, s1 , s2 , p) ∈ Ω × IR × IR × IRN

∀(x, y, s, p) ∈ Ω × Ω × IR × IRN

ii) |H(x, s, p) − H(y, s, p)| ≤ C(1 + |p|)|y − x| Voici le r´esultat que nous allons d´emontrer :

Th´ eor` eme 4.1 Si u est une sous-solution de (14) et v une sur-solution de (14), et si u ≤ v dans ∂Ω, alors u ≤ v dans Ω. Remarque : Nous verrons au chapitre 6 comment cet ´enonc´e–plutˆot rudimentaire–se g´en´eralise `a un grand nombre de situations. L’int´erˆet de cette partie est la d´emonstration du th´eor`eme 4.1, qui contient plusieurs arguments que l’on retrouve dans toutes les preuves de principes de comparaison. Preuve du th´ eor` eme 4.1 : La d´emonstration d’un principe de comparaison se fait (presque toujours) par l’absurde. On suppose donc qu’il existe un point x ∈ Ω tel que u(x) > v(x). On consid`ere alors M = sup(u − v)(x) > 0 . x∈Ω

Notons que le sup est en fait un max puisque l’ouvert Ω est born´e, que la fonction u − v est SCS et n´egative sur le bord de Ω. Remarquons ´egalement que, si u et v sont des fonctions r´eguli`eres (de classe C 1 par exemple), la d´emonstration est pratiquement imm´ediate. En effet, en tout point x0 de maximum de u − v, on a Du(x0 ) = Dv(x0 ) et u(x0 ) > v(x0 ). Or u et v ´etant respectivement sous- et sur-solution, cela implique que 0 ≥ H(x0 , u(x0 ), Du(x0 )) − H(x0 , v(x0 ), Dv(x0 )) ≥ γ(u(x0 ) − v(x0 )) d’apr`es l’hypoth`ese (i), ce qui est absurde. La seule difficult´e du r´esultat est donc que les fonctions u et v ne sont pas r´eguli`eres. Afin de surmonter cette difficult´e, nous introduisons maintenant la m´ethode de d´edoublement des variables. Cette technique, qui apparaˆıt dans toutes les d´emonstrations de th´eor`emes de comparaison, est directement issue d’un travail de Kruzkov sur les lois de conservations [13]. Pour tout  > 0, on pose w (x, y) = u(x) − v(y) −

1 |x − y|2 2

(x, y) ∈ Ω × Ω .

Notons que w est SCS dans Ω × Ω. Nous la prolongeons `a Ω × Ω en posant w (x, y) =

lim sup

w (x0 , y 0 )

∀(x, y) ∈ (Ω × Ω)\(Ω × Ω) .

(x0 ,y 0 )→(x,y) , (x0 ,y 0 )∈Ω×Ω

Le lemme suivant affirme que la fonction w , au voisinage de son maximum et lorsque  → 0+ , se comporte comme la fonction u − v. 16

Lemme 4.2 Soit (x , y ) un maximum de w dans Ω × Ω. Alors 1. lim→0+ w (x , y ) = M , 2. lim→0+ 2 |x − y |2 = 0 3. Il existe θ > 0 et 0 > tels que, pour tout  ∈]0, 0 [, d∂Ω (x ) ≥ θ et d∂Ω (y ) ≥ θ. Preuve du lemme : Posons M = maxΩ×Ω w = w (x , y ). D’apr`es la d´efinition de w , M croˆıt avec , et M ≥ M . Comme Ω est born´e, que u et v sont respectivement SCS et SCI dans Ω, u est major´e tandis que v est minor´e dans Ω. Soit K une constante telle que u ≤ K et v ≥ −K dans Ω. Notons que 1 1 M ≤ M = u(x ) − v(y ) − 2 |x − y |2 ≤ 2K − 2 |x − y |2 .   Cela prouve que 12 |x − y |2 est born´e, et donc que x − y tend vers 0 lorsque  → 0+ . Soit x une valeur d’adh´erence commune ` a x et y . On a (15) M ≤ lim inf M ≤ lim sup M ≤ lim sup[u(x ) − v(y )] ≤ u(x) − v(x) ≤ M , + →0

→0+

→0+

puisque u est SCS et v est SCI. Nous venons donc de prouver que M tend vers M . De plus, toute valeur d’adh´erence de la suite (x , y ) est de la forme (x, x), avec x maximum de u − v. En particulier, x ∈ Ω. Par compacit´e, cela implique l’existence d’un r´eel θ > 0 tel que d∂Ω (x ) ≥ θ et d∂Ω (y ) ≥ θ pour tout  > 0 assez petit. Enfin, la s´erie d’in´egalit´es (15) prouve aussi que u(x ) tend vers u(x), tandis que v(y ) tend vers v(x). Donc, comme M = u(x ) − v(y ) − 12 |x − y |2 tend vers M = u(x) − v(x), le terme 12 |x − y |2 tend n´ecessairement vers 0. QED Preuve du th´ eor` eme : Comme la fonction w a un maximum au point (x , y ) ∈ Ω×Ω, la fonction x → u(x) − [v(y ) + 12 |x − y |2 ] a un maximum au point x . En utilisant la fonction-test φ(x) = v(y ) + 12 |x − y |2 , et le fait que u est une sous-solution de (14), on obtient (16)

H(x , u(x ),

De mˆeme, la fonction y → v(y) − [u(x ) − sur-solution,

1 2 |y

2 (x − y )) ≤ 0 . 2

− x |2 ] a un minimum en y , et donc, comme v est une

2 (x − y )) ≥ 0 . 2 On fait la diff´erence entre (16) et (17) et on utilise l’hypoth`ese (i) pour parvenir `a (17)

H(y , v(y ),

0 ≥ H(x , u(x ), 22 (x − y )) − H(y , v(y ), 22 (x − y )) ≥ γ(u(x ) − v(y )) + H(x , v(y ), 22 (x − y )) − H(y , v(y ), 22 (x − y )) ≥ γM − C(1 + 22 |x − y |)|x − y | Lorsque  → 0+ , on obtient, grˆ ace au lemme, que 0 ≥ γM , ce qui est impossible. QED

17

5

Preuve du principe de comparaison pour le second ordre

Cette partie est consacr´ee ` a la d´emonstration du principe de comparaison pour le probl`eme elliptique (18)

H(u(x), Du(x), D2 u(x)) = 0

x∈Ω

Nous suivons ici (pratiquement) la preuve originale de Jensen [12]. Nous mettrons ainsi en ´evidence les principales techniques employ´ees dans le cas du second ordre : p´enalisation, r´egularisation par inf- et supconvolution, conditions n´ecessaires d’optimalit´e pour les fonctions semi-convexes. Lorsque, dans le chapitre suivant, nous reviendrons ` a des ´enonc´es plus g´en´eraux du principe de comparaison, ces id´ees seront cach´ees dans le “lemme matriciel” d’Ishii. Dans toute cette partie, nous supposerons que Ω est un sous-ensemble ouvert et born´e de IRN , que H est elliptique et continue, et qu’il existe γ > 0 tel que (19)

H(t, p, X) − H(s, p, X) ≥ γ(t − s) si t > s

∀(s, t, p, X) ∈ IR × IR × IRN × SN .

Rappelons d’abord le th´eor`eme que nous allons prouver : Th´ eor` eme 5.1 Si u et v sont respectivement une sous- et une sur-solution de (18), et si u ≤ v dans ∂Ω, alors u ≤ v dans Ω. La d´emonstration d´ebute exactement comme la d´emonstration dans le premier ordre. On raisonne par l’absurde, en supposant qu’il existe un point x tel que u(x) > v(x). On consid`ere alors M := sup(u − v)(x) > 0 . x∈Ω

Puis, comme dans le premier ordre, on introduit un d´edoublement de variables : w (x, y) = u(x) − v(y) −

1 kx − yk2 . 2

Le lemme 4.2 du chapitre pr´ec´edent affirme alors que, pour  > 0 assez petit, on peut trouver un point de maximum (x , y ) de w dans Ω × Ω, et que w (x , y ) converge vers M . Essayons de poursuivre la d´emonstration comme dans le premier ordre : comme la fonction x → u(x) − [v(y ) + 12 kx − y k2 ] poss`ede un maximum en x , on se sert de la fonction φ(x) = v(y ) + 12 kx − y k2 comme fonction-test pour obtenir, puisque u est sous-solution, (20)

H(u(x ),

2 2 (x − y ), 2 IN ) ≤ 0 . 2 

Sym´etriquement, la fonction y → v(y) − [u(x ) − 12 ky − x k2 ] poss`ede un minimum en y , et donc, comme v est sur-solution, 2 2 (21) H(v(y ), 2 (x − y ), − 2 IN ) ≥ 0 .   Contrairement ` a ce qui se passe dans le premier ordre, faire la diff´erence entre (20) et (21) ne donne rien : il est impossible de se d´ebarrasser du terme d’ordre 2. L’id´ee centrale de la d´emonstration de Jensen est de r´egulariser les fonctions u et v de sorte que celles-ci deviennent “presque” 2 fois d´erivables. La bonne r´egularisation est ici l’inf- et la sup-convolution, et la r´egularit´e obtenue est la semi-convexit´e. Nous discutons de ces notions dans les parties suivantes, avant de compl´eter la preuve du th´eor`eme.

18

5.1

Semi-convexit´ e

D´ efinition 5.2 On dit qu’une fonction w est semi-convexe dans un ouvert Ω ⊂ IRN s’il existe une constante M ≥ 0 telle que, pour tout x, y ∈ Ω, tel que [x, y] ⊂ Ω, on a w(λx + (1 − λ)y) ≤ λw(x) + (1 − λ)w(y) + M λ(1 − λ)kx − yk2

∀λ ∈ [0, 1] .

Une fonction w est semi-concave si −w est semi-convexe. Lorsque w est semi-convexe, toute constante M v´erifiant l’in´egalit´e ci-dessus est appel´ee “constante de semi-convexit´e”. Lorsque M = 0, on retrouve naturellement la notion classique de convexit´e. Remarquons le lien suivant avec la convexit´e, dont la d´emonstration est imm´ediate : Lemme 5.3 Une fonction w est semi-convexe de constante M dans un ouvert Ω, si et seulement si, la fonction x → w(x) + M kxk2 est convexe dans Ω. En particulier la sommee de deux fonctions semi-convexes est semi-convexe. (Par convexe dans Ω, nous voulons dire : convexe dans tous les sous-ensembles convexes de Ω) Nous aurons besoin plus loin du th´eor`eme d’Alexandrov, qui affirme qu’une fonction convexe (ou semiconvexe) est deux fois d´erivable presque partout. Th´ eor` eme 5.4 (Alexandrov) Soit w une fonction semi-convexe de constante M dans un ouvert Ω. Alors il existe un ensemble n´egligeable (pour la mesure de Lebesgue) A tel que, pour tout x ∈ Ω\A, w poss`ede un DL d’ordre 2 en x, i.e, il existe (p, X) ∈ IRN × SN tel que w(y) = w(x)+ < p, y − x > +

1 < X(y − x), (y − x) > +o(ky − xk2 ) 2

De plus X ≥ −2M IN . Voir par exemple [9]. Par abus de notation, nous noterons toujours Dw(x) = p et D2 w(x) = X. La cl´e de la preuve du th´eor`eme de comparaison est le th´eor`eme 5.5 suivant, appel´e “principe du maximum de Jensen”. Afin d’´enoncer ce r´esultat, nous devons introduire quelques notations. Soit w une fonction semiconvexe de constante M dans une boule ouverte Br (x0 ) (de centre x0 ∈ IRN et de rayon r > 0), continue dans la boule ferm´ee Br (x0 ). On suppose que α := w(x0 ) − max w > 0 . ∂Br (x0 )

Pour tout δ > 0, on pose (22)

Eδ = {x ∈ Br (x0 ) | ∃p ∈ IRN , kpk ≤ δ, w(y) ≤ w(x)+ < p, y − x >

∀y ∈ Br (x0 )} .

Notons que si x ∈ Eδ et si w poss`ede un DL d’ordre 2 en x, alors (23)

kDw(x)k ≤ δ ,

D2 w(x) ≤ 0 et

w(y) ≤ w(x)+ < Dw(x), y − x >

∀y ∈ Br (x0 ) .

En effet, comme x ∈ Eδ , il existe p ∈ IRN tel que kpk ≤ δ et w(y) = w(x)+ < Dw(x), y − x > +

1 < D2 w(x)(y − x), (y − x) > +o(ky − xk2 ) ≤ w(x)+ < p, y − x > 2

pour tout y ∈ Br (x0 ). Ceci implique que p = Dw(x) et D2 w(x) ≤ 0, et les relations (23) s’ensuivent imm´ediatement. Th´ eor` eme 5.5 Pour tout δ ∈]0, αr [, l’ensemble Eδ a une mesure strictement positive. Plus pr´ecis´ement, |Eδ | ≥

ωN δN (2M )N

∀δ ∈]0,

α [, r

o` u |Eδ | d´esigne la mesure de Lebesgue de Eδ , ωN le volume de la boule unit´e de IRN . 19

Mentionnons tout de suite pourquoi ce r´esultat nous int´eresse. Corollaire 5.6 Si une fonction semi-convexe w poss`ede un maximum local strict en un point x0 , alors il existe une suite de points (xn ) qui converge vers x0 , telle que w poss`ede un DL d’ordre 2 en xn , avec Dw(xn ) → 0

et

D2 w(xn ) ≤ 0 .

Preuve : Puisque x0 est un point de maximum strict de w, il existe r > 0 tel que x0 est l’unique point de maximum de w dans Br (x0 ). Posons α = maxx∈∂Br (x0 ) (w(x0 ) − w(x)) > 0. Pour δ > 0, d´efinissons Eδ par (22). Soit A un ensemble de mesure nulle tel que w poss`ede un DL d’ordre 2 en tout point n’appartenant pas `a A. Pour tout n > 0, il existe xn ∈ E1/n \A car E1/n est de mesure positive et A de mesure nulle. D’apr`es (23), on a que kDw(xn )k ≤ 1/n, D2 w(xn ) ≤ 0 et w(y) ≤ w(xn )+ < Dw(xn ), y − xn >

∀y ∈ Br (x0 ) .

Cette derni`ere relation implique que, lorsque n → +∞, toute valeur d’adh´erence de la suite born´ee (xn ) converge vers un maximum de w sur Br (x0 ). Or x0 est l’unique point de maximum de w dans Br (x0 ), ce qui prouve que (xn ) tend vers x0 . QED Il sera utile par la suite de relaxer l’hypoth`ese de maximum “strict” : Corollaire 5.7 Si une fonction semi-convexe w poss`ede un maximum local en un point x0 , alors il existe une matrice X ∈ SN et une suite de points (xn ) qui converge vers x0 , telles que w poss`ede un DL d’ordre 2 en xn , avec Dw(xn ) → 0 et D2 w(xn ) → X ≤ 0 . Preuve : On applique le corollaire pr´ec´edent `a la fonction semi-convexe wk (x) = w(x) − k1 kx − x0 k2 qui poss`ede un maximum local strict en x0 : il existe une suite de points xnk qui converge vers x0 lorsque n → +∞, et telle que wk poss`ede un DL d’ordre 2 en xnk , avec Dwk (xnk ) → 0 et D2 wk (xnk ) ≤ 0. Alors w poss`ede aussi un DL d’ordre 2 en xnk , et Dw(xnk ) = Dwk (xnk ) + k2 (xnk − x0 ) → 0 tandis que D2 w(xnk ) ≤ k2 In . Comme, par semi-convexit´e, D2 wk (xnk ) ≥ −2M In , la suite (D2 w(xnk )) est born´ee. On utilise maintenant un proc´ed´e diagonal pour trouver une matrice X ∈ SN et une suite (xk = xnk k ) qui converge vers x0 , telle que w poss`ede un DL d’ordre 2 en xk , avec Dw(xk ) → 0

et

D2 w(xk ) → X ≤ 0 . QED 2

Preuve du th´ eor` eme 5.5 : Supposons dans un premier temps que w est de classe C . L’hypoth`ese de semi-convexit´e se traduit alors par D2 w(x) ≥ −2M IN pour tout x ∈ Br (x0 ). Soit x ∈ Eδ . Comme w est de classe C 2 , les relations (23) donnent que kDw(x)k ≤ δ. En particulier, Dw(Eδ ) ⊂ Bδ (0). Nous affirmons que, pour δ ∈]0, αr [, Dw(Eδ ) = Bδ (0). En effet, soit δ ∈]0, αr [, p ∈ IRN , kpk ≤ δ. Consid´erons un point de maximum x de la fonction y → w(y)− < p, y > dans Br (x0 ). Si on avait x ∈ ∂Br (x0 ), alors 0 ≤ (w(x)− < p, x >) − (w(x0 )− < p, x0 >) ≤ −α + kpkkx − x0 k ≤ −α + δr ce qui est impossible puisque δ < α/r. Donc x ∈ Br (x0 ) et la fonction y → w(y)− < p, y > poss`ede un maximum en x, et donc x ∈ Eδ . Ceci entraˆıne que Dw(x) = p, et donc que p ∈ Dw(Eδ ). Nous avons donc montr´e que Dw(Eδ ) = Bδ (0), pour tout δ ∈]0, αr [, . Comme w est de classe C 2 dans Br (x0 ), on applique le th´eor`eme de l’aire (Voir [9] par exemple) pour obtenir, Z ωN δ N = |Bδ (0)| = |Dw(Eδ )| ≤

|det(D2 w(x))|dx .



Or, pour tout x ∈ Eδ , −2M IN ≤ D2 w(x) ≤ 0. Donc |det(D2 w(x))| ≤ (2M )N , ce qui donne ωN δ N ≤ |Eδ |(2M )N . 20

En conclusion, |Eδ | ≥ ωN δ N /(2M )N , ce qui est le r´esultat d´esir´e lorsque w est de classe C 2 . On revient maintenant au cas g´en´eral, o` u w est continue dans Br (x0 ) et semi-convexe dans Br (x0 ) de constante M . Fixons r0 ∈]0, r[ suffisament proche de r pour que α0 = w(x0 ) − max w > 0 . ∂Br0 (x0 )

On r´egularise de classe C ∞ , positive et `a support dans la boule unit´e, R w par convolution : soit φ une fonction N et telle que φ = 1. Posons φ (x) = φ(x/)/ . Pour tout  < r − r0 , on d´efinit w = w ∗ φ . Alors w est semi-convexe de constante M car, pour tout x, y ∈ Br0 (x0 ) et pour tout λ ∈ [0, 1], on a R w (λx + (1 − λ)y) = R w(λ(x − z) + (1 − λ)(y − z))φ (z)dz ≤ [λw(x − z) + (1 − λ)w(y − z) + M λ(1 − λ)kx − yk2 ]φ (z)dz = λw (x) + (1 − λ)w (y) + M λ(1 − λ)kx − yk2 . Comme w converge uniform´ement vers w dans Br0 (x0 ), α := w (x0 ) − max∂Br0 (x0 ) w tend vers α0 qui est strictement positif. Donc α est strictement positif pour tout  > 0 suffisament petit, et on peut appliquer `a w le r´esultat de la premi`ere partie : si on pose Eδ, = {x ∈ Br0 (x0 ) | ∃p ∈ IRN , kpk ≤ δ, w (y) ≤ w (x)+ < p, y − x >

∀y ∈ Br0 (x0 )} ,

on a |Eδ, | ≥ ωN δ N /(2M )N pour tout δ ∈]0, αr0 [. On affirme maintenant que (24)

\[

Eδ, n1 ⊂ Eδ0 := {x ∈ Br (x0 ) | ∃p ∈ IRN , kpk ≤ δ, w(y) ≤ w(x)+ < p, y − x > ∀y ∈ Br0 (x0 )}

k n≥k

T S En effet, soit x ∈ k n≥k Eδ, n1 . Pour tout k > 0, il existe n ≥ k et pn ∈ IRN tel que kpn k ≤ δ et w1/n (y) ≤ w1/n (x)+ < pn , y − x > pour tout y ∈ Br0 (x0 ). On peut extraire une sous-suite de (pn ) qui converge vers un certain p tel que kpk ≤ δ, et on a alors w(y) ≤ w(x)+ < p, y − x > pour tout y ∈ Br0 (x0 ), puisque w1/n tend uniform´ement vers w. Donc (24) est prouv´e. De (24) on d´eduit que α0 |Eδ0 | ≥ ωN δ N /(2M )N ∀δ ∈]0, 0 [ . r 0 0 Lorsque r → r, Eδ tend en d´ecroissant vers Eδ , et donc on a le r´esultat voulu puisque α0 → α. QED

5.2

Inf- et sup-convolutions

Soit K un sous-ensemble compact de IRN et u : K → IR une application SCS sur K. Pour tout α > 0, on d´efinit la sup-convolution uα de u comme uα (x) = sup{u(y) −

1 kx − yk2 α

| y ∈ K}

∀x ∈ K .

De mˆeme, si v : K → IR est SCI, alors on d´efinit l’inf-convolution de v par, pour tout α > 0, vα (x) = inf{v(y) +

1 kx − yk2 α

| y ∈ K}

∀x ∈ K .

Notons que vα = −(−v)α , ce qui nous permet par la suite de restreindre notre ´etude au cas de la sup-convolution. Lemme 5.8 Pour tout α > 0, uα est lipschitzienne dans K et semi-convexe de constante de K. 21

1 α

dans l’int´erieur

Preuve : uα ´etant le supremum de la famille de fonctions {x → u(y) + α1 kx − yk2 | y ∈ K} qui est ´equilichitzienne puisque K est compact, on en d´eduit que uα est lipschitzienne dans K. De plus, uα est semi-convexe dans l’int´erieur de K parce que uα (x) +

1 1 kxk2 = sup{u(y) − (kyk2 − 2 < x, y >) | y ∈ K} α α

qui est convexe, comme supremum de fonctions affines. QED Lemme 5.9 Pour tout α > 0, uα ≥ u et uα converge ponctuellement dans K vers u lorsque α tend vers 0+ . Plus pr´ecis´ement, pour tout x ∈ K, lim sup uα (xα ) = u(x) . α → 0+ xα → x Preuve : Le fait que uα ≥ u vient directement de la d´efinition (prendre y = x). Fixons maintenant x ∈ K et xα → x. Nous allons montrer d’abord que lim supα→0+ uα (xα ) ≤ u(x). Comme u est SCS dans K compact, u est major´e par une constante M . De plus, pour tout α > 0, il existe yα ∈ K tel que uα (xα ) = u(yα ) − α1 kyα − xα k2 . Choisissons une suite αn telle que la suite extraite (yαn ) converge vers un certain y ∈ K. On peut aussi supposer, sans perte de g´en´eralit´e, que lim sup uαn (xαn ) = lim uαn (xαn ) > −∞. Alors 1 1 kyαn − xαn k2 ≤ M − kyαn − xαn k2 . uαn (xαn ) = u(yαn ) − αn αn Comme limn uαn (xαn ) > −∞, vers x. Alors

1 αn kyαn

− xαn k2 est born´e, ce qui prouve que yαn tend vers x puisque xα tend

lim sup uαn (xαn ) ≤ lim sup u(yαn ) ≤ u(x) . Nous avons donc montr´e que lim sup uα (xα ) ≤ u(x). Pour prouver la convergence ponctuelle de uα vers u, on prend xα = x et on consid`ere αn → 0+ et yαn tel que uαn (x) = u(yαn ) − α1n kyαn − xk2 . Alors u(x) ≤ lim inf uαn (x) ≤ lim sup uαn (x) ≤ lim sup u(yαn ) ≤ u(x) . Donc uα (x) tend vers u(x). Cela prouve finalement que lim sup uα (xα ) = u(x). QED On suppose maintenant que K = Ω, o` u Ω est un ouvert born´e de IRN . Soit F : IR × IRN × SN → IR une application continue, elliptique et croissante par rapport `a la premi`ere variable. Lemme 5.10 Soit u : Ω → IR une application SCS, sous-solution de l’´equation F (u, Du, D2 u) = 0 dans Ω. Alors, pour tout k > 0 et pour tout α > 0, uα est encore une sous-solution de F (uα , Duα , D2 uα ) = 0 dans l’ouvert 1 O = {x ∈ Ω | uα (x) > −k, d∂Ω (x) > (α(M0 + k)) 2 } , o` u M0 = maxΩ u et d∂Ω (x) = inf y∈∂Ω ky − xk est la distance du point x au bord de Ω. Remarque : Le r´esultat sym´etrique est ´egalement vrai pour l’inf-convolution (utiliser le lien entre la sup- et l’inf-convolution et la proposition 2.4). Preuve : effet, comme

Soit x ∈ O et y ∈ Ω tel que uα (x) = u(y) − −k < uα (x) = u(y) −

1 α ky

− xk2 . Montrons d’abord que y ∈ Ω. En

1 1 ky − xk2 ≤ M0 − ky − xk2 α α

1

1

on a ky − xk < (α(M0 + k)) 2 , ce qui implique que y ∈ Ω, puisque d∂Ω (x) > (α(M0 + k)) 2 .

22

Soit φ une fonction-test telle que uα − φ poss`ede un maximum local en un point x ∈ O, et y ∈ Ω tel que u (x) = u(y) − α1 ky − xk2 . Notons que z → u(z) − φ(z − y + x) poss`ede un maximum local en y car, pour tout z suffisamment proche de y, on a α

u(z) − φ(z − y + x) = ≤ ≤ =

u(z) − α1 kz − (z − y + x)k2 + α1 ky − xk2 − φ(z − y + x) uα (z − y + x) + α1 ky − xk2 − φ(z − y + x) uα (x) − φ(x) + α1 ky − xk2 u(y) − φ(x) .

Comme u est une sous-solution de F (u, Du, D2 u) = 0 dans Ω, on obtient que F (u(y), Dφ(x), D2 φ(x)) ≤ 0. Or uα (x) ≤ u(y) et F est croissante par rapport `a la premi`ere variable. Donc F (uα (x), Dφ(x), D2 φ(x)) ≤ 0, ce qui est le r´esultat d´esir´e. QED Enfin nous aurons besoin plus loin d’une remarque qui a peu `a voir avec la sup-convolution, quoique... Soit wα et w des fonctions SCS sur un compact K. Malgr´e l’ambiguit´e des notations, wα n’est pas n´ecessairement la sup-convolution de w. On suppose que wα ≥ w

∀α > 0 ,

et

lim sup wα (xα ) = w(x) . α → 0+ xα → x

Lemme 5.11 Pour tout  > 0, il existe α0 > 0 tel que, pour tout α ∈]0, α0 [, pour tout point de maximum xα de wα , il existe x point de maximum de w tel que kxα − xk ≤ . De plus, lim max wα = max w .

α→0+

K

K

Preuve : En effet, si xα est un point de maximum de wα et xαn tend vers un point x, alors max w ≤ max wαn = wαn (xαn ) , K

K

et donc max w ≤ lim inf max wαn ≤ lim sup max wαn ≤ lim sup wαn (xαn ) ≤ w(x) . K

K

K

n

Ceci montre que x est un point de maximum de w et que maxK w vient alors juste de la compacit´e de K.

αn

tend vers maxK w. La preuve du lemme QED

5.3

Preuve du th´ eor` eme de comparaison

Nous compl´etons maintenant la preuve du th´eor`eme 5.1. Soit u et v, respectivement sous- et sur-solutions de F (u, Du, D2 u) = 0 dans l’ouvert born´e Ω, avec u ≤ v dans ∂Ω. On cherche `a montrer que u ≤ v dans Ω. Pour cela, on raisonne par l’absurde, en supposant que M := sup(u − v)(x) > 0 . x∈Ω

On introduit le d´edoublement de variables : w (x, y) = u(x) − v(y) −

1 kx − yk2 . 2

D’apr`es le lemme 4.2, pour tout  > 0 suffisament petit, maxΩ×Ω w est strictement positif et il existe θ > 0 (ind´ependant de ) tel que, pour tout point de maximum (x , y ) de w , on a d∂Ω (x ) ≥ θ et d∂Ω (y ) ≥ θ. A partir de maintenant, on fixe un tel  > 0.

23

Introduisons une nouvelle r´egularisation : pour tout α > 0, on pose w,α (x, y) = uα (x) − vα (y) −

1 kx − yk2 , 2

o` u uα et vα sont respectivement les sup- et inf-convolutions de u et v dans Ω. Alors, d’apr`es le lemme 5.8, w,α est semi-convexe dans Ω × Ω. D’apr`es le lemme 5.9, w,α ≥ w

et

lim sup w,α (xα , yα ) = w (x, y) . α → 0+ xα → x, yα → y

Enfin, le lemme 5.11 implique que, si (xα , yα ) est un point de maximum de w,α dans Ω × Ω, alors (xα , yα ) est proche d’un point de maximum (x , y ) de w pourvu que α > 0 soit suffisament petit. En particulier, d∂Ω (xα ) > θ/2 et d∂Ω (yα ) > θ/2 pour tout α > 0 suffisament petit. De plus, lim max w,α = max w > 0 .

α→0+ Ω×Ω

Ω×Ω

Montrons maintenant que (uα (xα )) et (vα (yα )) sont born´es ind´ependamment de α → 0+ . Comme u est SCS dans Ω et v SCI dans Ω, il existe une constante M0 telle que u ≤ M0 et v ≤ −M0 dans Ω. Alors uα ≤ M0 et vα ≥ −M0 dans Ω. Comme, pour α > 0 suffisament petit, uα (xα ) − vα (yα ) −

1 kxα − yα k2 = max w,α > 0 , 2 Ω×Ω

on a uα (xα ) > −M0 et vα (yα ) < M0 , ce qui prouve (uα (xα )) et (vα (yα )) sont born´es ind´ependamment de α → 0+ . Donc, pour α assez petit, xα appartient `a Oα = {x ∈ Ω | uα (x) > −M0

et

1

d∂Ω (x) > (2M0 α) 2 }

tandis que yα appartient ` a Oα = {y ∈ Ω | vα (y) < M0

et

1

d∂Ω (y) > (2M0 α) 2 } .

Par cons´equent nous venons de montrer que, pour α > 0 assez petit, la fonction w,α poss`ede un maximum strictement positif dans l’ouvert Oα × Oα . A partir de maintenant, on fixe un tel α > 0 et on note (¯ x, y¯) un tel point de maximum. Comme w,α est semi-convexe, le corollaire 5.7 affirme qu’il existe une suite ((xn , yn )) qui converge vers (¯ x, y¯) et telle que w,α poss`ede un DL d’ordre 2 en (xn , yn ), avec Dw,α (xn , yn ) → 0

et

D2 w,α (xn , yn ) → A ≤ 0

o` u A ∈ S2N . Notons que, vu la structure de w,α , uα et vα ont ´egalement un DL d’ordre 2 respectivement en xn et en yn avec Dw,α (xn , yn ) = (Duα (xn ) − et 2

D w,α (xn , yn ) =



2 1 (xn − yn ), −Dvα (yn ) + 2 (xn − yn )) 2  

D2 uα (xn ) 0 0 −D2 vα (yn )



2 − 2 



IN −IN

−IN IN

 .

Comme Dw,α (xn , yn ) tend vers 0 quand n → +∞, Duα (xn ) et Dvα (yn ) tendent vers 22 (¯ x − y¯). De plus, comme D2 w,α (xn , yn ) tend vers A quand n → +∞, les matrices D2 uα (xn ) et D2 vα (yn ) convergent respectivement vers une matrice X et Y avec     2 X 0 IN −IN A= − 2 ≤0 0 −Y −IN IN  Cela implique en particulier que X ≤ Y (le v´erifier en testant A contre des vecteurs de la forme (z, z)). 24

D’apr`es le lemme 5.10, uα est une sous-solution de (18) dans Oα . Comme uα poss`ede un DL d’ordre 2 en xn qui appartient ` a Oα , le lemme 2.3 donne que H(uα (xn ), Duα (xn ), D2 uα (xn )) ≤ 0 . Lorsque n → +∞, cela implique que H(uα (¯ x),

(25)

2 (¯ x − y¯), X) ≤ 0 . 2

De mˆeme, vα ´etant une sur-solution de (18) dans Oα , H(vα (yn ), Dvα (yn ), D2 vα (yn )) ≥ 0 , ce qui implique, lorsque n → +∞, que (26)

H(vα (¯ y ),

2 (¯ x − y¯), Y ) ≥ 0 . 2

Calculant la diff´erence entre (25) et (26), on obtient, en tenant compte de l’hypoth`ese (19) et du fait que X ≤Y, x − y¯), X) − H(vα (¯ y ), 22 (¯ x − y¯), Y ) 0 ≥ H(uα (¯ x), 22 (¯ 2 α ≥ γ(u (¯ x) − vα (¯ y )) + H(vα (¯ y ), 2 (¯ x − y¯), X) − H(vα (¯ y ), 22 (¯ x − y¯), Y ) α ≥ γ(u (¯ x) − vα (¯ y )) ≥ w,α (¯ x, y¯) > 0 d’o` u une contradiction. QED

25

6

Quelques r´ esultats d’unicit´ e classiques

L’objet de ce chapitre est d’indiquer (sans d´emonstration) quelques r´esultats de comparaison typiques que l’on peut trouver dans la litt´erature sur les solutions de viscosit´e. Les r´esultats cit´es sont—h´elas—loin d’ˆetre optimaux : chacun fait l’objet de mille variantes, suivant le probl`eme `a ´etudier... Les r´ef´erences donn´ees visent seulement ` a indiquer au lecteur des ouvrages g´en´eraux dans lesquels on peut trouver ces r´esultats. Dans tout ce qui suit, il sera sous-entendu que la fonction H = H(x, u, Du, D2 u) (ou H = H(t, x, Dx u, Dx2 u)) est elliptique, au sens o` u H(x, u, Du, X) ≥ H(x, u, Du, Y ) si X ≤ Y .

6.1 6.1.1

Equations du premier ordre Equations de type stationnaire: ouvert born´ e

L’´equation est H(x, u, Du) = 0

dans Ω

o` u Ω est un ouvert born´ e de IRN et H : Ω × IR × IRN → IR v´erifie les conditions • (H1) Pour tout R > 0 il existe γR > 0 tel que H(x, u, p) − H(x, v, p) ≥ γR (u − v) pour tout x ∈ Ω, −R ≤ v ≤ u ≤ R et p ∈ IRN • (H2) Pour tout R > 0, il existe un module1 mR tel que |H(x, u, p) − H(y, u, p)| ≤ mR (|x − y|(1 + kpk)) pour tout x, y ∈ Ω, −R ≤ u ≤ R et p ∈ IRN Th´ eor` eme 6.1 ([3], th´ eor` eme 4.2) Sous les hypoth`eses (H1) et (H2), si u est une sous-solution dans Ω et v est une sur-solution, et si u ≤ v dans ∂Ω, alors u ≤ v dans Ω. De plus, le r´esultat reste vrai si H est continue et si l’hypoth`ese (H2) est remplac´ee par u ou v est dans W 1,∞ (Ω). La preuve de ce r´esultat est identique `a celle donn´ee dans la partie 4. Une variante possible est la suivante (c’est toujours le th´eor`eme 4.2 de [3]) : le r´esultat reste vrai si on suppose que H = H(x, p) v´erifie (H2), si H(x, u, ·) est convexe en p, et s’il existe une fonction φ ∈ C 1 (Ω) ∩ C 0 (Ω) avec H(x, Dφ(x)) ≤ −α < 0 pour tout x ∈ Ω (i.e., s’il existe une sous-solution classique stricte). 6.1.2

Equations de type stationnaire: cas de IRN

L’´equation est la mˆeme que pr´ec´edemment, mais avec Ω = IRN . Bien noter qu’alors on ne peut esp´erer avoir des r´esultats de comparaison sans hypoth`eses additionnelles sur u et v. Par exemple, pour l’´equation, pourtant tr`es “gentille” : −|u0 | + u = 0 dans Ω = IR, les fonctions 0, ex et e−x sont toutes trois des solutions classiques. La solution ` a cette difficult´e est de se restreindre a` des solutions qui ont un certain type de croissance : Th´ eor` eme 6.2 ([3], th´ eor` eme 4.3) On suppose que H v´erifie (H1), (H2) et que H est uniform´ement continue dans IRN × [−R, R] × BR pour tout R > 0. Soit u une sous-solution major´ ee et v est une sur-solution minor´ ee. Alors u ≤ v dans IRN . 1 C’est-` a-dire

une fonction de IR+ dans IR+ qui tend vers 0 en 0+ .

26

Ce th´eor`eme n’est qu’un exemple de r´esultat dans un ouvert non born´e : lorsque Ω n’est pas ´egal `a IRN tout entier, il faut naturellement ajouter des conditions au bord (de type Dirichlet par exemple). Pour prouver le th´eor`eme 6.2, on utilise toujours l’id´ee de d´edoublement des variables, mais cette fois avec un terme de p´enalisation de l’infini : soit  > 0, α > 0 et w,α (x, y) = u(x)−v(y)− 12 kx−yk2 −α(kxk2 +kyk2 ). Alors w,α poss`ede un point de maximum (x,α , y,α ) sur IRN . Le point-cl´e de la d´emonstration consiste `a montrer l’´equivalent du lemme 4.2 dans ce cas. Lemme 6.3 On peut trouver des suites n → 0+ , αn → 0+ telles que 1. lim wn ,αn (xn ,αn , yn ,αn ) = supΩ (u − v) 2. lim 12 kxn ,αn − yn ,αn k2 = 0 n

3. lim αn (kxn ,αn k2 + kyn ,αn k2 ) = 0 L’id´ee pour cela est de faire tendre d’abord , puis α, vers 0. L’uniforme continuit´e est utilis´ee pour palier aux difficult´es engendr´ees par la non bornitude des suites (xn ,αn , yn ,αn ). 6.1.3

Equations d’´ evolution

Pour en finir avec le premier ordre, on consid`ere une ´equation de la forme : ut + H(t, x, u, Du) = 0

dans (0, T ) × Ω

o` u Ω est un ouvert born´ e de IRN et H : (0, T ) × Ω × IR × IRN → IR. On suppose que H est continue et v´erifie les hypoth`eses suivantes : • (H1bis) Pour tout R > 0 il existe γR ∈ IR tel que H(t, x, u, p) − H(t, x, v, p) ≥ γR (u − v) pour tout t ∈ [0, T ], x ∈ Ω, −R ≤ v ≤ u ≤ R et p ∈ IRN • (H2bis) Pour tout R > 0, il existe un module mR tel que |H(t, x, u, p) − H(t, y, u, p)| ≤ mR (kx − yk(1 + kpk)) pour tout t ∈ [0, T ], x, y ∈ Ω, −R ≤ u ≤ R et p ∈ IRN Th´ eor` eme 6.4 ([3], th´ eor` eme 4.8) Si u une sous-solution et v est une sur-solution, et si u ≤ v dans ({0} × Ω) ∪ ([0, T ] × ∂Ω]), alors u ≤ v dans [0, T ] × Ω. Bien noter que l’hypoth`ese (H1) exclut le cas des ´equations de transport comme l’´equation de Burger. Lorsque l’on travaille dans Ω = IRN (par exemple), le r´esultat reste vrai `a condition de supposer de plus que H est uniform´ement continu dans [0, T ] × IRN × [−R, R] × BR pour tout R > 0, et que u(0, x) ≤ u0 (x) ≤ v(0, x), avec u0 born´ee et uniform´ement continue. La preuve du th´eor`eme 6.4 est sensiblement identique `a celle esquiss´ee pour le th´eor`eme 6.1. Il y a cependant 3 id´ees suppl´ementaires : la premi`ere est que l’on n’a pas besoin de mettre de condition en t = T , car u (respectivement v) est une sous-solution (resp. sur-solution) sur ]0, T ] × Ω. Ensuite on note qu’en faisant un changement de fonction u → e−λt u pour un λ > 0 assez grand, on se ram`ene `a un H v´erifiant (H1) avec γR > 0. Enfin, comme les rˆ oles du temps et de l’espace ne sont pas sym´etriques, on est conduit `a consid´erer des termes de p´enalisation de la forme w,η (s, x, t, y) = u(x) − v(y) − 1 kx − yk2 − η1 |t − s|2 avec η tr`es petit devant .

27

6.2

Equations du second ordre

Nous nous tournons maintenant vers les ´equations d’ordre 2, en ´etudiant successivement les probl`emes avec conditions au bord de type Dirichlet dans un ouvert born´e, dans un ouvert non born´e, les probl`emes avec conditions au bord de type Neumann, et enfin les ´equations d’´evolution. Auparavant, nous ´enon¸cons un r´esultat-cl´e dans les d´emonstrations de principe de comparaison. Ce r´esultat, appel´e parfois ”lemme matriciel”, explique largement les hypoth`eses de structure que nous ferons par la suite sur les ´equations. 6.2.1

Le “lemme matriciel” d’Ishii

Avant de formuler le lemme en question, nous devons expliquer ce que sont les sur- et sous-diff´erentiels d’ordre 2. Soit u une fonction SCS. Le sur-diff´erentiel d’ordre 2 de u au point x est l’ensemble J 2,+ u(x) d´efini par J 2,+ u(x) = {(p, X) ∈ IRN × SN | u(y) ≤ u(x)+ < p, y − x > +

1 < X(y − x), (y − x) > +o(ky − xk2 ) } . 2

On d´efinit aussi sa fermeture comme ´etant J

2,+

u(x) = {(p, X) ∈ IRN × SN | ∃xn → x , ∃(pn , Xn ) ∈ J 2,+ u(xn ) avec (pn , Xn ) → (p, X) } .

De mˆeme on pose, pour toute fonction v SCI et pour tout x, J 2,− v(x) = {(p, X) ∈ IRN × SN | v(y) ≥ v(x)+ < p, y − x > + et J

2,−

1 < X(y − x), (y − x) > +o(ky − xk2 ) } 2

v(x) = {(p, X) ∈ IRN × SN | ∃xn → x , ∃(pn , Xn ) ∈ J 2,− v(xn ) avec (pn , Xn ) → (p, X) } .

Notons que J 2,− v(x) = −J 2,+ (−v)(x) ainsi que J

2,−

v(x) = −J

2,+

(−v)(x).

L’int´erˆet des sur- et sous-diff´erentiels est de remplacer les fonctions-test dans les d´efinitions de sur– et sous-solution de viscosit´e. En effet, Lemme 6.5 On suppose que H : Ω × IR × IRN × SN → IR est une application continue. Soit u une fonction SCS dans un ouvert Ω. Alors u est sous-solution de l’´equation H(x, u(x), Du(x), D2 u(x)) = 0 dans Ω, si et seulement si, pour tout x ∈ Ω, ∀(p, X) ∈ J 2,+ u(x) ,

H(x, u(x), p, X) ≤ 0 .

Preuve : Par continuit´e de H, il suffit de montrer que u est sous-solution, si et seulement si, pour tout x ∈ Ω, ∀(p, X) ∈ J 2,+ u(x), H(x, u(x), p, X) ≤ 0. La preuve de cette assertion est exactement la mˆeme que celle du lemme 2.3. QED Nous sommes maintenant prˆets ` a ´enoncer le lemme matriciel. L’int´erˆet de ce lemme est de contenir toute la partie de r´egularisation par inf- et sup-convolution que nous avions dˆ u faire dans la d´emonstration du principe de comparaison. Th´ eor` eme 6.6 ([7], Theorem 3.2) Soit Ω un ouvert de IRN , u SCS dans Ω, v SCI dans Ω et φ : Ω × Ω → IR une fonction de classe C 2 . On suppose que la fonction w(x, y) = u(x) − v(y) − φ(x, y) poss`ede un maximum local en un point (¯ x, y¯) ∈ Ω × Ω. Alors, pour tout η > 0, il existe X ∈ SN , Y ∈ SN tels que 2,+ 2,− (Dφx (¯ x, y¯), X) ∈ J u(¯ x), (−Dφy (¯ x, y¯), Y ) ∈ J v(¯ y ), et     1 X 0 − + kAk I2N ≤ ≤ A + ηA2 , 0 −Y η o` u A = D2 φ(¯ x, y¯) et kAk est la plus grande valeur propre de A en valeur absolue. On peut trouver une d´emonstration de ce r´esultat dans [7], o` u il est ´etabli sous une forme plus g´en´erale. La preuve utilise comme ingr´edient essentiel le principe du maximum de Jensen et la r´egularisation par sup-convolution. 28

6.2.2

Probl` eme de Dirichlet

L’´equation est de la forme H(x, u, Du, D2 u) = 0

dans Ω

o` u Ω est un ouvert born´ e de IRN et H : Ω × IR × IRN × SN → IR v´erifie les conditions • (H1’) Il existe γR > 0 tel que H(x, u, p, X) − H(x, v, p, X) ≥ γR (u − v) pour tout x ∈ Ω, v ≤ u, p ∈ IRN et X ∈ SN • (H2’) Il existe un module m(·) tel que | H(y, u, α(x − y), Y ) − H(x, u, α(x − y), X) | ≤ m(αkx − yk2 + kx − yk) pour tout α > 0, x, y ∈ Ω, u ∈ IR, X, Y ∈ SN tels que      IN 0 X 0 IN −3α ≤ (27) ≤ 3α 0 IN 0 −Y −IN

−In IN

 .

Th´ eor` eme 6.7 ([7], th´ eor` eme 3.3) Sous les hypoth`eses (H1’) et (H2’), si u est une sous-solution dans Ω et v est une sur-solution, et si u ≤ v dans ∂Ω, alors u ≤ v dans Ω. Preuve : Nous donnons une preuve rapide de ce r´esultat afin d’illustrer l’utilisation du lemme matriciel et d’expliquer l’hypoth`ese (un peu curieuse) (H2’). Comme toujours, on raisonne par l’absurde en supposant que maxΩ (u−v) > 0. On utilise le d´edoublement de variables habituel w (x, y) = u(x) − v(y) − 12 kx − yk2 . Le lemme 4.2 affirme que, pour  > 0 suffisament petit, il existe (x , y ) ∈ Ω×Ω point de maximum de w et que w (x , y ) tend vers maxΩ (u−v). On applique alors le lemme matriciel 6.6 ` a w : pour η = 2 /2, il existe X ∈ SN , Y ∈ SN tels que ( 22 (x − y ), X) ∈ J

2,+

u(x ), ( 22 (x − y ), Y ) ∈ J

2,−

 −  o` uA=

IN −IN

−IN IN



v(y ), et   1 X + kAk I2N ≤ 0 η

, et donc A2 =

deviennent

4 2 A

 −3αI2N ≤

X 0

et kAk = 0 −Y

0 −Y 4 2 .



≤ A + ηA2 ,

Si on pose α = 2/2 , les in´egalit´es pr´ec´edentes 

≤ 3α



IN −IN

−IN IN

 .

Nous venons donc de montrer que X et Y v´erifient (27). L’hypoth`ese (H2’) affirme alors que (28)

2 2 2 | H(y , v(y ), (x − y ), Y ) − H(x , v(y ), (x − y ), X) | ≤ m( 2 kx − y k2 + kx − y k)   

Mais, d’autre part, comme u est une sous-solution et v est une sous-solution, 2 2 0 ≥ H(x , u(x ), (x − y ), X) − H(y , v(y ), (x − y ), Y ) .   On utilise maintenant l’hypoth`ese (H1’) et l’in´egalit´e (28) pour obtenir 0 ≥ γ(u(x ) − v(y )) + H(x , v(y ), 2 (x − y ), X) − H(y , v(y ), 2 (x − y ), Y ) ≥ γ(u(x ) − v(y )) − m( 22 kx − y k2 + kx − y k) . Lorsque  tend vers 0+ , les termes 22 kx − y k2 et kx − y k tendent vers 0 d’apr`es le lemme 4.2, et (u(x ) − v(y )) tend vers maxΩ (u − v) qui est strictement positif. D’o` u une contradiction. 29

QED Voici quelques exemples de fonctions H v´erifiant les hypoth`eses du th´eor`eme. Exemples : (voir aussi la discussion dans [4]) • Equations semilin´ eaires : Un terme de la forme H(x, u, p, X) = −T r(σ(x)σ T (x)X) v´erifie (H2’) N ×P d`es que σ : Ω → IR est lipschitzienne dans Ω. En effet, si α, X  et Y v´erifient (27), en multipliant les deux membres de droite de cette in´egalit´e par la  σ(x)σ T (x) σ(x)σ T (y) matrice positive et en prenant la trace des deux matrices ainsi obtenues, σ(y)σ T (x) σ(y)σ T (y) on trouve T r(σ(x)σ T (x)X − σ(y)σ T (y)Y ) ≤ 3αT r[(σ(x) − σ(y))(σ T (x) − σ T (y))] , ce qui donne l’in´egalit´e d´esir´ee lorsque σ est lipschitzienne. • Equations quasilin´ eaires : un autre exemple de fonctions v´erifiant (H2’) est la classe des fonctions de la forme H(x, u, p, X) = −T r(a(p)X)), o` u a : IRN → IRN ×N v´erifie < a(p)ξ, ξ >≥ 0 pour tout N ξ ∈ IR . • Equations quasilin´ eaires g´ en´ erales : les fonctions de la forme H(x, u, p, X) = −T r[A(x, p)X] + F (x, u, p), o` u A(x, p) + AT (x, p) = σ(x, p)σ T (x, p) 2 avec σ continue, Lipschitzienne en x uniform´ement en p, et o` u F satisfait (H1) et (H2), v´erifient toutes les conditions (H1’) et (H2’). • Le cas uniform´ ement elliptique : On dit H = F (X) − f (x) est uniform´ement elliptique s’il existe deux constantes λ > 0 et Λ > 0 telles que F (X) − ΛkN k ≤ F (X + N ) ≤ F (x) − λkN k pour toute matrice X ∈ SN et toute matrice positive N ∈ SN . Le principe de comparaison est vrai pour cette classe d’op´erateurs, sans autre hypoth`ese sur H que la continuit´e et l’uniforme ellipticit´e. En effet, on remarque d’abord que uα,β (x) = u(x)+αkxk2 −β est une sous-solution de F (D2 w)−f (x)−2λα = 0 pour tout α > 0 et que l’on peut choisir β de sorte que uα,β ≤ v sur ∂Ω. Puis une adaptation directe de la preuve du th´eor`eme 6.7 montre que uα,β ≤ v dans Ω, et on conclut la d´emonstration en laissant α → 0, puis β → 0. 6.2.3

Conditions au bord de type Neumann

On consid`ere une ´equation de la forme  H(x, u, Du, D2 u) = 0 (29) ∂u ∂nx + f (x, u) = 0

dans Ω sur ∂Ω

o` u Ω est un ouvert born´e de bord r´egulier, nx est la normale ext´erieure `a Ω en x ∈ ∂Ω, o` u f : Ω × IR → IR est continue, croissante en u, et o` u H satisfait (H1’), H est uniform´ement continue dans un voisinage de ∂Ω × IR × IRN × SN et v´erifie • (H2”) Il existe un module m(·) tel que H(y, u, p, Y ) − H(x, u, p, X) ≤ m(αkx − yk2 + kx − yk(1 + kpk) ) pour tout α > 0, x, y ∈ Ω, u ∈ IR, p ∈ IRN , X, Y ∈ SN tels que (27) est v´erifi´e. Expliquons d’abord ce que signifie la condition au bord.

30

D´ efinition 6.8 On dit que u est une sous-solution de (29) si u est SCS dans Ω, u est sous-solution de H(x, u, Du, D2 u) = 0 dans Ω et si, pour toute fonction φ de classe C 2 telle que u − φ a un maximum local en un point x ∈ ∂Ω, on a min{< Dφ(x), nx > +f (x, u(x)) , H(x, u(x), Dφ(x), D2 φ(x))} ≤ 0. De mˆeme, u est une sur-solution de (Neumann) si u est SCI dans Ω, u est sur-solution de H(x, u, Du, D2 u) = 0 dans Ω et si, pour toute fonction φ de classe C 2 telle que u − φ a un minimum local en un point x ∈ ∂Ω, on a max{< Dφ(x), nx > +f (x, u(x)) , H(x, u(x), Dφ(x), D2 φ(x))} ≥ 0. Th´ eor` eme 6.9 ([7], th´ eor` eme 7.5) Sous les hypoth`eses ci-dessus, si u est une sous-solution dans Ω et v est une sur-solution, alors u ≤ v dans Ω. Une extension de ce r´esultat pour des conditions de Neumann beaucoup plus g´en´erales peut ˆetre trouv´ee dans [4], th´eor`eme 7.1. 6.2.4

Equations d’´ evolution

L’´equation est de la forme ut + H(t, x, u, Du, D2 u) = 0

dans (0, T ) × Ω

Th´ eor` eme 6.10 (Partie 4.4 de [4]) On suppose que H : [0, T ] × Ω × IR × IRN × SN → IR est continue, v´erifie (H1’) avec γR ∈ IR, (H2’) pour tout t fix´e avec le mˆeme module m(·). Si u est une sous-solution et v une sur-solution, et si u ≤ v dans ({0} × Ω) ∪ ([0, T ] × ∂Ω), alors u ≤ v dans ]0, T [×Ω. Le point-cl´e pour cela est une extension du “lemme matriciel” au cas parabolique : voir th´eor`eme 8.3 de [7].

31

7

Evolutions g´ eometriques

Dans cette partie nous d´ecrivons l’approche par lignes de niveau d’´evolutions g´eom´etriques, telles que le mouvement par courbure moyenne. Toute cette partie est largement inspir´ee de [1].

7.1

Quelques rappels sur les ´ evolutions r´ eguli` eres

On rappelle d’abord la d´efinition d’´evolutions r´eguli`eres d’une famille d’hypersurfaces Σt de IRN ´evoluant suivant une loi de la forme Vx = h(νx , Ax ), o` u Vx est la vitesse normale d’un point x de l’hypersurface Σt , νx est la normale ext´erieure ` a Σt en x et Ax la courbure, avec convention de signe qu’un convexe a une courbure n´egative. Soit (Σt )t∈I une famille d’hypersurfaces orient´ees de IRN index´ee par le temps t, avec t ∈ I o` u I est un intervalle ouvert de [0, +∞[. On supposera qu’`a chaque instant Σt est le bord d’un ouvert Ot de IRN , ce qui permettra plus loin de parler deSnormale ext´erieure. On dit que la famille (Σt ) ´evolue r´eguli`erement en temps sur l’intervalle I si l’ensemble t∈I {t} × Σt est une sous-vari´et´e de ]0, T [×IRN de classe C 2 (et de dimension N ) et si la normale ext´erieure (nt , nx ) ` a cet ensemble en tout point (t, x) de cet ensemble (i.e., x ∈ Σt ) v´erifie nx 6= 0. La vitesse normale Vx de ce point x ` a l’instant t sera alors donn´ee par Vx = −nt /knx k. De fa¸con ´equivalente, Vx est le r´eel tel que x + hV νx + o(h) ∈ Σt+h

pour tout h petit

o` u νx = nx /knx k est la normale unitaire ext´erieure `a Σt en x. Soit h : S N −1 ×SN −1 → IR une loi d’´evolution (ici S N −1 est la sph`ere unit´e de IRN et SN −1 est l’ensemble des matrices sym´etriques r´eelles de format N − 1). On dira que la famille (Σt )t∈I est une solution r´eguli`ere de l’´equation Vx = h(νx , Ax ) si cette ´egalit´e est satisfaite en tout point x de ∂Ot et pour tout t ∈ I. Mentionnons quelques r´esultats connus pour le mouvement par courbure moyenne (MCM), c’esta`-dire lorsque h(νx , Ax ) = T r(Ax ) (voir par exemple la monographie [17]). Il y a existence locale (en temps) d’une unique solution r´eguli`ere pour une donn´ee initiale r´eguli`ere fix´ee. De plus, on sait d´ecrire le comportement des solutions dans certains cas. Lorsque la donn´ee initiale est convexe, la solution existe sur un intervalle maximal [0, τ [, reste convexe et r´eguli`ere sur [0, τ [, et converge vers un point lorsque t tend vers τ − . De plus, la solution convenablement renormalis´ee converge vers la sph`ere lorsque t tend vers τ − . Dans le cas particulier du plan (N = 2), la solution ayant pour donn´ee initiale une courbe de Jordan r´eguli`ere, non n´ecessairement convexe, devient convexe en temps fini, puis ´evolue comme indiqu´e ci-dessus. Par contre, en dimension sup´erieure ` a 3, l’´evolution peut d´evelopper des singularit´es en temps fini. L’objet de ce chapitre est d’expliquer comment l’approche par lignes de niveau permet de d´efinir les solutions apr`es l’apparition des singularit´es.

7.2

L’approche par lignes de niveau

Supposons que (Σt = ∂Ot ) soit une solution r´eguli`ere d’un probl`eme d’´evolution Vx = h(νx , Ax ) et qu’`a chaque instant t, Σt puisse ˆetre d´ecrite comme la ligne de niveau d’une fonction r´eguli`ere. Plus pr´ecis´ement, on suppose qu’il existe une fonction u = u(t, x), r´eguli`ere, telle que Ot = {x ∈ IRN | u(t, x) < 0} et Σt = ∂Ot = {x ∈ IRN | u(t, x) = 0} . On suppose de plus que Du(t, x) 6= 0 si u(t, x) = 0. Alors un calcul ´el´ementaire montre que Vx = −

ut (t, x) , kDu(t, x)k

νx =

Du(t, x) kDu(t, x)k

32

et

Ax = −

D2 u(t, x)|Du⊥ kDu(t, x)k

(la derni`ere assertion signifie que Ax est ´egale `a la restriction `a Du⊥ , au sens des matrices sym´etriques, de D 2 u(t,x) la matrice − kDu(t,x)k ). Comme Vx = h(νx , Ax ) pour tout x ∈ ∂Ot et pour tout t, on a ! D2 u|Du⊥ Du (30) ut + kDukh ,− =0. kDuk kDuk Cela conduit naturellement ` a poser, pour tout p ∈ IRN \{0} et pour tout X ∈ SN , ! X|p⊥ p (31) ,− . H(p, X) = kpkh kpk kpk Par exemple, pour le mouvement par courbure moyenne, i.e., lorsque h(νx , Ax ) = T r(Ax ), cela donne H(p, X) = −T r(A) +

< Xp, p > kpk2

et l’´equation (30) devient alors ut − ∆u +

< D2 uDu, Du > =0. kDuk2

L’id´ee de l’approche par ligne de niveau est la suivante (dans toute la suite, BU C(IRN ) signifie born´e et uniform´ement continu dans IRN ) : 1. Pour une donn´ee initiale Σ0 = ∂O0 , on fixe une fonction auxiliaire u0 ∈ BU C(IRN ) telle que O0 = {x ∈ IRN | u0 (x) < 0} et

∂O0 = {x ∈ IRN | u0 (x) = 0} .

2. On r´esout l’´equation (30) (au sens viscosit´e) pour la donn´ee initiale u0 : il existe une unique fonction continue u = u(t, x) v´erifiant (30) au sens viscosit´e avec u(0, ·) = u0 (·). 3. La solution g´en´eralis´ee de l’´equation Vx = h(νx , Ax ), avec pour donn´ee initiale Σ0 = ∂O0 sera alors la famille d’ensembles (Σt ) d´efinie par Σt = {x ∈ IRN | u(t, x) = 0} pour tout t ≥ 0 . Le point-cl´e de cette approche est que l’ensemble (Σt ) ainsi construit est ind´ependant de la fonction auxiliaire u0 choisie initialement. Cet ensemble n’est pas n´ecessairement r´egulier—c’´etait le but de la d´emarche ! Nous verrons cependant que, lorsqu’il existe une solution r´eguli`ere, il co¨ıncide avec cette solution. Il peut ˆetre vide apr`es un instant t > 0 (appel´e temps d’extinction), comme c’´etait d´ej`a le cas pour les ´evolutions r´eguli`eres convexes pour le mouvement par courbure moyenne.

7.3

Le principe de comparaison et applications

Soit H : IRN \{0} × SN → IR une application continue sur son domaine. Nous devons d’abord d´efinir une notion de solution de viscosit´e pour l’´equation ut + H(Du, D2 u) = 0 lorsque que H n’est pas d´efinie en p = 0. Introduisons pour cela les notations H ∗ et H∗ : H ∗ (p, X) =

lim sup

H(p0 , X 0 )

et

(p0 ,X 0 )→(p,X), p0 6=0

H∗ (p, X) =

lim inf

(p0 ,X 0 )→(p,X), p0 6=0

H(p0 , X 0 )

D´ efinition 7.1 On dit qu’une fonction SCS u est une sous-solution de l’´equation ut + H(Du, D2 u) = 0 si, pour toute fonction test φ de classe C 2 , telle que u − φ poss`ede un maximum local en un point (t, x), avec t > 0, on a φt (t, x) + H∗ (Dφ(t, x), D2 φ(t, x)) ≤ 0 . De mˆeme, une fonction SCI u est une sur-solution de l’´equation ut + H(Du, D2 u) = 0 si, pour toute fonction test φ de classe C 2 , telle que u − φ poss`ede un minimum local en un point (t, x), avec t > 0, on a φt (t, x) + H ∗ (Dφ(t, x), D2 φ(t, x)) ≥ 0 . Une fonction continue u sera une solution si u est une sur- et une sous-solution. 33

Dans toute la suite on supposera que H est continue sur IRN \{0} × SN , born´ee sur les ensembles born´es, elliptique et v´erifie H∗ (0, O) = H ∗ (0, O) . On supposera aussi que H est g´eom´etrique, c’est-`a-dire v´erifie H(λp, λX + µppT ) = λH(p, X)

pour tout λ > 0, µ ∈ IR.

Lorsque H est d´efini ` a partir d’une loi d’´evolution h `a travers l’´egalit´e (31), ces hypoth`eses seront satisfaites d`es que h est continue, croissante par rapport `a la matrice courbure, et si |h| est `a croissance au plus lin´eaire par rapport ` a cette matrice. Le fait que H soit g´eom´etrique est une cons´equence directe de sa d´efinition. Sous ces hypoth`eses, on d´emontre l’existence et l’unicit´e des solutions de l’´equation ut + H(Du, D2 u) = 0

(32)

pour une donn´ee initiale fix´ee. Plus pr´ecis´ement, on a le Th´ eor` eme 7.2 ([1], th´ eor` eme 10.1) Sous les hypoth`eses pr´ec´edentes, soient u une sous-solution et v une sur-solution de l’´equation, avec • (i) |u(t, x)| + |v(t, x)| ≤ K(1 + |x|) • (ii) u∗ (0, x) ≤ v∗ (0, x) • (iii) u∗ (0, ·) ou v∗ (0, ·) est uniform´ement continue dans IRN . Alors u(t, x) ≤ v(t, x) pour tout (t, x) ∈ [0, T ] × IRN . La preuve repose sur les mˆeme id´ees que celle du cas o` u H est r´eguli`ere. Une diff´erence cependant est que le terme de p´enalisation en 12 kx − yk2 doit ˆetre remplac´e par 12 kx − yk4 de fa¸con `a tenir compte de la singularit´e en (0, O) (voir par exemple [1]). Corollaire 7.3 Pour toute donn´ee initiale u0 dans BU C(IRN ), il existe une unique solution continue born´ee sur [0, +∞) de (32) avec pour donn´ee initiale u0 . Noter que les constantes sont solutions de l’´equation (32). Cela explique pourquoi les solutions restent born´ees pour tout temps t. La construction d’une solution repose sur la m´ethode de Perron (Voir encore [1].) Proposition 7.4 (Propri´ et´ es d’invariance) Si u est solution (ou une sous-solution, ou une sur-solution) de (32) et θ : IR → IR est continue et croissante, alors θ ◦ u est encore une solution de (32) (respectivement une sous-solution, ou une sur-solution). Preuve : On va le montrer d’abord pour θ de classe C 1 avec θ0 > 0 sur IR. Posons σ = θ−1 . Alors, si v = θ ◦ u, on montre facilement que v est solution de σ 0 (v)vt + H(σ 0 (v)Dv, σ 0 (v)D2 v + σ”(v)Dv(Dv)T ) = 0 Comme σ 0 > 0 et H est g´eom´etrique, on a, au sens viscosit´e, vt + H(Dv, D2 v) = 0 , ce qui prouve le r´esultat dans ce cas. Lorsque θ est une fonction croissante g´en´erale, on approche θ par des fonctions θ comme ci-dessus, et on passe `a la limite en utilisant le th´eor`eme de stabilit´e 2.9. QED

34

Th´ eor` eme 7.5 Soient u10 et u20 deux donn´ees initiales dans BU C(IRN ), u1 et u2 deux solutions continues born´ees de (32) avec donn´ees initiales u10 et u20 respectivement. Si {u10 < 0} = {u20 < 0}

et

{u10 = 0} = {u20 = 0}

alors ces in´egalit´es se pr´eservent au cours du temps : {u1 (t, ·) < 0} = {u2 (t, ·) < 0}

et

{u1 (t, ·) = 0} = {u2 (t, ·) = 0}

∀t ≥ 0 .

Ce r´esultat signifie que, dans l’approche par lignes de niveau, le choix initial de la fonction u0 n’importe pas. Preuve : Posons O0 = {u1 < 0}. On peut supposer, sans perte de g´en´eralit´e, que u20 (x) = (d¯O0 (x) ∧ M ) ∨ (−M ), o` u M = ku1 k∞ et o` u d¯ est la distance sign´ee `a ∂O0 , c’est-`a-dire que  dO0 (x) si x ∈ / O0 ¯ d(x) = −d∂O0 (x) si x ∈ O0 Posons θ(s) = sup{u10 (x) | dO0 (x) ≤ s}

∀s ≥ 0 .

Comme u10 est BUC, la fonction θ est uniform´ement continue et croissante sur IR+ avec θ(0) = 0. On prolonge θ par 0 sur IR− . Les propri´et´es d’invariance de l’´equation impliquent que θ(u2 ) est encore une solution avec donn´ee initiale v´erifiant u10 (x) ≤ θ(u20 ) . Par comparaison, cela implique que u1 ≤ θ(u2 ). D’o` u {x ∈ IRN | u2 (t, x) ≤ 0} ⊂ {x ∈ IRN | u1 (t, x) ≤ 0} . Pour montrer l’inclusion inverse, on consid`ere la fonction w qui vaut 0 sur {(t, x) | u1 (t, x) ≤ 0} et M ailleurs. Comme w est SCI et ´egale ` a la limite des solutions w = (M ∧ (u1 /)) ∨ 0, w est encore une sur-solution (d’apr`es le th´eor`eme 2.9). Or u20 ≤ w(0, ·). Donc on a u2 (t, x) ≤ w(t, x), ce qui prouve finalement que (33)

{x ∈ IRN | u1 (t, x) ≤ 0} = {x ∈ IRN | u2 (t, x) ≤ 0} .

On montre l’inclusion {x ∈ IRN | u1 (t, x) ≥ 0} = {x ∈ IRN | u2 (t, x) ≥ 0} . en remarquant que l’´equation satisfaite par −u1 et −u2 est ´egalement g´eom´etrique et en appliquant (33) `a ces deux fonctions. QED Une application de ce r´esultat est que l’´evolution g´eom´etrique respecte l’inclusion. En fait nous ´etablissons un r´esultat un peu plus fort, qui dit que l’´ecart entre les bords de deux ensembles inclus l’un dans l’autre ne fait qu’augmenter au cours du temps. Th´ eor` eme 7.6 (Principe d’inclusion) Soient Σ10 = ∂O01 et Σ20 = ∂O02 deux donn´ees initiales, et (Σ1t ) et 2 (Σt ) les deux ´evolutions de donn´ees initiales Σ10 et Σ10 . Si ` a l’instant initial on a  (34) O01 ⊂ O02 et inf kx − yk | x ∈ Σ10 , y ∈ Σ20 = γ > 0 alors, pour tout temps t ≥ 0, on aura  inf kx − yk | x ∈ Σ1t , y ∈ Σ2t ≥ γ .

35

Preuve : Soient u0 une fonction born´ee, lipschitzienne de constante 1 dans IRN et telle que {u0 < 0} = O01 , {u0 = 0} = Σ10 , {u0 < γ} = O02 et {u0 = γ} = Σ20 . L’hypoth`ese (34) rend possible la construction d’une telle fonction. Soit u la solution de (32) avec donn´ee initiale u0 . Alors, par d´efinition des solutions g´en´eralis´ees et du fait que u − γ est aussi solution de (32), on a {u(t, ·) = 0} = Σ1t et {u(t, ·) = γ} = Σ2t . Notons maintenant que, pour tout δ ∈]0, γ[, la fonction w(t, x) = sup u(t, x + z) . kzk≤δ

est une sous-solution de (32), car ´egale au supremum des solutions (t, x) → u(t, x + z). De plus, comme u0 est 1-lipschitzienne, w(0, x) ≤ u0 (x) + δ ∀x ∈ IRN . On d´eduit du principe de comparaison que w(t, x) − δ ≤ u(t, x) ∀(t, x) ∈ [0, +∞[×IRN . D’o` u {u(t, ·) ≤ 0} ∩ {w(t, ·) > δ} = ∅. Or Σ1t ⊂ {u(t, ·) ≤ 0} tandis que l’ensemble {w(t, ·) > δ} contient l’ensemble des points x dont la distance ` a Σ2t est inf´erieure ou ´egale `a δ puisque u(t, x) = γ > δ sur Σ2t . Le r´esultat est donc prouv´e. QED

7.4

Lien entre solutions g´ en´ eralis´ ees et solutions r´ eguli` eres

Nous avons vu pour le mouvement par courbure moyenne que, lorsque la donn´ee initiale de l’´evolution g´eom´etrique est r´eguli`ere, alors il existe une solution r´eguli`ere sur un petit intervalle de temps. L’objet de cette partie est de montrer qu’alors solutions r´eguli`eres et solutions g´en´eralis´ees coincident. On suppose que la famille d’hypersurfaces (Σt = ∂Ot ) est une solution classique de l’´equation Vx = h(νx , Ax ) sur un intervalle de temps [0, T ] avec T > 0. Soit H d´efini par (31) et v´erifiant les hypoth`eses de la partie pr´ec´edente. On notera en particulier que cela implique que h = h(p, X) est croissante par rapport `a la matrice X. ¯ x) la distance sign´ee `a Σt : Soit d(t, x) = dOt (x) la distance ` a Ot , et d(t,  dOt (x) si x ∈ / Ot ¯ d(x) = −dΣt (x) si x ∈ Ot Lemme 7.7 d est une sur-solution de l’´equation (32) sur (0, T ). Preuve : Soit φ une fonction test telle que d − φ a un minimum local en un point (t0 , x0 ). Sans perte de g´en´eralit´e on peut supposer que d(t0 , x0 ) = φ(t0 , x0 ) et donc que d(s, y) ≥ φ(s, y) pour tout (s, y) dans un voisinage de (t0 , S x0 ). On suppose d’abord que d(t0 , x0 ) = 0. Cela implique que φ a un maximum local sur l’ensemble K = t {t} × Ot en (t0 , x0 ). Soit νx et Ax la normale ext´erieure et la courbure `a Σt0 en x0 et Vx0 la vitesse normale ext´erieure de Σt0 en x0 . Comme (−Vx0 kνx0 k, νx0 ) est une normale `a l’ensemble K, les conditions n´ecessaires d’optimalit´e du premier et du second ordre de φ sur K s’´ecrivent : il existe λ ≥ 0 tel que D2 φ(t0 , x0 )|ν ⊥ x0 (φt , Dφ) = λ(−Vx0 kνx0 k, νx0 ) et − ≥ Ax , kDφk o` u toutes les expressions sont prises en (t0 , x0 ) et o` u la seconde in´egalit´e n’a lieu que si Dφ(t0 , x0 ) 6= 0. Si λ > 0, alors Dφ(t0 , x0 ) 6= 0 et on a   D2 φ(t0 , x0 )|ν ⊥ φt Dφ x0  Vx0 = − = h(νx , Ax ) ≤ h  ,− kDφk kDφk kDφk 36

D’o` u le r´esultat d´esir´e : φt + H(Dφ, D2 φ) ≥ 0. Si λ = 0, alors φt = 0. Montrons que D2 φ(t0 , x0 ) ≤ 0. En effet, pour tout vecteur v ∈ IRN tel que < v, νx0 > < 0, le point x0 + hv appartient `a Ot0 pour h > 0 petit et donc φ(t0 , x0 + hv) ≤ 0. Ceci entraˆıne que < D2 φ(t0 , x0 )v, v >≤ 0 pour tout vecteur v tel que < v, νx0 > < 0, et donc, par densit´e et parit´e, pour tout vecteur v de IRN . On en d´eduit que D2 φ(t0 , x0 ) ≤ 0, et donc φt + H∗ (Dφ, D2 φ) ≥ H∗ (0, O) = 0 . On suppose maintenant que d(t0 , x0 ) > 0. Soit y0 appartenant `a la projection de x0 sur Σt0 . On affirme alors que z(s, y) = d(s, y) − φ(s, y − y0 + x0 ) a un minimum local en (t0 , y0 ). En effet, pour tout (s, y) proche de (t0 , y0 ), on a z(s, y) ≥ d(s, y − y0 + x0 ) − ky0 − x0 k − φ(s, y − y0 + x0 ) ≥ d(t0 , x0 ) − φ(t0 , x0 ) − ky0 − x0 k = z(t0 , y0 ) puisque d(t0 , x0 ) = ky0 − x0 k et que d(t0 , y0 ) = 0. On peut donc appliquer `a la fonction test φ(s, y − y0 + x0 ) le r´esultat ci-dessus, pour obtenir φt + H(Dφ, D2 φ) ≥ 0 en (t0 , x0 ). QED Lemme 7.8 Pour tout T > 0, il existe des constantes c > 0 et σ > 0 telles que la fonction (e−ct d) ∧ σ est une sous-solution de (32). S ¯ x) < 0} = Ot Preuve : Comme d¯ est une fonction r´eguli`ere dans un voisinage de t Σt , que {x | d(t, ¯ x) = 0} = Σt pour tout t, la fonction d¯ v´erifie l’´equation ut + H(Du, D2 u) = 0 sur d¯ = 0 par et que {x | d(t, ¯ d´efinition S mˆeme de la m´ethode par lignes de niveau. Par cons´equent, sur un voisinage {|d| < } de l’ensemble Σ = t Σt , la fonction d¯ est de classe C 2 et on a ¯ D2 d) ¯ ≤ c|d| ¯ d¯t + H(Dd, pour une certaine constante c > 0. Notons qu’alors la fonction w = e−ct d¯ est sous-solution (classique) de l’´equation ut +H(Du, D2 u) dans ce voisinage. Or la fonction nulle ´etant sous-solution de cette mˆeme ´equation ¯ ∨0 est sous-solution (de viscosit´e cette fois) de dans IR+ ×IRN (car H∗ (0, O) = 0), la fonction e−ct d = (e−ct d) cette ´equation dans {d¯ < }. Montrons finalement que, si l’on pose σ = /2, alors w = (e−ct d) ∧ σ est encore une sous-solution. C’est une sous-solution dans {d¯ < } par la propri´et´e d’invariance de l’´equation (prendre θ(s) = s ∧ σ). Mais w est solution aussi sur {d¯ > 2/3}, puisque localement constante sur cet ensemble et que F∗ (0, O) = 0. QED En application nous avons le Th´ eor` eme 7.9 Si u est une solution de viscosit´e de (32) avec une condition initiale u0 v´erifiant (35)

{u0 < 0} = O0

et

{u0 = 0} = Σ0 ,

{u(t, ·) < 0} = Ot

et

{u(t, ·) = 0} = Σt .

alors, pour tout t ∈ [0, T ], on a

Preuve : On sait que la solution g´en´eralis´ee est ind´ependante du choix de u0 , pourvu que u0 satisfasse (35). Choisissons u0 = (d¯∧ σ) ∨ (−σ). Comme u0 ≤ d et que d est une sur-solution, on a u(t, ·) ≤ d pour tout t ∈ [0, T ]. D’autre part, on sait que u ∨ 0 est encore une solution. La fonction (e−ct d) ∧ σ ´etant sous-solution, on a donc (e−ct d) ∧ σ ≤ u(t, ·). Ces deux in´egalit´es impliquent le r´esultat voulu. QED

37

8

R´ egularit´ e pour les probl` emes uniform´ ement elliptiques

Dans toute cette partie, on consid`ere un probl`eme uniform´ement elliptique de la forme F (D2 u) = f (x)

(36)

dans Ω

Notre objectif est de donner un bref aper¸cu des techniques employ´ees pour d´emontrer la r´egularit´e des solutions de viscosit´e d’une telle ´equation. Toute cette partie est emprunt´ee ` a [5].

8.1

Equations fortement elliptiques, op´ erateurs de Pucci

On dit que F : Sn → IR est uniforment elliptique s’il existe deux constantes 0 < λ ≤ Λ telles que (37)

F (M ) − ΛkN k ≤ F (M + N ) ≤ F (M ) − λkN k

∀M ∈ SN , ∀N ∈ SN , N ≥ 0 .

Fixons 0 < λ < Λ. On d´efinit maintenant les op´erateurs de Pucci M+ (·, λ, Λ) et M− (·, λ, Λ) : si X est une matrice de SN , de valeurs propres e1 , . . . , eN , X X M− (X, λ, Λ) = −λ ei − Λ ei ei 0

On remarque que M− (X, λ, Λ) = inf{T r(−XA) | A ∈ SN , λIN ≤ A ≤ ΛIN } , tandis que M+ (X, λ, Λ) = sup{T r(−XA) | A ∈ SN , λIN ≤ A ≤ ΛIN } . En particulier, M− (X, λ, Λ) ≤ M+ (X, λ, Λ) pour toute matrice X ∈ SN et M+ (X, λ, Λ) = −M− (−X, λ, Λ) .

(38)

Voici quelques autres remarques utiles par la suite : Lemme 8.1 Si F v´erifie (37), alors • L’application G : SN → IR d´efini par G(X) = −F (−X) v´erifie aussi (37). • On a, pour tout X, Y ∈ SN , M− (X − Y,

λ λ , Λ) ≤ F (X) − F (Y ) ≤ M+ (X − Y, , Λ) . N N

Preuve : Le premier point est imm´ediat. Pour d´emontrer le second, notons e1 , . . . , eN les valeurs propres de X − Y et ´ecrivons X − Y sous la forme X − Y = A − B, avec A ≥ 0 et B ≥ 0. Les valeurs propres de A sont max{e1 , 0}, . . . , max{eN , 0} tandis que celles de B sont max{−e1 , 0}, . . . , max{−eN , 0}. Alors, d’apr`es (37), F (X) = F (Y + A − B) ≥ F (Y ) + λkBk P − ΛkAk P λ ≥ F (Y ) − N ei 0 ei λ ≥ F (Y ) + M− (X − Y, N , Λ) La derni`ere in´egalit´e se d´emontre de mˆeme. QED

38

L’int´erˆet d’introduire les op´erateurs de Pucci est le suivant : supposons que u soit une solution d’un probl`eme de la forme F (D2 u) = f , avec F uniform´ement elliptique au sens de (6). Alors, d’apr`es le lemme 8.1, u est ´egalement une sur-solution de M+ (D2 u, λ, Λ) + |f (x)| + |F (0)| = 0, et une sous-solution de M− (D2 u, λ, Λ) − |f (x)| − |F (0)| = 0. Donc u est une sur- et une sous-solution d’´equations qui ne d´ependent plus de F , mais uniquement des constantes λ et Λ et de f . Cela conduit tout naturellement ` a introduire la classe S ∗ (λ, Λ, f ) des fonctions u continues sur Ω telles + 2 que u est une sur-solution de M (D u, λ, Λ)+|f (x)| = 0 et une sous-solution de M− (D2 u, λ, Λ)−|f (x)| = 0. Soulignons que, si u appartient ` a cette classe de fonctions, alors −u et u+c aussi pour toute constante c ∈ IR. Nous avons montr´e le lemme : Lemme 8.2 Si u est une solution de (36) avec F v´erifiant (37), alors u appartient ` a S ∗ (λ, Λ, |F (0)| + |f |).

8.2

L’in´ egalit´ e de Harnack et la r´ egularit´ e H¨ older des solutions

Les in´egalit´es de Harnack expriment le fait que le maximum dans un ouvert d’une solution d’une EDP elliptique est contrˆ ol´e par l’infimum de cette solution dans l’ouvert. Par exemple, dans le cas des fonctions harmoniques dans un ouvert Ω, cette in´egalit´e s’exprime de la fa¸con suivante : pour tout ouvert Ω0 ⊂⊂ Ω, il existe une constante C telle que, pour toute fonction harmonique positive dans Ω, on a sup u ≤ C inf0 u . Ω

Ω0

Dans toute la suite, Qr d´esigne le cube centr´e en 0 et de cˆot´e de longueur r et, pour tout z ∈ IRN , Qr (z) = z + Qr . Voici l’in´egalit´e de Harnack pour les solutions de viscosit´e : Th´ eor` eme 8.3 (In´ egalit´ e de Harnack) Si u ∈ S ∗ (λ, Λ, f ) dans Q1 , avec f continue born´ee et u ≥ 0, alors   sup u ≤ C inf u + kf kLN (Q1 ) , Q1/2

Q1/2

o` u la constante C ne d´epend que de N , de λ et Λ. La preuve de ce th´eor`eme repose sur une in´egalit´e due `a Caffarelli (in´egalit´e dite d’Alexandroff-BackelmanPucci), combin´ee ` a des arguments de Krylov et Safanov (voir la partie 9.8 de [11]). Cette d´emonstration est est trop longue et trop technique pour ˆetre reproduite ici, et peut ˆetre trouv´ee dans [5]. La cons´equence principale—et tr`es classique—de l’in´egalit´e de Harnack est la r´egularit´e C α des solutions de F (D2 u) = f (x). Montrons d’abord un r´esultat interm´ediaire, exprim´e en termes d’oscillations de la fonction u. Rappelons que l’oscillation oscE u d’une fonction u dans un ensemble E est la diff´erence entre le supremum et l’infimum de cette fonction dans l’ensemble E. Corollaire 8.4 On suppose que u ∈ S ∗ (λ, Λ, f ) dans Q1 , avec f continue born´ee. Il existe une constante µ ∈]0, 1[, qui ne d´epend que de N , λ et Λ, telle que oscQ1/2 u ≤ µ oscQ1 u + 2kf kLN (Q1 ) . Preuve : Posons, pour tout r ∈ [0, 1], mr = inf Qr u et Mr = supQr u. On applique l’in´egalit´e de Harnack aux deux fonctions positives u − m1 et M1 − u qui appartiennent encore `a S ∗ (λ, Λ, f ) :  M1/2 − m1 ≤ C m1/2 − m1 + kf kLN (Q1 ) et M1 − m1/2 ≤ C M1 − M1/2 + kf kLN (Q1 )



On additionne les deux in´egalit´es pour obtenir : (1 + C)(M1/2 − m1/2 ) ≤ (C − 1)(M1 − m1 ) + 2Ckf kLN (Q1 ) ce qui est le r´esultat annonc´e, avec µ = (C − 1)/(C + 1), puisque oscQr u = Mr − mr . 39

QED Du corollaire 8.4, on d´eduit la r´egularit´e H¨older d’une solution u : Th´ eor` eme 8.5 Sous les hypoth`eses du corollaire 8.4, u ∈ C α (Q1/2 ) pour une certaine constante α ∈]0, 1[ et  kukC α (Q1/2 ) ≤ C kukL∞ (Q1 ) + kf kLN (Q1 ) . o` u la constante C ne d´epend que de N , λ et Λ. Preuve : Soit z ∈ Q1 et r > 0 tels que Qr (z) ⊂ Q1 . En appliquant l’in´egalit´e du corollaire 8.4 `a la fonction u(z + r·) qui appartient ` a S ∗ (λ, Λ, r2 f (z + r·)) de Q1 , on obtient : oscQr/2 (z) u ≤ µ oscQr (z) u + 2rkf kLN (Qr ) . Pour conclure, il suffit alors d’utiliser le lemme suivant : Lemme 8.6 (Voir [11], Lemme 8.23 p. 201) Si une fonction continue positive croissante ω v´erifie une in´egalit´e du type ω(r/2) ≤ µ ω(r) + 2Cr dans [0, 1] avec µ ∈]0, 1[, alors, pour tout r ∈ [0, 1], ω(r) ≤ C1 (ω(1) + C) rα , o` u les constantes α ∈]0, 1[ et C1 ne d´ependent que de µ. On applique le lemme pr´ec´edent ` a ω(r) = oscQr (z) u et C = kf kLN (Q1 ) , et en utilisant le fait que ω(1) ≤ 2kukL∞ (Q1 ) . Cela donne  oscQr (z) u ≤ C kukL∞ (Q1 ) + kf kLN (Q1 ) rα .  Ceci prouve que u est dans C α dans Q1/2 , avec une constante proportionnelle `a kukL∞ (Q1 ) + kf kLN (Q1 ) . QED

8.3

R´ egularit´ e C 1,α int´ erieure de F (D2 u) = 0

Dans cette partie, nous montrons que les solutions de F (D2 u) = 0 sont de classe C 1,α d`es que F v´erifie la condition d’ellipticit´e (37). Notre premier objectif est d’´etablir une ´equation satisfaite par u(· + he) − u(·) pour une solution u de F (D2 u) = 0. Pour cela, nous aurons besoin du Lemme 8.7 Soit u une sous-solution continue de F (D2 u) = 0 dans un ouvert Ω et v une sur-solution λ continue de cette ´equation dans Ω. Alors u − v est une sous-solution de M− (D2 u, N , Λ) = 0 dans l’ouvert Ω. Preuve : Soit une fonction test φ telle que u(x) − v(x) − φ(x) a un maximum en un point x0 . Sans perte de g´en´erali´e, on peut supposer que ce maximum est strict. Consid´erons alors une p´enalisation de la forme w (x, y) = u(x) − v(y) − φ(y) − 12 kx − yk2 . Par des arguments standards, il existe une suite de maxima locaux (x , y ) de w avec x et y qui convergent vers x0 lorsque  → 0+ . Le lemme matriciel 2,+ affirme que, pour tout η > 0, il existe des matrices Xη ∈ SN et Yη ∈ SN avec ( 22 (x − y ), Xη ) ∈ D u(x ) et (−Dφ(y ) +

2 2 (x

− y ), Yη ) ∈ D

o` u

2,−

 A=

v(x ) et avec   Xη 0 ≤ A + ηA2 0 −Yη 0 0 0 D2 φ(y )



2 + 2 

40



IN −In

−In In

 .

L’in´egalit´e ci-dessus implique que Xη ≤ Yη + D2 φ(y ) + O(η). Or u ´etant une sous-solution, on a F (Xη ) ≤ 0, tandis que, v ´etant une sur-solution, on a F (Yη ) ≥ 0. D’o` u 0 ≥ F (Xη ) − F (Yη ) ≥ F (Yη + D2 φ(y ) + O(η)) − F (Yη ) ≥ M− (D2 φ(y ) + O(η),

λ , Λ) , N

la derni`ere in´egalit´e venant du lemme 8.1. Lorsque η → 0+ , puis que  → 0+ , on obtient l’in´egalit´e d´esir´ee : λ M− (D2 φ(x0 ), N , Λ) ≤ 0. QED Corollaire 8.8 Soit u une solution de F (D2 u) = 0 dans un ouvert Ω. Soit e ∈ IRN avec kek ≤ 1 et h > 0. Alors u(· + he) − u(·) appartient ` a S ∗ (λ/N, Λ, 0) dans l’ouvert Ωh = {x ∈ Ω | d∂Ω (x) > h}. Preuve : Le fait que u(· + he) − u(·) soit une sous-solution de M− (D2 v, λ/, Λ) = 0 est une cons´equence directe du lemme 8.7 car u(· + he) est une solution de F (D2 v) = 0 dans Ωh . Comme u est solution de F (Du) = 0, la proposition 2.4 affirme que −u est une solution de G(D2 v) = 0 dans Ω, avec G(X) = −F (−X) qui v´erifie encore (37). On en d´eduit que (−u(· + he)) − (−u(·)) est sous-solution de M− (D2 v, λ/N, Λ) = 0 dans Ωh . Appliquant `a nouveau la proposition 2.4, ceci implique que u(· + he) − u(·) est sur-solution de M+ (D2 v, λ/N, Λ) = 0 dans Ωh , puisque, pour toute matrice X, M+ (X, λ/N, Λ) = −M− (−X, λ/N, Λ). En conclusion, u(· + he) − u(·) appartient `a S ∗ (λ/N, Λ, 0). QED Ensuite nous avons besoin du r´esultat technique suivant sur les fonctions h¨olderiennes et leur taux d’accroissement : Lemme 8.9 (Voir Lemme 5.6 de [5]) Soit β > 0 et u une fonction continue sur l’intervalle I = [−1, 1] vβ,h (x) =

u(x + h) − u(x) hβ

∀x ∈ Ih ,

o` u Ih = [−1, 1 − h] si h > 0 et Ih =] − 1 − h, 1[ si h < 0. On suppose que vβ,h appartient ` a C α (Ih ) et qu’il existe une constante K telle que kuk∞ ≤ K, kvβ,h kC α (Ih ) ≤ K pour tout h. Alors • si α + β < 1, alors u ∈ C α+β (I) et kukC α+β (I) ≤ CK • si α + β > 1, alors u ∈ C 0,1 (I) et kukC 0,1 (Ih ) ≤ CK o` u C est une constante qui ne d´epend que de α et β. Nous sommes maintenant pr`es ` a d´emontrer le Th´ eor` eme 8.10 Soit u une solution de F (D2 u) = 0 dans B1 . Alors u ∈ C 1,α (B1/2) et  kukC 1,α (B1/2 ) ≤ C kukL∞ (B1 ) + |F (0)| , o` u α et C sont des constantes qui ne d´ependent que de N , de λ et de Λ. Remarque : Lorsque F est convexe ou concave, il est prouv´e dans [5] que u est en fait C 2,α . Preuve : Definissons vβ (x) = u(x+he)−u(x) dans Ωh . On remarque que vβ est dans S ∗ (λ/N, Λ, 0) puisque hβ + − les op´erateurs M et M sont homog`enes. Donc, d’apr`es le th´eor`eme 8.5, on a, pour tout 0 < r < s < 1, (39)

kvβ kC α (Br ) ≤ Ckvβ kL∞ (B(r+s)/2 ) ≤ CkukC β (Bs )

o` u C = C(r, s). Notons maintenant que, comme u appartient `a S ∗ (λ/N, Λ, |F (0)|), le th´eor`eme 8.5 dit aussi que kukC α (B7/8 ) ≤ C(kukL∞ (B1 ) + |F (0)|)

41

Combinant cette in´egalit´e avec l’in´egalit´e (39) pour β = α donne alors que kvα kC α (Br ) ≤ CkukC α (Bs ) C(kukL∞ (B1 ) + |F (0)|) . Cette in´egalit´e ´etant vraie quel que soit e, le lemme 8.9 implique que u ∈ C 2α (Br ), avec kukC 2α (Br ) ≤ C(kukL∞ (B1 ) + |F (0)|) . L’in´egalit´e (39) nous a donc permis de passer d’une r´egularit´e C α `a une r´egularit´e C 2α pour u, le prix `a payer ´etant une r´eduction de la boule sur laquelle cette r´egularit´e a lieu. En appliquant un nombre fini de fois ce 0 proc´ed´e, dans des boules de plus en plus petites, on prouve la r´egularit´e C 1,α de u (pour un certain α0 > 0). QED

42

References [1] L. AMBROSIO (2000) Geometric evolution problems, distance function and viscosity solutions. Buttazzo, G. (ed.) et al., Calculus of variations and partial differential equations. Topics on geometrical evolution problems and degree theory. Based on a summer school, Pisa, Italy, September 1996. Berlin: Springer. 5-93, 327-337. [2] M. BARDI & I. CAPUZZO DOLCETTA. (1996) Optimal control and viscosity solutions of Hamilton-Jacobi-Bellman equations. Birkh¨auser. ´ des e ´quations de Hamilton-Jacobi. Springer[3] G. BARLES. (1994) Solutions de viscosite Verlag, Berlin. ´ et e ´quations elliptiques du deuxie `me [4] G. BARLES. (1997) Solutions de viscosite ordre. Polycopi´e de cours. Universit´e de Tours. [5] CAFFARELLI L. & CABRE X. (1995) Fully nonlinear elliptic equations. Colloquium Publications. 43. Providence, RI: American Mathematical Society (AMS). [6] CRANDALL M.G. & LIONS P.L. (1983) Viscosity solutions of Hamilton-Jacobi Equations. Trans. Amer. Math. Soc., 277, 1-42. [7] CRANDALL M.G., ISHII H. & LIONS P.L. (1992) User’s guide to viscosity solutions of second order Partial Differential Equations. Bull. Amer. Soc., 27, pp. 1-67. [8] DACOROGNA, B. & MARCELLINI, P. (1999). Implicit partial differential equations. Progress in Nonlinear Differential Equations and their Applications. 37. Boston, MA: Birkh¨auser. [9] EVANS L. C. & GARIEPY R. F. (1992) Measure theory and fine properties of functions. Studies in Advanced Mathematics. Boca Raton. [10] FLEMING W.H. & SONER H.M. (1993) Controlled Markov processes and viscosity solution. Springer-Verlag, New-York. [11] GILBARG D. & TRUDINGER N.S. (1983) Elliptic partial differential equations of second order, Springer-Verlag, Heidelberg. [12] JENSEN, R. (1988) The maximum principle for viscosity solutions of fully nonlinear second order partial differential equations. Arch. Ration. Mech. Anal. 101, No.1, 1-27. [13] KRUZKOV S. N. (1970) First order quasilinear equations in several independant variables. Math. USSR-Sb. 10, 217-243. ¨ lder [14] KRYLOV, N.V. (1996) Lectures on elliptic and parabolic equations in Ho spaces. Graduate Studies in Mathematics. 12. Providence, RI: American Mathematical Society (AMS). [15] LIONS P.L. (1982) Generalized solution of Hamilton-Jacobi equations. Pitman, London. [16] YONG, J. & ZHOU X. Y. (1999) Stochastic controls. Hamiltonian systems and HJB equations. Applications of Mathematics. 43. New York, NY: Springer. [17] X.-P. ZHU (2002) Lectures on mean curvature flows. AMS/IP Studies in Advanced Mathematics. 32. Providence, RI: American Mathematical Society (AMS). Somerville: International Press

43