TD8 Exercice 11

J'ai reçu plusieurs mails me demandant une correction de l'exercice 11 du TD8. La voici (vérifiez bien les détails, ils y a peut-être des coquilles).

Bon courage pour les révisions ! 🎅🎅🎅🎅

a) L'intégrale fait 1 donc c'est une densité. Comme la densité est une fonction symétrique, l'espérance est nulle : E[X]=0\mathbb{E}[X]=0. Encore par symétrie, on a E[X2]=21x2/x3dx=+\mathbb{E}[X^2] = 2\int_1^\infty x^2 / x^3 dx = +\infty. Le TCL ne s'applique pas car XX n'est donc pas L2L^2.

b) Comme XX a une loi symétrique on a φ(t)=φ(t)\varphi(-t) = \varphi(t). De plus, on a toujours φ(t)=φ(t)\varphi(-t) = \overline{\varphi(t)}. On en déduit que φ(t)=φ(t)\varphi(t) = \overline{\varphi(t)}, c'est-à-dire que φ\varphi est en fait une fonction à valeurs réelles, et donc φ(t)=ReE[eitX]=E[cos(tX)]\varphi(t) = \mathrm{Re}\mathbb{E}[e^{itX}] = \mathbb{E}[\cos(tX)]. Le cosinus et la densité de XX étant des fonctions symétriques, on peut écrire

φ(t)=21cos(tx)x3dx. \varphi(t) = 2\int_1^\infty \frac{\cos(tx)}{x^3}dx.

Le changement de variables y=txy = tx donne

φ(t)=2t2tcos(y)y3dy \varphi(t) = 2 t^2 \int_t^\infty \frac{\cos(y)}{y^3}dy

On écrit artificiellement cos(y)=1(1cos(y))\cos(y) = 1 - (1 - \cos(y)). Comme t1/y3dy=[2/y2]t=2t2\int_t^\infty 1/y^3 dy = [-2/y^2]_t^\infty = 2t^2, on en déduit que

φ(t)=2t22t22t2t1cos(y)y3dy\varphi(t) = \frac{2t^2}{2t^2} - 2t^2\int_t^\infty \frac{1 - \cos(y)}{y^3}dy

ce qui est bien l'identité demandée.

c) Il s'agit essentiellement de montrer que la fonction g(t)g(t) définie par g(t)=t(1cos(y))y3dyg(t) = \int_t^\infty (1 - \cos(y))y^{-3}dy vérifie g(t)ln(t)/2g(t)\sim -\ln(t)/2 lorsque t0+t\to 0^+ (ou plus précisément g(t)=ln(t)/2+o(ln(t)))g(t) = -\ln(t)/2 + o(\ln(t))).

Idée : On coupe l'intégrale en aa (à choisir plus tard), g(t)=ta+ag(t) = \int_t^a… + \int_a^\infty…; le second terme est une constante donc on l'oublie. On va montrer que le premier terme est équivalent à ln(1/t)/2\ln(1/t)/2. Près de 0 on a cos(x)1x2/2+o(x2)\cos(x) \sim 1 - x^2/2 + o(x^2), donc en zéro la fonction dans l'intégrale est 1/2x\sim 1/2x et l'intégrale devrait être comparable à l'intégrale de ta1/2ydy=(ln(a)ln(t))/2ln(1/t)/2 \int_t^a 1/2ydy = (\ln(a)-\ln(t))/2 \sim ln(1/t)/2.

Je vous laisse essayer par vous-même de rendre rigoureuse cette idée (indice : bien choisir aa et bien quantifier le petit o dans l'équivalent du cos). Envoyez moi un mail si vous avez des questions.

d) Comme les XiX_i sont iid, φZn(t)=φ(t/nln(n))n\varphi_{Z_n}(t) = \varphi(t/\sqrt{n\ln(n)})^n. Lorsque nn\to \infty, la question précédente montre que ceci est équivalent à

exp(nln(1t2nln(n)ln(tnln(n))+o(t2/nln(n))))\exp\left(n\ln\left(1 - \frac{t^2}{n\ln(n)}\ln\left(\frac{t}{\sqrt{n\ln(n)}}\right) + o(t^2 / n\ln(n))\right)\right)

Il faut calculer cette limite. L'équivalent usuel du logarithme en zéro est suffisant: on voit que le terme dans l'exponentielle est équivalent à

nt2nln(n)ln(t)nt2(ln(n)+lnln(n))2nln(n)+o(t2/ln(n))=tln(t)ln(n)t22t2lnln(n)2ln(n)+o(1)=o(1)t2/2+o(1)+o(1)=t2/2+o(1)\begin{aligned}- \frac{nt^2}{n\ln(n)}\ln(t) - \frac{nt^2(\ln(n) + \ln\ln(n))}{2n\ln(n)} + o(t^2/\ln(n))& = \frac{t\ln(t)}{\ln(n)} - \frac{t^2}{2} - \frac{t^2\ln\ln(n)}{2\ln(n)} + o(1) \\ &= o(1) - t^2/2 + o(1) + o(1) \\ &= -t^2/2 + o(1)\end{aligned}

ce qui veut précisément dire que φZn(t)et2/2\varphi_{Z_n}(t)\to e^{-t^2/2}, et donc par le théorème de Paul Lévy que ZnZ_n converge en loi vers N(0,1)\mathscr{N}(0,1).

e) La fonction xeθx2x \mapsto e^{-\theta x^2} est une fonction continue bornée. Par conséquent, la convergence en loi de la question précédente entraîne que E[eθZn2]E[eθN2]\mathbb{E}[e^{-\theta Z_n^2}] \to \mathbb{E}[e^{-\theta N^2}]NN est une gaussienne standard. Le carré d'une gaussienne standard suit une loi du chi-deux avec paramètre 1 (qui est aussi une loi Γ(1/2,1/2)\Gamma(1/2, 1/2)). On a déjà vu la transformée de Laplace de ces lois: 

E[eθN2]=(11+2θ)1/2 \mathbb{E}[e^{-\theta N^2}] = \left(\frac{1}{1 + 2\theta}\right)^{1/2}

Théorème de Carleman : TD7 exercice 12

L'objectif est de montrer que si une suite de variables XnX_n est uniformément sous-gaussienne, c'est-à-dire s'il existe C,cC,c telles que pour tout xx,

P(Xn>x)Cecx2\mathbb{P}(|X_n|>x)\leq Ce^{-cx^2}

alors la convergence en loi des XnX_n et la convergence des moments sont équivalentes.

Ce théorème (sous une forme plus forte) est dû à Torsten Carleman, mathématicien suédois peu fréquentable.

Correction de l'exercice 12 du TD 7: le théorème de Carleman

On rappelle que si XX est positive alors

EX=0P(X>x)dx.\mathbb{E}X = \int_0^\infty \mathbb{P}(X>x)dx.

a)

En utilisant (8) on voit que

EXnk=0P(Xnk>x)dx=0P(Xn>x1/k)dx0Cecx2/kdx=A<\begin{aligned}\mathbb{E}|X_n|^k &= \int_0^\infty \mathbb{P}(|X_n|^k>x)dx \\ &= \int_0^\infty \mathbb{P}(|X_n|>x^{1/k})dx \\ &\leqslant \int_0^\infty Ce^{-cx^{2/k}}dx = A < \infty \end{aligned}

ce qui montre que les XnX_n ont bien des moments à tous les ordres.

Par ailleurs si l'on pose fn(x)=P(Xn>x1/k),f(x)=P(X>x1/k)f_n(x) = \mathbb{P}(|X_n|>x^{1/k}), f(x) = \mathbb{P}(|X|>x^{1/k}) et Fn(x)=P(Xnx),F(x)=P(Xx)F_n(x) = \mathbb{P}(X_n \leqslant x), F(x) = \mathbb{P}(X\leqslant x) on voit que

Par le théorème de convergence dominée on a donc EXnk=0fn0f=EXk\mathbb{E}|X_n|^k = \int_0^\infty f_n \to \int_0^\infty f = \mathbb{E}|X|^k. De plus, comme EXnkA\mathbb{E}|X_n|^k \leqslant A pour tout AA, on en déduit immédiatement que EXkA\mathbb{E}|X|^k \leqslant A donc en plus, tous les moments de XX sont finis.

Cela montre la convergence de tous les moments absolus, donc aussi de tous les moments d'ordre pair. Pour la convergence des moments impairs, on décompose en partie positive/négitave : Xn=AnBnX_n = A_n - B_n. En fait, An=σ(Xn)A_n = \sigma(X_n) avec σ(x)=max{x,0}\sigma(x) = \max\{x,0\} et σ\sigma est une fonction continue; or, si XnX_n converge en loi, toutes les fonctions continues[1] de XnX_n aussi, donc σ(Xn)\sigma(X_n) converge en loi vers σ(X)\sigma(X) qui est la partie positive de XX, et de même Bn=Xnσ(Xn)B_n = X_n - \sigma(X_n) converge en loi vers la partie négative de XX, notée BB.

Comme la partie positive et négative de XnX_n sont également sous-gaussiennes avec les mêmes constantes, on applique ce qui a été vu plus haut; on en déduit que E[Ank]EAk\mathbb{E}[A^k_n] \to \mathbb{E}A^k et EBnkEBk\mathbb{E} B_n^k \to \mathbb{E} B^k. Or, comme kk est impair,

EXnk=E[AnkBnk]=E[Ank]E[Bnk]E[Ak]E[Bk]=E[Xk]. \mathbb{E} X_n^k = \mathbb{E} [A_n^k - B_n^k]= \mathbb{E}[A_n^k] - \mathbb{E}[B_n^k] \to \mathbb{E}[A^k] - \mathbb{E}[B^k] = \mathbb{E}[X^k].

b)

i)

On a vu que comme les XnX_n sont sous-gaussiennes,

E[Xnk+1]0Cecx2/(k+1)dx.\mathbb{E}[|X_n|^{k+1}] \leqslant \int_0^\infty Ce^{-cx^{2/(k+1)}}dx.

En posant y=cx2/(k+1)y = cx^{2/(k+1)} cette borne devient

Cc(k+1)/2k+120eyy(k1)/2dy=C(k+1)ck/2c2Γ((k+1)/2). Cc^{-(k+1)/2}\frac{k+1}{2} \int_0^\infty e^{-y}y^{(k-1)/2}dy = \frac{C(k+1)}{c^{k/2}\sqrt{c}2}\Gamma((k+1)/2) .

De plus la fonction Γ\Gamma vérifie la borne suivante: si mx<m+1m\leqslant x < m+1 avec mm entier alors par croissance Γ(x)Γ(m+1)=m!mmxx \Gamma(x)\leq \Gamma(m+1) = m!\leq m^m\leq x^x. Par conséquent (12) est plus petit que

C(k+1)ck/22c((k+1)/2)(k+1)/2 \frac{C (k+1)}{c^{k/2}2\sqrt{c}}((k+1)/2)^{(k+1)/2}

et comme (k+1)/2k(k+1)/2 \leq k, tout ceci est plus petit que

C2ckk/2+3/2ck/2=C2c(k/c)k/2k3/2\frac{C}{2\sqrt{c}}\frac{k^{k/2 + 3/2}}{c^{k/2}}= \frac{C}{2\sqrt{c}}(k/c)^{k/2} k^{3/2}

Par croissance comparée k3/2(k/c)k/2k^{3/2} \leq (k/c)^{k/2} dès que kk est suffisamment grand, donc quitte à ajuster les constantes on voit qu'il existe aa tel que tout ceci est plus petit que (ak)k/2(ak)^{k/2} comme demandé.

ii)

Par convergence dominée (pourquoi ?) on peut écrire que

φn(t)=j=0ijtjj!EXnj.\varphi_n(t) = \sum_{j=0}^\infty \frac{i^jt^j}{j!}\mathbb{E}X_n^j.

Par simplicité on ne regardera que les tt positifs, le cas négatif marche de la même manière.

On coupe la somme à un kk entier et on borne brutalement le reste, qu'on notera r=r(n,k,t)r=r(n,k,t)

r(n,k,t)j>ktj+1(j+1)!(aj)j/2. |r(n,k,t)| \leq \sum_{j>k} \frac{t^{j+1}}{(j+1)!}(aj)^{j/2}.

On a (j+1)!>j!(j+1)!>j! et l'équivalent de Stirling dit que j!>cjjjejj!>c j^j \sqrt{j}e^{-j}. La constante ne jouant aucun rôle, on l'oublie (en fait cette inégalité est vraie pour tout jj pour c=1c=1). Ainsi, le reste devient borné par

rj>kt[taj]jjjjejtj>k(taeaj)j1jtj>kρjj\begin{aligned} |r|&\leq \sum_{j>k}\frac{t[t \sqrt{a} \sqrt{j}]^j}{j^j \sqrt{j}e^{-j}}\\ &\leq t\sum_{j>k} \left(\frac{tae}{\sqrt{aj}}\right)^j \frac{1}{\sqrt{j}} \\ &\leq t\sum_{j>k} \rho_j^j \end{aligned}

où, à la dernière ligne, j'ai utilisé 1/j11/\sqrt{j}\leq 1 et j'ai posé ρj=tae/ja\rho_j = tae / \sqrt{ja}. Dès que kk est plus grand que 4t2ae4t^2 a e on voit que ρj<ρk×(1/2)jk\rho_j < \rho_k \times (1/2)^{j-k}. Par conséquent la borne ci-dessus devient plus petite que tρkk(11/2)1=2tρkkt\rho_k^k (1 - 1/2)^{-1} = 2t\rho_k^k (série géométrique de raison 1/2). Or,

2tρkk=2t(taeak)k=tk+1(ak)k/2(ae)k=tk+1(bk)k/2 2t\rho_k^k = 2t\left(\frac{tae}{\sqrt{ak}}\right)^k = t^{k+1}(ak)^{-k/2} (ae)^k = t^{k+1}(bk)^{-k/2}

bb est une nouvelle constante, b=1/ae2b=1/ae^2 (si on veut exactement l'énoncé de l'exercice, on met (ae)k(ae)^k dans la constante du O(...)O(...).

iii)

On fixe tt et kk, on a

φn(t)=j=0kijtjj!EXnj+r(n,k,t). \varphi_n(t) = \sum_{j=0}^k \frac{i^jt^j}{j!}\mathbb{E}X_n^j + r(n,k,t).

Comme les EXnj\mathbb{E} X_n^j convergent vers EXj\mathbb{E} X^j,on voit que EXj+1(aj)j/2\mathbb{E} X^{j+1}\leq (aj)^{j/2}. L'analyse faite à la question ii) est donc encore valable pour XX, en particulier

φ(t)=j=0kijtjj!EXj+r(k,t) \varphi(t) = \sum_{j=0}^k \frac{i^jt^j}{j!}\mathbb{E} X^j + r'(k,t)

r(k,t)tk+1(bk)k/2|r'(k,t)| \leq t^{k+1} (bk)^{-k/2}.

On en déduit que

φn(t)φ(t)0ktjj!EXnjEXj+r+r. |\varphi_n(t) - \varphi(t)| \leq \sum^k_0 \frac{t^j}{j!}|\mathbb{E} X_n^j - \mathbb{E} X^j| + |r| + |r'|.

Pour conclure, il faut faire attention à l'ordre dans lequel on prend les limites. On fixe d'abord tt et on choisit ϵ\epsilon. Comme rr et rr' tendent vers 0 quand kk\to \infty on choisit un kk très très grand pour que r+rϵ/2|r| + |r'| \leq \epsilon/2. Ensuite on fait nn\to \infty et le premier terme tend vers 0, donc il est plus petit que ϵ/2\epsilon/2.

In fine, on obtient bien que φn(t)φ(t)0|\varphi_n(t) - \varphi(t)| \to 0, donc il y a convergence en loi.

[1] pas forcément bornées !