Indépendamment du problème énoncé ci-dessus, on peut étudier les séries (infinies) de puissances sans qu'elles soient nécessairement liées à une suite de développements limités:
Une série entière est un type particulier de série, où \(x\) joue le rôle de paramètre; sa convergence/divergence dépend en général de \(x\). Pour pouvoir utiliser cette série comme une fonction, on s'intéresse donc aux valeurs de \(x\) pour lesquelles elle converge: \[ D:= \Bigl\{ x\in \mathbb{R}\,\big|\,\sum_{k=0}^\infty a_k(x-x_0)^k \text{ converge} \Bigr\}\,, \]
Remarque: \(D\) contient toujours au moins le point \(x=x_0\)!
On peut alors définir une fonction sur \(D\), à l'aide de la somme de la série: \[\begin{aligned} \psi:D&\to \mathbb{R}\\ x&\mapsto \psi(x):=\sum_{k\geqslant 0}a_k(x-x_0)^k\,. \end{aligned}\]
La fonction \(\psi\) est, par nature (c'est une fonction définie par une série!), difficile à étudier. Considérons d'abord un cas simple bien connu:
Exemple:
Considérons la série entière associée à la
suite constante \(a_k=1\), au point \(x_0=0\):
\[
\psi(x)=\sum_{k\geqslant 0}x^k=1+x+x^2+x^3+\cdots
\]
On reconnaît la série géométrique, qui comme on sait
converge si et seulement si \(x\in D=]-1,1[\).
Ce qu'on peut dire, en plus,
c'est que si \(x\in ]-1,1[\), alors non seulement la série définit bien une
fonction, mais on sait en plus que
\[
\psi(x)=\frac{1}{1-x}\quad (!!!)
\]
Donc on peut formuler ce résultat comme suit: lorsque \(x\in ]-1,1[\),
la série entière convergente \(\sum_{k\geqslant 0}x^k\) est en fait juste une
représentation de la fonction \(\frac{1}{1-x}\).
L'ensemble des \(x\) pour lesquels une série entière converge a une structure assez simple:
Théorème:
Il existe un réel
\(0\leqslant R\leqslant +\infty\) tel que
\[
\sum_{k\geqslant 0}a_k(x-x_0)^k \,\,
\begin{cases}
\text{converge si }|x-x_0|\lt R\,,\\
\text{diverge si }|x-x_0|\gt R\,.
\end{cases}
\]
On appelle \(R\) le rayon de convergence de la série.
De plus, dans le cas où on peut donner un sens à la limite
\[
\sigma:=\lim_{n\to\infty}\sqrt[n]{|a_n|}\,,
\]
alors
\[
R=\begin{cases}
+\infty&\text{ si }\sigma=0\,,\\
\frac{1}{\sigma}&\text{ si }0<\sigma<\infty\,,\\
0&\text{ si }\sigma=\infty\,.
\end{cases}
\]
Écrivons notre série entière sous la forme \(\sum_{k\geqslant 0}b_k(x)\), où \[ b_k(x):= a_k(x-x_0)^k\,. \] Commençons par supposer que la limite suivante existe: \[ \sigma(x):= \lim_{n\to\infty}\sqrt[n]{|b_n(x)|}\,, \] on sait, par le critère de Cauchy, que \[ \sum_{k\geqslant 0}b_k(x)\,\, \begin{cases} \text{converge si }&\sigma(x)\lt 1\,,\\ \text{diverge si }&\sigma(x)\gt 1\,. \end{cases} \] Or si on regarde de plus près, \[ \sigma(x)=|x-x_0|\lim_{n\to\infty}\sqrt[n]{|a_n|}=|x-x_0|\sigma\,, \] ce qui implique que \[ \sum_{k\geqslant 0}b_k(x)\,\, \begin{cases} \text{converge si }&|x-x_0|\lt \frac{1}{\sigma}\,,\\ \text{diverge si }&|x-x_0|\gt \frac{1}{\sigma}\,. \end{cases} \] Donc en définissant \(R\) par \(R:= \frac{1}{\sigma}\), on obtient bien le résultat.
Remarque:
Le théorème ci-dessus garantit que l'ensemble \(D\) des \(x\in \mathbb{R}\) pour lesquels une série entière converge est nécessairement un intervalle, appelé intervalle de convergence:
Une fois que \(D\) est connu, la série entière permet donc de définir la fonction \[\begin{aligned} \psi: D&\to \mathbb{R}\\ x&\mapsto \psi(x):= \sum_{k\geqslant 0}a_k(x-x_0)^k\,. \end{aligned}\]
Considérons pour commencer des exemples de séries entières centrées en \(x_0=0\): \[ \sum_{k\geqslant 0} a_kx^k \] Par le théorème ci-dessus, on sait que l'intervalle de convergence est forcément de la forme
Exemple: Considérons \[ \sum_{k=0}^\infty\frac{(-1)^k}{2^k}x^k\,. \] Dans ce cas, \[ \sigma =\lim_{n\to\infty}\sqrt[n]{|\tfrac{(-1)^n}{2^n}|}=\frac12\,, \] et donc \(R=\frac1{\sigma}=2\): la série converge pour tout \(-2\lt x\lt 2\), et diverge si \(x\gt 2\) ou \(x\lt -2\). Regardons maintenant ce qui se passe en \(x=\pm 2\).
Exemple: Considérons \[\sum_{k=0}^\infty k^2x^k\] Ici, \[ \sigma =\lim_{n\to\infty}\sqrt[n]{n^2} =\lim_{n\to\infty}e^{2\frac{\log(n)}{n}} =e^0 =1\,, \] donc \(R=1\). Comme la série diverge lorsque \(x=\pm 1\), on a que \(D=]-1,1[\).
Exemple: Considérons \[\sum_{k=0}^\infty k^kx^k\] Ici, \[ \sigma=\lim_{n\to\infty}\sqrt[n]{n^n}=\lim_{n\to\infty}n=\infty\,, \] donc \(R=0\). Donc la série converge si et seulement si \(x=0\): \(D=\{0\}\)
Exemple: Considérons \[\sum_{k=1}^\infty\frac1k x^k\] Utilisons la version ''d'Alembert'': \[ \sigma =\lim_{n\to\infty}\Bigl| \frac{1/(n+1)}{1/n} \Bigr| =1\,, \] donc \(R=1\). Regardons \(x=\pm 1\):
Exemple: Considérons \[\sum_{k=0}^\infty\frac1{k!}x^k\] On trouve \[ \sigma=\lim_{n\to\infty}\Bigl|\frac{n!}{(n+1)!}\Bigr|=0\,, \] et donc \(R=\infty\): la série converge pour tout \(x\in \mathbb{R}\), donc son intervalle de convergence est \(D=\mathbb{R}\). (Cette série peut en fait être utilisée pour définir la fonction exponentielle.)