Théorèmes à connaître pour l’examen de maturité.
par Aymeric Genet, Yannick Schlaeppi
Bonne chance à tous pour vos examens !
Contenu ©® ZWAHLEN Thierry 2006-2008
Plan
I. Théorèmes de 3ème
• Définition et interprétation graphique de la dérivée
Le chapitre du calcul différentiel permet de développer des méthodes permettant de dégager les principales propriétés graphiques des fonctions réelles (comment passer d’une fonction à un graphique). La notion de dérivée fait partie intégrante de ce chapitre.
Définition
La dérivée de $f$ au point $a$, notée ${f}’(a)$, est, pour autant qu’elle existe, la limite suivante :
Interprétation graphique
Regardons dans un premier temps la signification graphique de la fraction $\frac{f(x)-f(a)}{x-a}$ :
La fraction est la pente de la droite passant par le point $a$ et le point $x$. À la limite, quand $x$ tend vers $a$, la droite devient tangente au point $a$.
Nous savons donc que $f’(a)$ correspond graphiquement à la pente de la droite tangente à $f$ au point $( a ; f(a) )$.
Retour en haut
• Dérivée des fonctions Sinus et Cosinus
Nous allons démonter les égalités suivantes (présentes dans le formulaire CRM) :
$\begin{eqnarray*} \sin’(x)=&\cos(x)\\ \cos’(x)=&-\sin(x) \end{eqnarray*}$
Pour démontrer ces deux égalités, rappelons quelques propriétés des fonctions trigonométriques :
- $\sin(\alpha) - \sin(\beta) = 2 \cdot cos(\frac{\alpha + \beta}{2}) \cdot \sin(\frac{\alpha - \beta}{2})$
- $\lim_{x \to 0} \frac{\sin(x)}{x} = 1$
- $\cos^2(x) + sin^2(x) = 1$
Dérivée du Sinus
Démontrons maintenant la dérivée de la fonction Sinus
$\begin{eqnarray*} \sin’(x) & = & \lim_{x \to a} \frac{\sin(x) - \sin(a)}{x - a} \\ & = & \lim_{x \to a} \frac{2 \cos(\frac{x + a}{2}) \sin(\frac{x - a}{2})}{x -a} \\ & = & \lim_{x \to a} \left(2\cos\left(\frac{x+a}{2}\right)\frac{sin(\frac{x-a}{2})}{\frac{x-a}{2}}\frac{1}{2}\right) \\ & = & \lim_{x \to a} \left(2\frac{1}{2} \cos\left(\frac{x+a}{2}\right)\right) \cdot \lim_{x \to a} \frac{\sin(\frac{x-a}{2})}{\frac{x-a}{2}} \\ & = & \cos\left(\frac{2a}{2}\right) \cdot \lim_{y \to 0} \frac{\sin(y)}{y} \\ & = & \cos(a) \cdot 1 \end{eqnarray*}$
Finalement, $\sin’(x) = \cos(x) ~;~;~; \forall ~; x \in \R$
Dérivée du Cosinus
Pour démontrer cette égalité, nous allons dériver la fonction $\cos^2(x) + \sin^2(x)$ qui est constante.
$\begin{eqnarray*} \left(\cos^2(x) + \sin^2(x)\right)’ & = & (1)’ \\ \left(\cos^2(x)\right)’ + \left(\sin^2(x)\right)’ & = & 0 \\ \left(\cos^2(x)\right)’ & = & - \left(\sin^2(x)\right)’ \\ \cos’(x) & = & \frac{-2\sin(x)\cos(x)}{2\cos(x)} \\ & = & -\sin(x) \end{eqnarray*}$
Finalement, $\cos’(x) = - \sin’(x) ~;~;~; \forall ~; x \in \R$
Retour en haut
Nous allons démontrer que la dérivée de la fonction $f(x) = x^n$ équivaut à $f’(x) = n \cdot x^{n-1}$ en 3 temps :
- Lorsque $n$ est un entier positif ($n \in \N$)
- Lorsque $n$ est un entier négatif ($n \in \Z_-^*$)
- Lorsque $n$ est un rationnel ($n \in \Q$)
Il est également possible de démontrer que cette formule reste vraie lorsque l’exposant est un réel irrationnel, mais la démonstration est de niveau universitaire.
Énoncé 1
Si $f(x) = x^n$ alors $f’(x) = n \cdot x^{n-1} ~;~;~; \forall ~; x \in \R$ et $\forall ~; n \in \N$
Il s’agit de prouver par récurrence que :
- la formule est vraie pour $n = 0$
- si la formule est vraie pour $n$, alors elle l’est aussi pour $n + 1$
Supposons donc la formule vraie pour $n$.
Pour $n = 0$ :
$\begin{eqnarray*} \left(x^0\right)’ & = & \lim_{x\,\to\,a} \frac{f(x) - f(a)}{x - a} \\ & = & \lim_{x\,\to\,a} \frac{x^0 - a^0}{x - a} \\ & = & \lim_{x\,\to\,a} \frac{1 - 1}{x - a} \\ & = & 0 \end{eqnarray*}$
$\begin{eqnarray*} \left(x^n\right)’ & = & n \cdot x^{n-1} \\ \left(x^0\right)’ & = & 0 \cdot x^{0-1} \\ 0 & = & 0 \\ \end{eqnarray*}$
La formule est vraie pour $n = 0$.
Pour $n + 1$
$\begin{eqnarray*} \left(x^{n+1}\right)’ & = & \left(x \cdot x^n\right)’ \\ & = & x’ \cdot x^n + x \cdot (x^n)’ \\ & = & x^n + x \cdot nx^{n-1} \\ & = & x^n + nx^n \\ & = & x^n\left(1 + n\right) \\ & = & (n + 1)x^n \end{eqnarray*}$
La formule est vraie pour $n + 1$ donc pour tout entier positif.
Finalement, $(x^n)’ = nx^{n - 1} ~;~;~; \forall ~; n \in \N$
Énoncé 2
Si $f(x) = x^n$ alors $f’(x) = n \cdot x^{n-1} ~;~;~; \forall ~; x \in \R^*$ et $\forall ~; n \in \Z^*_-$
L’exposant est un entier négatif, donc le domaine de $f$ est $\R^*$ ($x^{-3} = \frac{1}{x^3})$
La démonstration se fera en utilisant la dérivée de l’inverse et la formule pour $n \in \N$.
Ne pas oublier que $n$ est un entier strictement négatif et que $-n$ est positif.
$\begin{eqnarray*} \left(x^n\right)’ & = & \left(\frac{1}{x^{-n}}\right)’ \\ & = & \frac{-\left(x^{-n}\right)’}{(x^{-n})^2} \\ & = & \frac{ -\left(-nx^{ -n-1 }\right)}{x^{-2n}} \\ & = & nx^{-n-1} \cdot x^{2n} \\ & = & nx^{-n-1+2n} \\ & = & nx^{n-1} \end{eqnarray*}$
Finalement, $\left(x^n\right)’ = nx^{n-1} ~;~;~; \forall ~; n \in \Z^*_-$
Énoncé 3
Si $f(x) = x^n$ alors $f’(x) = n \cdot x^{n-1} ~;~;~; \forall ~; x \in \R^*_+$ et $\forall ~; n \in \Q$
Remarques :
– Lorsque l’exposant est rationnel, le domaine de f est $\R^*_+$ (par exemple : $x^{-1/2} = - \frac{1}{\sqrt{x}}$
– La démonstration se fera en utilisant la dérivée de la composée et la formule pour n $\in \Z$
Démonstration :
Si n est un nombre rationnel, il peut s’écrire sous forme d’une fraction. Posons $n=\frac{p}{q}$. Pour démontrer que $(x^{\frac{p}{q}})’ = \frac{p}{q} x^{\frac{p}{q}-1}$, nous allons dériver la fonction $(x^{\frac{p}{q}})^q$ de deux façons :
$((x^{\frac{p}{q}})^{q})’ = q(x^{\frac{p}{q}})^{q-1} (x^{\frac{p}{q}})’ $
$((x^{\frac{p}{q}})^{q})’ = (x^p)’ = px^{p-1}$
Comme ces deux résultats sont équivalents on peut poser :
$q(x^{\frac{p}{q}})^{q-1} (x^{\frac{p}{q}})’ = px^{p-1}$
Il s’agit maintenant d’isoler $(x^{\frac{p}{q}})’$ soit :
$ (x^{\frac{p}{q}})’ = \frac{px^{p-1}}{q(x^{\frac{p}{q}})^{q-1}}$
$(x^{\frac{p}{q}})’ = \frac{p}{q} x^{p-1} (x^{\frac{p}{q}})^{-q+1}$
$(x^{\frac{p}{q}})’ = \frac{p}{q} x^{p-1} x^{\frac{p(1-q)}{q}} = \frac{p}{q} x^{p-1+\frac{p}{q}-p} = \frac{p}{q} x^{\frac{p}{q}-1}$
(ouf !)
À noter que la formule reste vraie lorsque l’exposant est irrationnel.
Par exemple : $(x^{\pi})’ = \pi x^{\pi -1}$
Retour en haut
• Dérivée des fonctions Arcsin et Arccos
Nous allons démontrer les égalités suivantes (présentes dans le formulaire CRM) :
$\begin{eqnarray*} Arcsin’(x) & = & \frac{1}{\sqrt{1-x^2}} \\ Arccos’(x) & = & \frac{-1}{\sqrt{1-x^2}} \end{eqnarray*}$
Dérivée de la fonction Arcsin
La fonction sinus est bijective de $\left[-\frac{\pi}{2} ; \frac{\pi}{2}\right]$ vers $[-1 ; 1]$. (c.f. graphique ci-dessous)
Elle admet donc une réciproque :
$\begin{eqnarray*} Arcsin : [-1 ; 1] & \rightarrow & \left[-\frac{\pi}{2} ; \frac{\pi}{2}\right] \\ x & \mapsto & Arcsin(x) \end{eqnarray*}$
Pour calculer la dérivée de la fonction Arcsinus, nous allons dériver la composée $\sin(Arcsin(x)) = x$
$\begin{eqnarray*} \left[\,\sin\left(Arcsin\left(x\right)\right)\right]’ & = & x’ ~;~;~;~;~;~; \forall ~; x \in ~; ]-1 ;1[ \\ cos\left(Arcsin\left(x\right)\right) \cdot Arcsin’\left(x\right) & = & 1 \\ Arcsin’\left(x\right) & = & \frac{1}{cos\left(Arcsin\left(x\right)\right)} \end{eqnarray*}$
À partir de ce point, on va utiliser une égalité à partir des propriétés trigonométriques (voir plus haut, dérivées de la fonction Sinus et Cosinus), qui est la suivante :
$\begin{eqnarray*} \cos^2\left(x\right) + \sin^2\left(x\right) & = & 1 \\ \cos\left(x\right) & = & \pm \sqrt{1 - \sin^2\left(x\right)} \end{eqnarray*}$
Le signe "-" est à exclure, car $\cos\left(x\right) > 0$ lorsque $x \, \in \left[\frac{\pi}{2} ; \frac{\pi}{2}\right]$
Substituons-le maintenant dans notre ancienne équation :
$\begin{eqnarray*} Arcsin’\left(x\right) & = & \frac{1}{\pm \sqrt{1 - \sin^2\left(Arcsin\left(x\right)\right)}} \\ & = & \frac{1}{\sqrt{1-x^2}} \end{eqnarray*}$
Finalement, $Arcsin’\left(x\right) = \frac{1}{\sqrt{1-x^2}} ~;~;~; \forall ~; x \in \left[\frac{\pi}{2} ; \frac{\pi}{2}\right]$
Dérivée de la fonction Arccosinus
La fonction cosinus est bijective de $\left[\,0 ; \pi\right]$ vers $[-1 ; 1]$.
Elle admet donc une réciproque :
$\begin{eqnarray*} Arccos : [-1 ; 1] & \rightarrow & \left[\,0 ; \pi \right] \\ x & \mapsto & Arccos(x) \end{eqnarray*}$
Nous allons suivre la même méthode que pour la dérivée de la fonction Arcsinus :
$\begin{eqnarray*} \left[\,\cos\left(Arccos\left(x\right)\right)\right]’ & = & x’ ~;~;~;~;~;~; \forall ~; x \in ~; ]-1 ;1[ \\ -sin\left(Arccos\left(x\right)\right) \cdot Arccos’\left(x\right) & = & 1 \\ Arccos’\left(x\right) & = & \frac{-1}{sin\left(Arccos\left(x\right)\right)} \end{eqnarray*}$
Reprenons l’égalité d’avant :
$\begin{eqnarray*} \cos^2\left(x\right) + \sin^2\left(x\right) & = & 1 \\ \sin\left(x\right) & = & \pm \sqrt{1 - \cos^2\left(x\right)} \end{eqnarray*}$
Le signe "-" est à exclure, car $\sin\left(x\right) > 0$ lorsque $x \, \in \left[\,0 ; \pi\right]$
Substituons-le maintenant dans notre ancienne équation :
$\begin{eqnarray*} Arcsin’\left(x\right) & = & \frac{-1}{\pm \sqrt{1 - \cos^2\left(Arccos\left(x\right)\right)}} \\ & = & \frac{-1}{\sqrt{1-x^2}} \end{eqnarray*}$
Finalement, $Arccos’\left(x\right) = \frac{-1}{\sqrt{1-x^2}} ~;~;~; \forall ~; x \in \left[\,0 ; \pi\right]$
Retour en haut
• Théorème des accroissements finis
Ce théorème découle directement du théorème de Rolle. Il a été démontré en 1700 environ.
Énoncé
Si $f$ est continue sur $[a ;b]$ et dérivable sur $]a ;b[$,
alors $\exists ~; c \in ~; ]a ;b[$ tel que $f’(c) = \frac{f(b) - f(a)}{b - a}$.
Illustration
La droite $d$ sur le graphique, est, par définition, la droite passant par les points $(a ;f(a))$ et $(b ;f(b))$.
La fraction $\frac{f(b)-f(a)}{b-a}$ représente la pente de cette droite.
Le théorème affirme l’existence d’au moins un point $c$ en lequel la tangente à $f$ est parallèle à la droite $d$ (il y a deux points $c$ sur l’illustration ci-dessus).
Démonstration
Rappelons le théorème de Rolle :
Si $f$ est continue sur un intervalle $[a ;b]$, et dérivable sur $]a ;b[$
et si $f(a) = f(b)$
alors $\exists ~; c \in ~; ]a ;b[$ tel que $f’(c) = 0$.
Il faut appliquer ce théorème à la fonction $f - d$ sur l’intervalle $[a ;b]$.
Cela est possible pour les raisons suivantes :
- Comme la fonction $d$ est un polynôme, elle est continue et dérivable sur $\R$ donc sur $[a ;b]$.
- La fonction $f-d$ (écart entre $f$ et $d$) est donc continue sur $[a ;b]$ (propriétés des fonctions continues) et dérivable sur $]a ;b[$ (dérivée de la somme).
- Comme $f(a) = d(a)$ et $f(b) = d(b)$, alors $(f-d)(a) = (f-d)(b) = 0$, ce qui nous ramène à la dernière condition "$f(a) = f(b)$".
La fonction $f-d$ vérifie donc toutes les hypothèses du théorème de Rolle.
Ce théorème nous assure l’existence d’un point $c \in ~; ]a ;b[$ tel que $(f-d)’(c) = 0$.
$\begin{eqnarray*} f’(c) - d’(c) & = & 0 \\ f’(c) & = & d’(c) \\ & & \\ & & \\ d’(x) & = & \frac{f(b)-f(a)}{b-a} \\ & & \\ & & \\ f’(c) & = & \frac{f(b)-f(a)}{b-a} \end{eqnarray*}$
Retour en haut
• Corollaire 1 : " f’ = 0 -> f = cte "
Si $f$ est continue sur $[a ;b]$, et dérivable sur $]a ;b[$
et si $f’(x)=0~;~;~;\forall~;x\in~;]a ;b[$,
alors $f(x)=f(a)~;~;~;\forall~;x\in~;]a ;b[$. (Cela signifie que $f$ est constante sur $[a ;b]$.)
Nous allons appliquer le théorème des accroissements finis à la fonction $f$ sur l’intervalle $[a ;x]$.
Considérons un nombre $x$ de l’intervalle $]a ;b]$.
Par hypothèse du corollaire, la fonction $f$ vérifie les hypothèses du théorème des accroissements finis sur l’intervalle $[a ;x]$.
Nous savons donc que : $\exists ~; c \in ~; ]a ;x[ ~;~; | ~;~; f’(c) = \frac{f(x)-f(a)}{x-a}$
Comme $f’(c) = 0$ (hypothèse du corollaire) $f(x) - f(a)$ est aussi forcément égal à 0.
Ce raisonnement étant valable pour tout $x$ de l’intervalle $]a ;b]$, nous en déduisons que $f(x) = f(a) ~;~;~; \forall ~; x \in ~; ]a ;b]$ et donc que $f(x) = f(a) ~;~;~; \forall ~; x \in \, [a ;b]$ (car $f(a) = f(a)$...)
Retour en haut
• Corollaire 2 : " f’ > 0 -> f croissante "
Si $f$ est continue sur $[a ;b]$, et dérivable sur $]a ;b[$
et si $f’(x) \geq 0 ~;~;~; \forall ~; x \in ~; ]a ;b[$,
alors $f$ est croissante sur $[a ;b]$.
Il s’agit de prouver que :
(définition de la croissance)
Considérons donc deux nombres $x_1$ et $x_2$ tels que $a \leq x_1 < x_2 \leq b$.
Nous allons appliquer le théorème des accroissements finis à $f$ sur l’intervalle $[x_1 ;x_2]$. (Cela est possible car $f$ vérifie forcément les hypothèses de ce théorème sur cet intervalle.)
Nous savons donc que $\exists ~; c \in ~; ]x_1 ;x_2[ ~;~; | ~;~; f’(c) = \frac{f(x_2) - f(x_1)}{x_2 - x_1}$.
Comme $f’(c) \geq 0$ (et $x_2-x_1 > 0$) nous pouvons déduire que $f(x_1) - f(x_2) \geq 0$.
Finalement, si $x_1 < x_2$, alors $f(x_1) \leq f(x_2)$. $f$ est donc croissante sur $[a ;b]$.
Remarque
- La réciproque de ce théorème est vraie.
- Il est possible de démontrer le théorème "$f’ \leq 0 \Longrightarrow f \searrow$" en procédant de la même manière.
Retour en haut
II. Théorèmes de 4ème
Si F1 et F2 sont deux primitives de f sur I, alors F1 - F2 est une fonction constante.
Énoncer et démontrer que "f ’ = 0 > f = cte"
Il faut rappeler le corollaire 1 des accroissements finis :
Le théorème des accroissements finis nous dit que pour toute fonction continue sur l’intervalle [a ;b] et dérivable sur ]a ;b[, il existe un point $c$ tel que
$f’(c) = \frac{f(b)-f(a)}{b-a}$
Le premier corollaire prend comme hypothèse supplémentaire que la dérivée est nulle.
Si l’on considère l’intervalle ]a ;x] où $x\,\in\, [a ;b]$ on a
Et donc $f(x) = f(a) ~;~;~; \forall~;x\,\in\,[a ;b]$, la fonction est donc constante sur cette intervalle (succinctement c’est ça quoi...).
Selon ce corollaire, comme la dérivée de F1 - F2 est la fonction nulle, F1 - F2 est obligatoirement une fonction constante.
Retour en haut
• Présentation de l’intégrale de Riemann
Rappelons, pour notre culture générale, que Riemann était un mathématicien allemand qui n’a vécu que 40 ans, entre 1826 et 1866.
Les sommes de Riemann ont pour but d’obtenir une approximation de l’aire sous la courbe d’une fonction f. Voici la procédure :
- Pour ceci, prenons une fonction f continue dans un intervalle fermé [a ;b], et représentons-la.
- Partageons ensuite cet intervalles par des sous-intervalles, pas forcément tous de la même longueur, selon n points, en partant de x0 = a, x1 = ... xn = b.
- À l’intérieur de chaque sous-intervalle, choisissons arbitrairement un nombre ?k qui appartient à l’intervalle [xk-1 ;xk], et qui délimitera la hauteur du kième rectangle.
$\xi_1 ~; \in ~; [x_0 ;x_1] ~;~;~; \xi_2 ~; \in ~; [x_1 ;x_2] ~; ... ~;~;~; \xi_n ~; \in ~; [x_{n-1} ;x_n]$ - Ainsi nous obtenons des rectangles formés par la base [xk-1 ;xk] et par la hauteur f(?k). L’aire d’un rectangle et donc l’aire de ces rectangles sont obtenues par les formules suivantes :
$\begin{eqnarray*} Aire & = & hauteur \times base \\ & = & f(\xi_k) \cdot (x_k - x_{k-1}) \end{eqnarray*}$
La somme de Riemann, c’est la somme de tous les rectangles.
Elle se note :
et se lit :
"somme pour k allant de 1 à n de f($\xi_k$)(xk-1 ;xk)".
Pour améliorer l’approximation calculée avec une somme de Riemann, il semble intuitif d’augmenter le nombre n de rectangles.
Dans le but de calculer la valeur exacte de l’aire en question, il faut faire tendre n vers +$\infty$.
Il faut d’autre part que la base de chaque rectangle diminue.
En effet, il ne suffit pas de subdiviser à l’infini un seul des rectangles choisis au départ.
Notons Ln la longueur de la plus grande base des n rectangles.
Il faut tendre Ln vers 0.
La limite à calculer peut donc s’écrire :
Riemann a prouvé que cette limite existe tant que la fonction est continue sur l’intervalle [a ;b].
Et si cette limite existe, elle ne dépend pas des partages choisis ni du choix des $\xi$k. Donc elle ne dépend que de la fonction et de l’intervalle [a ;b]. Lorsqu’elle existe, on dit que f est intégrable sur l’intervalle [a ;b].
Cette limite s’appelle intégrale de f sur [a ;b] et se note : $\int_a^b f(x)dx$.
Riemann a démontré que, pour toute fonction f, continue sur l’intervalle [a ;b], celle-ci est intégrale sur ce même intervalle. En d’autres termes, si f est continue sur [a,b], la limite ci-dessus existe, et donc l’intégrale de Riemann.
Retour en haut
• Théorème de la moyenne (du calcul intégral)
Si f est continue sur l’intervalle fermé [a ; b] alors
Énoncer le théorème 1 des relations entre intégrale et primitive
En d’autres termes, l’aire sous la courbe peut s’obtenir par une somme de Riemann à un seul terme.
$\int_a^b f(x)dx$ correspond à l’aire du domaine sous f entre a et b (en bleu sur le graphique).
$f(c) \cdot (b - a)$ correspond à l’aire d’un rectangle de base b - a et de hauteur f(c) (en violet sur le graphique).
Ces deux aires sont égales et c est un point situé entre a et b.
La base supérieure du rectangle doit donc couper la courbe entre a et b.
Comme f est continue sur [a ; b] et selon le théorème 1, $f([a ; b]) = [m ; M]$.
Cela signifie que $m \leq f(x) \leq M ~;~;~; \forall~; x \, \in \, [a ; b]$.
Selon la propriété 8) des intégrales, nous savons que
$m(b - a) \leq \int_a^b f(x)dx \leq M(b - a)$
En divisant par (b - a) qui est positif, nous obtenons
$m \leq \frac{1}{b - a} \int_a^b f(x)dx \leq M$.
Donc $\frac{1}{b - a} \int_a^b f(x)dx ~; \in \, [m ; M] = f([a ; b])$
Cela signifie que $\frac{1}{b - a} \int_a^b f(x)dx$ est l’image par $f$ d’un élément $c$ de [a ; b].
$\Rightarrow ~; \exists ~; c \, \in \, [a ; b]$ tel que $f(c) = \frac{1}{b - a} \int_a^b f(x)dx$
$\Rightarrow ~; f(c)(b - a) = \int_a^b f(x)dx$ pour au moins un point $c$ de [a ; b].
Notez bien qu’il pourrait y avoir plusieurs points $c$.
Retour en haut
• Théorème fondamental (du calcul intégral)
Si f est une fonction continue sur un intervalle I et si a, x $\in$ I alors
1) L’existence
Par hypothèse "f est continue donc intégrable sur I".
$\Rightarrow J(x) = \int_a^{x} f(t)dt$ existe.
2) Pour voir que J est une primitive de f, il faut montrer que
$J ’(x) = f(x) ~;~;~; \forall \, x \in \, I$
Pour cela, nous allons calculer la dérivée de J en un point x0 quelconque à partir de la définition de la dérivée.
$\begin{eqnarray*} J’(x_0) & = & \lim\limits_{h \to 0} \frac{J(x_0 + h) - J(x_0)}{h} \\ & = & {} \lim\limits_{h \to 0} \frac{\int_a^{x_0+h} ~; f(t) \, dt - \int_a^{x_0} ~; f(t) \, dt}{h} \\ & = & {} \lim\limits_{h \to 0} \frac{\int_a^{x_0} ~; f(t) \, dt + \int_{x_0}^{x_0+h} ~; f(t) \, dt - \int_a^{x_0} ~; f(t) \, dt}{h} \\ & = & {} \lim\limits_{h \to 0} \left(\frac{1}{h} \int_{x_0}^{x_0+h} ~!~!~!~! f(t) \, dt \right) \\ & = & {} \lim\limits_{h \to 0} \left(\frac{1}{h} f(c)(x_0 + h - x_0) \right) \\ & = & {} \lim\limits_{h \to 0} \left(\frac{1}{h} f(c)h \right) \\ & = & {} \lim\limits_{h \to 0} f(c) = f(x_0) \end{eqnarray*}$
Finalement, J’(x0) = f(x0) et ceci est valable pour chaque x0 de I.
J est donc une primitive de f.
Retour en haut
Il s’agit de présenter une formule permettant de calculer certaines intégrales ou primitives qu’il n’est pas possibles de déterminer avec les techniques vues jusqu’ici.
Considérons un intervalle I contenant les points a et b ainsi que deux fonctions dérivables sur I, f et g, telles que f’ et g’ soient continues sur I.
Il s’agit de la formule d’intégration par parties.
Cette formule n’est pas une formule directe. Elle ne permet que de remplacer une intégrale par une autre.
Ce procédé n’est donc efficace que lorsque la nouvelle intégrale est plus facile à calculer que la première.
De plus, elle ne s’applique qu’à des fonctions données sous forme de produit.
Cette formule découle de la formule de dérivation du produit $(f \cdot g)’ = f’ \cdot g + f \cdot g’$ qui peut aussi s’écrire sous cette forme :
En intégrant terme à terme, nous obtenons ceci :
$\begin{eqnarray*} \int_a^b f’ \cdot g & = & \int_a^b\left[\left(f \cdot g\right)’ - f \cdot g’\right] \\ & = & \int_a^b \left(f \cdot g\right)’ - \int_a^b f \cdot g’ \\ & = & \left[f \cdot g\right]~;_a^b - \int_a^b f \cdot g’ \end{eqnarray*}$
On passe de la première ligne à la deuxième grâce à la propriété des intégrales, qui dit que $\int_a^b (f(x) + g(x)) dx = \int_a^b f(x) + \int_a^b g(x)$.
$(f \cdot g)$ est une primitive de $(f \cdot g)’$ donc $\int_a^b (f \cdot g)’ = [f \cdot g]~;_a^b$.
Finalement, nous avons la relation suivante :
Notez qu’il faut choisir judicieusement les fonctions $f’$ et $g$.
Retour en haut
• Définition et propriétés de la fonction ln
Nous avons pu voir dans le chapitre concernant le calcul de primitives que la formule :
$\frac{x^{n+1}}{n+1} \text{ est une primitive de } x^n$ était valable $\forall n \setminus \{ -1 \}$.
En effet, on obtient une division par zéro, ce qui est assez embêtant...
Afin donc de déterminer une primitive à la fonction $x^{-1} = \frac{1}{x}$, on va appliquer le théorème fondamental du calcul intégral à ce cas particulier.
Comme la fonction $\frac{1}{x}$ est continue sur $\R^*$, on en vient à la définition suivante :
$Ln(x) = \int_1^x \frac{1}{t} dt$ où $x \in \R_+^*$
On appelle cette fonction le logarithme naturel (on démontrera qu’il s’agit bien d’un logarithme avec les propriétés qui suivent).
Conséquences :
– Le domaine de définition de $Ln(x)$ est $\R_+^*$.
– La fonction est continue et dérivable sur cet intervalle et $Ln’(x) = \frac{1}{x} ~; ~; ~; \forall x \in \R_+^*$ .
Propriétés :
– $Ln(x)$ est strictement croissante sur son domaine.
En effet, $Ln’(x) = \frac{1}{x}$ est strictement positive sur $\R_+^*$ (dérivée positive donc fonction croissante...)
– $\lim_{x \to \infty} Ln(x) = \infty$ et $\lim_{x \to 0^+} Ln(x) = - \infty$
Pour démontrer cela, on considère des rectangles sous la courbe de $\frac{1}{x}$ construits ainsi :
Le premier rectangle a une base de 1 à 2 et une hauteur de 1/2. (voir figure ci-dessous)
Le second rectangle a une base de 2 à 4 et une hauteur de 1/4.
Le premier rectangle a une base de 4 à 8 et une hauteur de 1/8.
etc...
Chacun de ses rectangles a une aire valant 1/2 et il est possible d’en construire une infinité. La somme de ces aires est donc infinie.
De plus, comme l’aire sous la courbe est plus grande que la somme des aires de ces rectangles on a :
$\lim_{ x \to \infty} Ln(x) = \lim_{ x \to \infty} \int_1^x \frac{1}{t} dt = \infty$
La seconde limite se démontre par une construction similaire...
– Ln(x) est une bijection de $\R_+^*$ vers $\R$.
Cela signifie que chaque y de $\R$ possède une unique préimage x de $\R_+^*$.
Ainsi, la préimage de y = 1 est x = 2,71828. Ce nombre est du même genre que $\pi$ et se note e (nombre d’Euler).
Cette propriété découle des deux précédentes.
– Ln(e) = 1
Graphique de la fonction Ln(x) :
Retour en haut
• Définition et propriétés de la fonction exp
Rappel
La fonction $Ln$ est bijective de $\R_+^*$ vers $\R$.
Cela signifie qu’elle admet une fonction réciproque.
Cette fonction réciproque s’appelle exponentielle et est notée "$Exp$".
Définition
La fonction réciproque de $Ln$ est l’exponentielle $Exp$.
Conséquences directes
- La fonction $Exp$ est bijective de $\R$ vers $\R_+^*$.
- Les graphes de $Ln$ et de $Exp$ sont symétriques par rapport à l’axe $y = x$.
- $Exp$ est strictement croissante et positive.
- $\lim_{x\,\to\,+\infty} Exp(x) = \infty$ et $\lim_{x\,\to\,-\infty} Exp(x) = 0$
- $Exp(x) = y$ $\Longleftrightarrow$ $Ln(y) = x$
- $Exp(0) = 1$ car $Ln(1) = 0$
$Exp(1) = e$ car $Ln(e) = 1$
Remarques
- De la propriété $Exp(1) = e$ nous pouvons déduire que la base de notre exponentielle est $e$.
$e \cong 2,71828...$ est un nombre irrationnel.
Nous pouvons donc écrire : $exp(x) = e^x$. - Toutes les propriétés du calcul de puissances s’appliquent donc à la fonction exponentielle.
Lien entre réciprocité et équations
$e^x$ et $Ln(x)$ sont réciproques l’une de l’autre. Cela signifie :
$Ln(x) = y \Longleftrightarrow e^y = x$
Dérivée et primitives de f(x) = $e^x$
Nous savons que $Ln(e^x) = x ~;~;~;~;~;~; \forall ~; x \, \in \, \R$
Donc,
$\begin{eqnarray*} \left(Ln\left(e^x\right)\right)’ & = & 1 \\ \frac{1}{e^x} \cdot \left(e^x\right)’ & = & 1 \\ \left(e^x\right)’ = e^x \end{eqnarray*}$
La fonction exp est égale à sa dérivée. Elle est donc aussi une de ses primitives.
Retour en haut