Definizione Siano $A$ e $B$ due insiemi. L'insieme delle coppie ordinate $(a,b)$, con $a\in A$ e $b\in B$, si chiama prodotto cartesiano tra $A$ e $B$ e si indica con
$$A\times B:={(a,b)\mid a\in A, b\in B)}$$Definizione Una proprietà $\mathcal{A}$ definita in $S\times T$ è detta relazione tra $S$ e $T$; diremo che $s\in S$ è in relazione con $t\in T$ se si ha $\mathcal{A}(s,t)$ vera.
Data una relazione $\mathcal{R}$:
$$\mathcal{D}om(R)=\{a\in A\mid \text{s è in relazione tramite}\ \mathcal{R}\ \text{con almeno un elemento di}\ B\}\subseteq S$$$$\mathcal{C}od(R)=\{b\in B\mid \text{b è in relazione tramite}\ \mathcal{R}\ \text{con almeno un elemento di}\ A\}\subseteq T$$$$\mathcal{G}raf(R)=\{(a,b)\in A\times B\mid \mathcal{R}(a,b)\ \text{è vera}\}\subseteq A\times B$$Definizione Una relazione $\mathcal{R}$ tra $S$ e $S$ (cioè una proprietà che mette in relazione tra loro elementi di $S$), è detta relazione binaria in $S$. Sia $\mathcal{R}$ una relazione binaria; diremo:
La relazione binaria $\mathcal{R}$ su $A$ si dice relazione di equivalenza se è riflessiva, simmetrica e transitiva. La relazione di equivalenza si indica con il simbolo $\sim$.
Definizione La relazione binaria $\mathcal{R}$ su $A$ si dice relazione d'ordine se è riflessiva, antisimmetrica e transitiva. Alcuni esempi di relazione d'ordine sono $<$, $\leq$, $>$, $\geq$.
Definizione Una relazione d'ordine si dice totale se
$$\forall x,y\in A\ \text{si ha}\ \mathcal{R}(x,y)\ \text{oppure}\ \mathcal{R}(y,x)$$cioè, comunque si fissino due elementi di A, essi sono confrontabili. Altrimenti la relazione d'ordine è detta parziale.
Indichiamo con $(\mathbb{R}, \leq)$ l'insieme ${R}$ ordinato con la relazione $\leq$. Legge di tricotomia: $\forall x,y\in \mathbb{R}$ vale solo una delle seguenti possibilità:
Definizione Sia $A \subset \mathbb{R}$ non vuoto. $m$ si dice massimo (risp. minimo) di $A$ se:
$m \in A$
$m \geq x\ \text{(risp. } m\leq x \text{)}\ \forall x\in A$
Se $m$ esiste, usiamo la notazione
$$m=\max A\ \text{(risp. } m=\min A \text{)}$$Il minimo e il massimo se esistono sono unici.
Definizione Sia $A \subset \mathbb{R}$ non vuoto. $m\in \mathbb{R}$ si dice maggiorante (risp. minorante) di $A$ se:
$$m\geq x\ \text{(risp. } m\leq x \text{)}\ \forall x\in A$$Se $A$ possiede un maggiorante (risp. minorante), allora ne possiede infiniti. Il massimo di A è un maggiorante. Il minimo di A è un maggiorante.
Definizione Un insieme $A\subset \mathbb{R}$ non vuoto che ammette maggiorante (risp. minorante) si dice superiormente limitato (risp. inferiormente limitato). Un insieme superiormente e inferiormente limitato si dice insieme limitato.
Definizione Sia $A\subset \mathbb{R}$ un insieme superiormente limitato. Il minimo dei maggioranti si dice estremo superiore di $A$ e si indica con $\sup A$:
$$\sup A=\min\{y\in \mathbb{R}\mid y\geq x, \forall x\in A\}$$Definizione Sia $A\subset \mathbb{R}$ un insieme inferiormente limitato. Il massimo dei minoranti si dice estremo inferiore di $A$ e si indica con $\inf A$:
$$\inf A=\max\{y\in \mathbb{R}\mid y\leq x, \forall x\in A\}$$Teorema $(\mathbb{R}, \leq)$ è un insieme totalmente ordinato e completo, cioè $\forall A\in \mathbb{R}$ inferiormente limitato, l'insieme $M$ dei suoi minoranti ha massimo.
Proposizione Ogni sottoinsieme di $\mathbb{R}$ superiormente limitato (risp. inferiormente limitato) ammette estremo superiore (risp. estremo inferiore).
Definizione Sia $A\subseteq \mathbb{R}$:
Proposizione Ogni sottoinsieme di ${R}$ ammette estremo superiore e inferiore (finiti o non finiti)
Definizione Siano $a,b\in\mathbb{R}$
$[a,b]=\{x\in\mathbb{R}\mid a\leq x\leq b\}$
$[a,+\infty[=\{x\in\mathbb{R}\mid x\geq a\}$
$]-\infty,b]=\{x\in\mathbb{R}\mid x\leq b\}$
$]a,b[=\{x\in\mathbb{R}\mid a< x <b\}$
$]a,+\infty[=\{x\in\mathbb{R}\mid x>a\}$
$]-\infty,b[=\{x\in\mathbb{R}\mid x< b\}$
$[a,b[=\{x\in\mathbb{R}\mid a\leq x< b\}$
$]a,b]=\{x\in\mathbb{R}\mid a< x\leq b\}$
Proprietà di densità $\mathbb{Q}$ è denso in $\mathbb{R}$, ovvero
Definizione Sia $A\subseteq \mathbb{R}$. Diremo che $A$ è un insieme finito se esiste $k\in\mathbb{N}$ e $f:\{1,2,...,k\}\xrightarrow[su]{1-1} A$.
Il numero degli elementi k dell'insieme è detto cardinalità
$$card(A)=\#A=k$$Definizione Sia $A\subseteq\mathbb{R}$. Diremo che $A$ è infinito numerabile se esiste $f:\mathbb{N}\xrightarrow[su]{1-1}A$
Teorema $\mathbb{Z}$ e $\mathbb{Q}$ sono insiemi infiniti numerabili.
Dimostrazione ($\mathbb{Z}$ è infinito numerabile) È possibile costruire la funzione $f:\mathbb{N}\xrightarrow[su]{1-1}\mathbb{Z}$
$$f=\begin{cases} -\frac{n}{2} & \text{ if } n\ è\ pari \\ \frac{n+1}{2} & \text{ if } n\ è\ dispari \end{cases}$$Teorema (di Cantor) L'insieme $[0,1]$ non è numerabile.
Dimostrazione Supponiamo per assurdo che possiamo formare una lista in cui contiamo tutti gli elementi di $[0,1]$:
$$x_1=0.a_11a_12a_13a_14...$$$$x_2=0.a_21a_22a_23a_24...$$$$x_2=0.a_31a_32a_33a_34...$$Adesso possiamo costruire un numero $$b=0.b_1b_2b_3b_4...$$ tale che $$b_k\neq a_kk,\ b_k\in \{1,2,3,4,5,6,7,8\},\ k\geq 1$$
Siccome ogni k-esima cifra di $b$ è diversa dalla k-esima cifra di $x_k$ per costruzione, e avendo escluso la possibilità che $b$ sia la rappresentazione equivalente di ciascun $x_k$, poiché $b$ non può terminare con infiniti 0 o 9, allora b non è nella lista e siamo arrivati ad un assurdo.
Teorema $\mathbb{R}$ è non numerabile, come anche l'insieme dei numeri irrazionali $\mathbb{R}\setminus\mathbb{Q}$.
Definizione Un insieme $A\subset\mathbb{R}$ dotato di minimo e tale che $x\in A\implies x+1\in A$ è detto induttivo
Proposizione L'insieme $\mathbb{N}$ dei numeri naturali possiede minimo, è superiormente non limitato ed è il più piccolo insieme induttivo.
Definizione Una funzione dall'insieme $A$ all'insieme $B$ è una relazione di $A\times B$ tale che:
e si indica con $f:A\rightarrow B$
$$\mathcal{G}raf(f)=\{(x,y),\ x\in \mathcal{D}om(A),\ y=f(x)\}=\{(x,f(x)),\ x\in A\}$$Definizione Siano $A$ e $B$ insiemi e $f: A\rightarrow B$ una funzione
Definizione Siano $A,B,C\subset R$, $f:A\rightarrow B$ e $C\subset B$.
L'insieme immagine di A tramite $f$ è l'insieme dei valori della funzione $f(x)\in B$
$$f(A)=\mathcal{I}m(f)=\{y\in \mathbb{B}\mid \exists x\in A\ e\ y=f(x)\}$$L'insieme controimmagine di C tramite $f$ è l'insieme dei valori di x tali che $f(x)\in C$
$$f^{-1}(C)=\{x\in A\mid f(x)\in C\}$$Definizione Siano $f:A\rightarrow B$ e $g:B\rightarrow C$ funzioni. La funzione $h:x\in A\rightarrow g(f(x))\in C$ si chiama funzione composta di $g$ e $f$ e si indica con $g\circ f$.
Osservazione $f(A)\subseteq \mathcal{D}om(B)$
Definizione Sia $f:A\xrightarrow[su]{1-1} B$. Definiamo la funzione inversa di $f$, $f^{-1}:B\xrightarrow[su]{1-1} A$, l'unica funzione che verifica le proprietà:
$$\forall x\in A: f^{-1}(f(x))=x$$$$\forall y\in B: f(f^{-1}(x))=y$$Definizione Sia $A\subseteq\mathbb{R}$. $f:A\rightarrow\mathbb{R}$ è:
Teorema Sia $A\subseteq\mathbb{R}$ e $f:A\rightarrow\mathbb{R}$ strettamente monotona. Allora
$f$ è iniettiva da $A$ in $\mathbb{R}$
$\exists f^{-1}:f(A)\xrightarrow[su]{1-1}A$ strettamente monotona nello stesso verso
Teorema (monotonia delle funzioni composte) Siano $A,B,C\subset\mathbb{R}$ e $f:A\rightarrow B$ e $g:B\rightarrow C$ funzioni monotone. Allora $g\circ f$ è monotona. In particolare:
Definizione $f:A\rightarrow\mathbb{R}$ si dice superiormente limitata su A (risp. inferiormente limitata) se
o equivalentemente
$$f(x)\leq m\ \text{(risp. }f(x)\geq m\text{)},\ \forall x\in A$$Una funzione limitata superiormente e inferiormente è detta limitata.
Definizione Sia $f:A\rightarrow\mathbb{R}$. Diciamo che $f$ ha massimo se l'insieme $f(A)$ ha massimo, cioè
$$\exists x_0\in A\ \text{tale che}\ f(x)\leq f(x_0),\ \forall x\in A$$Diremo che f$(x_0)$ è il massimo per A e si scrive
$$\max_{x\in A}f(x)=f(x_0)$$e $x_0$ è un punto di massimo
Definizione Sia $f:A\rightarrow\mathbb{R}$. Diciamo che $f$ ha minimo se l'insieme $f(A)$ ha minimo, cioè
$$\exists x_0\in A\ \text{tale che}\ f(x)\geq f(x_0),\ \forall x\in A$$Diremo che f$(x_0)$ è il minimo per A e si scrive
$$\min_{x\in A}f(x)=f(x_0)$$e $x_0$ è un punto di minimo
Definizione Sia $f:A\rightarrow\mathbb{R}$. Chiamiamo estremo superiore di $f$ l'estremo superiore di $f(A)$ e si scrive
Definizione Sia $f:A\rightarrow\mathbb{R}$. Chiamiamo estremo inferiore di $f$ l'estremo inferiore di $f(A)$ e si scrive
Definizione Un intorno aperto di $x_o\in\mathbb{R}$ è un intervallo aperto del tipo $]x_0-\delta,x_0+\delta[$ con $\delta>0$
Definizione Sia $A\subseteq\mathbb{R}$ con $x_0\in\mathbb{R}$. Diremo che $x_0$ è un punto di accumulazione per $A$ se
$$\forall\delta>0\ (]x_0-\delta,x_0+\delta[\setminus \{x_0\})\cap A\neq\emptyset$$.
Ovvero per ogni intorno $]x_0-\delta,x_0+\delta[$ esistono punti $x\in A$ distinti da $x_0$ nell'intersezione di $A$ con l'intorno $]x_0-\delta,x_0+\delta[$.
Osservazione Se $x_0$ è un punto di accumulazione per $A$, allora $\forall\delta>0\ (]x_0-\delta,x_0+\delta[\setminus \{x_0\})\cap A$ contiene infiniti punti.
Dimostrazione Supponiamo per assurdo che
$$\forall\overline\delta>0\ (]x_0-\delta,x_0+\delta[\setminus \{x_0\})\cap A=\{y_1,y_2,y_3,...,y_n\}$$Prendo $\delta_k=\left | y_k-x_0\right |$ con $k=0,1,2,...,n$.
Prendo $0<\delta<\min\{\delta_1,\delta_2,...,\delta_n\}$.
Allora $(]x_0-\delta,x_0+\delta[\setminus \{x_0\})\cap A\neq\emptyset$
Teorema (di Bolzano-Weierstrass) Un insieme $A\subset\mathbb{R}$ infinito e limitato ha almeno un punto di accumulazione.
Definizione (limite convergente) Sia $A\subset\mathbb{R}$, $f:A\rightarrow\mathbb{R}$, $x_0$ punto di accumulazione per $A$ e $l\in\mathbb{R}$. Diciamo che per $x\rightarrow x_0\ f(x)$ converge a $l$ e scriviamo:
$$\lim_{x\rightarrow x_0}{f(x)}=l\ \text{se}$$$$\forall\epsilon>0\ \exists\delta>0:\ \forall x\in A,\ x\neq x_0\ \left |x-x_0\right |<\delta\implies \left |f(x)-l\right |<\epsilon$$Definizione (limite divergente) Sia $A\subset\mathbb{R}$, $f:A\rightarrow\mathbb{R}$ e $x_0$ punto di accumulazione per $A$. Diciamo che per $x\rightarrow x_0\ f(x)$ diverge positivamente (risp. diverge negativamente) e scriviamo:
$$\lim_{x\rightarrow x_0}{f(x)}=+\infty\ \text{(risp.}\ \lim_{x\rightarrow x_0}{f(x)}=-\infty \text{) se}$$$$\forall\epsilon>0\ \exists\delta>0:\ \forall x\in A,\ x\neq x_0\ f(x)>\epsilon\ \text{(risp.}\ f(x)<-\epsilon \text{)}$$Osservazione Se $\lim_{x\rightarrow x_0}{f(x)}=+\infty\ \text{(risp.}\ -\infty\text{)}$ allora significa che $f$ è non superiormente limitata (risp. non inferiormente limitata) nel suo codominio.
Definizione Diciamo che $x_0=+\infty$ (risp. $-\infty$) è un punto di accumulazione per $A$, insieme non limitato superiormente (risp. non limitato inferiormente) se $\forall\delta>0\ A\cap ]\delta,+\infty[\neq\emptyset$ (risp. $A\cap ]-\infty,\delta[\neq\emptyset$).
Definizione (limite convergente) Sia $A\subset\mathbb{R}$ non superiormente limitato (risp. non inferiormente limitato), $f:A\rightarrow B$ e $l\in\mathbb{R}$. Diciamo che per $x\rightarrow +\infty$ (risp. $-\infty$) $f(x)$ converge a $l$ e scriviamo:
$$\lim_{x\rightarrow +\infty}{f(x)}=l\ \text{(risp.}\ \lim_{x\rightarrow -\infty}{f(x)}=l\text{)}\ se$$$$\forall\epsilon>0\ \exists\delta>0:\ \forall x\in A,\ x>\delta\ \text{(risp.}\ x<-\delta\text{)}\ \left |f(x)-l\right |<\epsilon$$Definizione (limite divergente) Sia $A\subset\mathbb{R}$ non superiormente limitato (risp. non inferiormente limitato), $f:A\rightarrow\mathbb{R}$. Diciamo che per $x\rightarrow\pm\infty$ $f(x)$ diverge positivamente (risp. diverge negativamente) a $l$ e scriviamo:
$$\lim_{x\rightarrow\pm\infty}{f(x)}=+\infty\ \text{(risp.}\ \lim_{x\rightarrow -\infty}{f(x)}=-\infty\text{)}\ se$$$$\forall\epsilon>0\ \exists\delta>0:\ \forall x\in A,\ x>\delta\ \text{(risp.}\ x<-\delta\text{)}\ f(x)>\epsilon\ \text{(risp.}\ f(x)<-\epsilon\text{)}$$Definizione Siano $f:A\rightarrow\mathbb{R}$, $A\subset\mathbb{R}$ e $x_0\in\mathbb{R}$ punto di accumulazione per $A\cap]x_0,+\infty[$ (risp. $A\cap]-\infty,x_0[$). Diciamo che $f$ ha limite destro (risp. limite sinistro) $l\in\overline{\mathbb{R}}$ per $x\rightarrow x_0^{+}$ (risp. $x\rightarrow x_0^{-}$) se $l$ è il limite per $x\rightarrow x_0$ di $f$ ristretta a $A\cap]x_0,+\infty[$ (risp. $A\cap]-\infty,x_0[$) e scriviamo:
$$\lim_{x\rightarrow x_0^{+}}{f(x)}=l\ \text{(risp.}\ \lim_{x\rightarrow x_0^{-}}{f(x)}=l\text{)}$$Osservazione Se $x_0$ è punto di accumulazione per $A$ allora $\forall\overline\delta>0$ $x_0$ è punto di accumulazione per $A_0=A\cap ]x_0-\overline\delta,x_0+\overline\delta[$.
Teorema (località del limite) Sia $f:A\rightarrow\mathbb{R}$, $x_0\in\overline{\mathbb{R}}$ punto di accumulazione per $A$ e $l\in\overline{\mathbb{R}}$. Sia $\overline\delta>0$ e $A_0=A\cap ]x_0-\overline\delta,x_0+\overline\delta[$. Allora $x_0$ è un punto di accumulazione per $A_0$ e
$$\lim_{x\rightarrow x_0}{f\mid_A(x)}=l \iff \lim_{x\rightarrow x_0}{f\mid_{A_0}(x)}=l$$Teorema (unicità del limite) Sia $f:A\rightarrow\mathbb{R}$ e $x_0$ punto di accumulazione per $A$. Allora il limite $\displaystyle \lim_{x\rightarrow x_0}{f(x)}$ se esiste è unico.
Dimostrazione Supponiamo per assurdo che esistano due limiti $l_1$ e $l_2$ distinti, ovvero $l_1\neq l_2$. Dimostriamo $l_1=l_2$. Per la definizione di limite sia ha che $\forall\epsilon>0\ \left|f(x)-l_1\right|<\epsilon$ e $\left|f(x)-l_2\right|<\epsilon$. Sommando i membri delle disuguaglianze si ottiene
$$\left|f(x)-l_1\right|+\left|f(x)-l_2\right| < 2\epsilon$$Siccome $\left|f(x)-l_1\right|=\left|l_1-f(x)\right|$, per la disuguaglianza triangolare si ha
$$\left|l_1-l_2\right|<\left|f(x)-l_1\right|+\left|f(x)-l_2\right| < 2\epsilon$$Da cui $\left|l_1-l_2\right| < 2\epsilon$ e, per l'aribtrarietà di $\epsilon$, $\left|l_1-l_2\right|=0$ e quindi $l_1=l_2$.
Teorema (locale limitatezza di f) Sia $f:A\rightarrow\mathbb{R}$, $x_0$ punto di accumulazione per $A$, $l\in\mathbb{R}$ e $\displaystyle \lim_{x\rightarrow x_0}{f(x)}=l$. Allora $\exists\delta>0$ tale che f ristretta all'insieme $A\cap ]x_0-\delta, x_0+\delta[$ è una funzione limitata.
Osservazione In particolare se $f(x)$ è non superiormente o non inferiormente limitata, allora $\lim_{x\rightarrow x_0}{f(x)}$ o non esiste, o se esiste non può essere finito, ovvero $l\notin\mathbb{R}$.
Teorema Sia $f:A\rightarrow\mathbb{R}$, $x_0$ punto di accumulazione per $A\cap ]-\infty, x_0[$ e $A\cap ]x_0,+\infty[$, $l\in\overline{\mathbb{R}}$. Allora
$$\displaystyle\lim_{x\rightarrow x_0}{f(x)}=l \iff \lim_{x\rightarrow x_0^+}{f(x)}=\lim_{x\rightarrow x_0^-}{f(x)}=l$$Osservazione Se $\displaystyle \lim_{x\rightarrow x_0^+}{f(x)}\neq\lim_{x\rightarrow x_0^-}{f(x)}$ oppure uno dei due limiti (destro/sinistro) non esiste allora $\nexists\lim_{x\rightarrow x_0}{f(x)}$.
Teorema (limiti di funzioni monotone) Sia $f:A\rightarrow\mathbb{R}$ una funzione monotona crescente. Sia $x_0\in]a,b[$. Allora
$\displaystyle\exists\lim_{x\rightarrow x_0^+}{f(x)}=\inf_{x\in ]x_0,b]}{f(x)}$
$\displaystyle\exists\lim_{x\rightarrow x_0^-}{f(x)}=\sup_{x\in[a,x_0[}{f(x)}$
$\displaystyle\exists\lim_{x\rightarrow a^+}{f(x)}=\inf_{x\in]a,b]}{f(x)}$
$\displaystyle\exists\lim_{x\rightarrow b^-}{f(x)}=\sup_{x\in[a,b[}{f(x)}$
Teorema Siano $f,g:A\rightarrow\mathbb{R}$ e $x_0\in\mathbb{R}$ punto di accumulazione per $A$ (oppure $x_0=+\infty$ e $A$ non superiormente limitato, oppure $x_0=-\infty$ e $A$ non inferiormente limitato), $l,m\in\overline{\mathbb{R}}$. Supponiamo che $\displaystyle\lim_{x\rightarrow x_0}{f(x)}=l$ e $\displaystyle\lim_{x\rightarrow x_0}{g(x)}=m$. Allora:
se $f(x)\leq g(x)\ \forall x\in A$ si ha $l\leq m$
se $l<m\ \exists\delta>0$ tale che $f(x)<g(x)$ $\forall x\neq x_0\ x\in]x_0-\delta,x_0+\delta[\cap A$.
Teorema (del confronto) Siano $f,g,h:A\rightarrow\mathbb{R}$ e $x_0\in\mathbb{R}$ punto di accumulazione per $A$ (oppure $x_0=+\infty$ e $A$ non superiormente limitato, oppure $x_0=-\infty$ e $A$ non inferiormente limitato). Supponiamo che
$f(x)\leq h(x)\leq g(x)\ \forall x\in A$
$\displaystyle\lim_{x\rightarrow x_0}{f(x)}=\lim_{x\rightarrow x_0}{g(x)}=l$, con $l\in\overline{\mathbb{R}}$
Allora $\displaystyle\exists\lim_{x\rightarrow x_0}{h(x)}=l$
Dimostrazione Per ipotesi $\left|f(x)-l\right|<\epsilon$ e $\left|g(x)-l\right|<\epsilon$, ovvero
$$-\epsilon+l< f(x)<\epsilon+l\ ,\ -\epsilon+l< g(x)<\epsilon+l.$$Quindi $$-\epsilon+l< f(x)\leq h(x)\leq g(x)<\epsilon+l.$$
Allora $\left|h(x)-l\right|<\epsilon$, che è esattamente la definizione di $\displaystyle\lim_{x\rightarrow x_0}{h(x)}=l$
Teorema Siano $f,g:A\rightarrow\mathbb{R}$, $x_0$ punto di accumulazione per $A$ (oppure $x_0=+\infty$ e $A$ non superiormente limitato, oppure $x_0=-\infty$ e $A$ non inferiormente limitato). Siano $l,m\in\mathbb{R}$ e $\displaystyle\lim_{x\rightarrow x_0}{f(x)}=l$ e $\displaystyle\lim_{x\rightarrow x_0}{g(x)}=m$. Allora
La funzione somma $f\pm g$ ha limite $l\pm m$ per $x\rightarrow x_0$, ovvero $\displaystyle\lim_{x\rightarrow x_0}{[f(x)\pm g(x)]}=l\pm m$
La funzione prodotto $f\cdot g$ ha limite $l\cdot m$ per $x\rightarrow x_0$, ovvero $\displaystyle\lim_{x\rightarrow x_0}{[f(x)\cdot g(x)]}=l\cdot m$
Se $m\neq 0$ allora $\exists\overline\delta>0$ tale che $g(x)\neq 0\ \forall x\in A\cap]x_0-\delta,x_0+\delta[,\ x\neq x_0$
Se $m\neq 0$ allora la funzione $\frac{f}{g}$ ha limite $\frac{l}{m}$ per $x\rightarrow x_0$, cioè $\displaystyle\lim_{x\rightarrow x_0}{\frac{f(x)}{g(x)}}=\frac{l}{m}$
Se $c\in\mathbb{R}$ è una costante, allora $\displaystyle\lim_{x\rightarrow x_0}{[c\cdot f(x)]}=c\cdot l$.
Definizione $f:A\rightarrow\mathbb{R}$ con $A\subset\mathbb{R}$ è infinitesimo $(x\rightarrow x_0)$ se
$$\lim_{x\rightarrow x_0}{f(x)}=0$$$f$ è infinito $(x\rightarrow x_0)$ se
$$\lim_{x\rightarrow x_0}{\left|f(x)\right|}=+\infty$$Teorema (proprietà algebriche degli infinitesimi) Siano $A\subseteq\mathbb{R}$, $f,g:A\rightarrow\mathbb{R}$, $x_0$ punto di accumulazione per $A$ (oppure $x_0=+\infty$ e $A$ non superiormente limitato, oppure $x_0=-\infty$ e $A$ non inferiormente limitato) e $\displaystyle\lim_{x\rightarrow x_0}{f(x)}=0$. Allora:
Se $\exists M>0$ tale che $\left|g(x)\right|<M,\ \forall x\in A$ allora $\displaystyle\lim_{x\rightarrow x_0}{[f(x)\cdot g(x)]}=0$
Se $f(x)$ è positiva (risp. negativa) $\forall x\in A$ allora $\frac{1}{f(x)}$ è definita e $\displaystyle\lim_{x\rightarrow x_0}{\frac{1}{f(x)}}=+\infty$ (risp. $-\infty$).
Teorema (proprietà algebriche degli infiniti) Siano $A\subseteq\mathbb{R}$, $f,g:A\rightarrow\mathbb{R}$, $x_0$ punto di accumulazione per $A$ (oppure $x_0=+\infty$ e $A$ non superiormente limitato, oppure $x_0=-\infty$ e $A$ non inferiormente limitato) e $\displaystyle\lim_{x\rightarrow x_0}{f(x)}=+\infty$. Allora:
Se $\exists M\in\mathbb{R}$ tale che $g(x)\geq M,\ \forall x\in A$, allora $\displaystyle\lim_{x\rightarrow x_0}{[f(x)+g(x)]}=+\infty$
Se $\exists M\in\mathbb{R},\ M>0$ tale che $g(x)\geq M,\ \forall x\in A$, allora $\displaystyle\lim_{x\rightarrow x_0}{[f(x)\cdot g(x)]}=+\infty$
Se $\exists M\in\mathbb{R},\ M<0$ tale che $g(x)\leq M,\ \forall x\in A$, allora $\displaystyle\lim_{x\rightarrow x_0}{[f(x)\cdot g(x)]}=-\infty$
$\displaystyle\lim_{x\rightarrow x_0}{\frac{1}{f(x)}}=0$.
Analogamente per $\displaystyle\lim_{x\rightarrow x_0}{f(x)}=-\infty$:
Se $\exists M\in\mathbb{R}$ tale che $g(x)\leq M,\ \forall x\in A$, allora $\displaystyle\lim_{x\rightarrow x_0}{[f(x)+g(x)]}=-\infty$
Se $\exists M\in\mathbb{R},\ M>0$ tale che $g(x)\geq M,\ \forall x\in A$, allora $\displaystyle\lim_{x\rightarrow x_0}{[f(x)\cdot g(x)]}=-\infty$
Se $\exists M\in\mathbb{R},\ M<0$ tale che $g(x)\leq M,\ \forall x\in A$, allora $\displaystyle\lim_{x\rightarrow x_0}{[f(x)\cdot g(x)]}=+\infty$
$\displaystyle\lim_{x\rightarrow x_0}{\frac{1}{f(x)}}=0$.
Definizione (o-piccolo) $f$ si dice o-piccolo di 1, $(x\rightarrow x_0)$, e si scrive
$$f(x) = o(1),\ (x\rightarrow x_0),\ \ \ \ se \lim_{x\rightarrow x_0}{f(x)}=0$$$f$ si dice o-piccolo di $\bf g$, $(x\rightarrow x_0)$, e si scrive
$$f(x) = o(g(x)),\ (x\rightarrow x_0),\ \ \ \ se \lim_{x\rightarrow x_0}{\frac{f(x)}{g(x)}}=0$$Se $f(x) = o(g(x)),\ (x\rightarrow x_0)$, $f$ si dice trascurabile rispetto a g, $(x\rightarrow x_0)$.
Definizione (equivalenza) $f$ si dice equivalente a $g$, $(x\rightarrow x_0)$, e si scrive
$$f(x)\approx g(x),\ (x\rightarrow x_0),\ \ \ \ se \lim_{x\rightarrow x_0}{\frac{f(x)}{g(x)}}=1$$Teorema Siano $f,g:A\rightarrow\mathbb{R}$.
$$f(x)\approx g(x),\ (x\rightarrow x_0)\iff f(x)=g(x)+o(g(x)),\ (x\rightarrow x_0)$$Teorema Se $f_1\approx f_2$ e $g_1\approx g_2$, $(x\rightarrow x_0)$, allora
$$f_1g_1\approx f_2g_2,\ (x\rightarrow x_0);\ \ \frac{f_1}{g_1}\approx\frac{f_2}{g_2},\ (x\rightarrow x_0)$$Teorema (principio di sostituzione)
$$\lim_{x\rightarrow x_0}{\frac{f+o(f)}{g+o(g)}}=\lim_{x\rightarrow x_0}{\frac{f}{g}}$$Proposizione Siano $f,g,h:A\rightarrow\mathbb{R}$. Se $l+m\neq 0$ e
$$\left.\begin{matrix}f(x)\approx lh(x),\ (x\rightarrow x_0)\\g(x)\approx mh(x),\ (x\rightarrow x_0)\end{matrix}\right\}\implies [f(x)+g(x)]\approx (l+m)h(x),\ (x\rightarrow x_0)$$Definizione Siano $A\subseteq\mathbb{R}$, $f:A\rightarrow\mathbb{R}$. Diremo che $f$ è continua in $x_0\in A$ se
$$\forall\epsilon>0\ \exists\delta>0:\left|f(x)-f(x_0)\right|<\epsilon\ \forall x\in A\cap]x_0-\delta, x_0+\delta[$$Se $x_0$ è un punto isolato, quindi non di accumulazione, allora $f$ è banalmente continua in $x_0$
Se $x_0$ è un punto di accumulazione, allora la definizione è equivalente a
Definizione $f:A\rightarrow\mathbb{R}$, $A\subset\mathbb{R}$ è una funzione continua su $A$ se $f$ è continua in tutti i punti di $A$.
Teorema (continuità della funzione composta) Siano $A,B\subseteq\mathbb{R}$, $f:A\rightarrow B$, $g:B\rightarrow\mathbb{R}$. Se $f$ è continua in $x_0\in A$ e $g$ è continua in $y_0=f(x_0)$, allora $f\circ g:A\rightarrow\mathbb{R}$ è continua in $x_0$.
Teorema (permanenza del segno) Se $f:A\rightarrow\mathbb{R}$ è continua in $x_0\in A$ e $f(x_0)>0$ (risp. $f(x_0)<0$) allora
$$\exists\delta>0:\ f(x)>0\ \text{(risp. }f(x)< 0 \text{)}\ \forall x\in A\cap]x_0-\delta,x_0+\delta[$$Teorema (di Weierstrass) Sia $f:[a,b]\rightarrow\mathbb{R}$ continua in $[a,b]$. Allora $\displaystyle\exists\max_{[a,b]}f$ e $\displaystyle\exists\min_{[a,b]}f$.
Il teorema è valido anche per $\displaystyle{A=\bigcup_{i=1}^k{[a_i,b_i]}}$ ed è valido in generale se $A$ è un insieme limitato e chiuso.
Teorema (degli zeri) Sia $f:[a,b]\rightarrow\mathbb{R}$ continua in $[a,b]$ e tale che $f(a)< 0< f(b)$. Allora $\exists c\in ]a,b[$ tale che $f(c)=0$.
Teorema (dei valori intermedi) Sia $f:[a,b]\rightarrow\mathbb{R}$ continua in $[a,b]$. Allora $f$ assume tutti i valori compresi tra $f(a)$ e $f(b)$.
$$\displaystyle [f(a),f(b)]=\{y\in\mathbb{R}\mid\exists x\in A,\ y=f(x)\}=\mathcal{I}m_{[a,b]}(f)$$Teorema (di Bolzano) Siano $I\subset\mathbb{R}$ intervallo e $f:I\rightarrow\mathbb{R}$ continua in $I$. Allora $f(I)=\mathcal{I}m(f)$ è un intervallo.
Teorema (funzioni monotone e continuità) Siano $I\subset\mathbb{R}$ intervallo e $f:I\rightarrow\mathbb{R}$ monotona. Allora $f\ è\ continua\iff f(I)\ è\ un\ intervallo$.
Teorema (continuità funzione inversa) Siano $I\subset\mathbb{R}$ intervallo e $f:I\rightarrow\mathbb{R}$ continua e strettamente monotona in $I$. Allora $f^{-1}:f(I)\rightarrow I$ è strettamente monotona e continua nell'intervallo $f(I)$.
Dimostrazione Per il teorema di Bolzano $f(I)$ è un intervallo perché $f:I\rightarrow\mathbb{R}$ è continua.
$f$ è strettamente monotona quindi $\exists\ f^{-1}:f(I)\xrightarrow[su]{1-1} I$.
Per il teorema precedente $f^{-1}$ è continua perché $I$ è un intervallo.
Corollario (di Bolzano-Weierstrass) Se $f:[a,b]\rightarrow\mathbb{R}$ continua in $[a,b]$ allora $\displaystyle f([a,b])=[\min_{[a,b]}f,\max_{[a,b]}f]$.
Definizione Sia $f:[a,b]\rightarrow\mathbb{R}$, $x_0\in [a,b]$. Chiamiamo rapporto incrementale di $f$ rispetto a $x_0$
$$R(x)=\frac{f(x)-f(x_0)}{x-x_0},\ \ \ \ R:[a,b]\setminus\{x_0\}\rightarrow\mathbb{R}$$Definizione Siano $f:A\rightarrow\mathbb{R}$ e $x_0\in A$. Posto
$$f'(x_0)=\frac{\mathrm{d} f}{\mathrm{d} x}(x_0)=\lim_{x\rightarrow x_0}{\frac{f(x)-f(x_0)}{x-x_0}},\ \ \ \ \frac{\mathrm{d} f}{\mathrm{d} x}(x_0)\in\overline{\mathbb{R}}$$Se $\frac{\mathrm{d} f}{\mathrm{d} x}(x_0)\in\mathbb{R}$ si dice che $f$ è derivabile in $x_0$.
Osservazione Sia $f:[a,b]\rightarrow\mathbb{R}$.
$$\mathcal{D}om(f') = \{x\in [a,b]\mid\exists\ f'(x)\in\mathbb{R}\}$$Teorema Sia $f:[a,b]\rightarrow\mathbb{R}$ derivabile in $x_0\in\mathbb{R}$. Allora $f(x)$ è continua in $x_0$.
Dimostrazione $\displaystyle\lim_{x\rightarrow x_0}{f(x)}=f(x_0)\iff\lim_{x\rightarrow x_0}{[f(x)-f(x_0)]}=0$
$$\lim_{x\rightarrow x_0}{[f(x)-f(x_0)]}=\lim_{x\rightarrow x_0}{\frac{f(x)-f(x_0)}{x-x_0}(x-x_0)}=f'(x_0)\lim_{x\rightarrow x_0}{(x-x_0)}=0$$Definizione Sia $f:A\rightarrow\mathbb{R}$ e $x_0\in A$. Supponiamo che $x_0$ sia punto di accumulazione per $A\cap]x_0,+\infty[$ e $A\cap]-\infty,x_0[$. Chiameremo derivata destra di $f(x_0)$, se esiste, il limite destro del rapporto incrementale:
$$f'_{+}(x_0)=\lim_{x\rightarrow x_0^+}{\frac{f(x)-f(x_0)}{x-x_0}}$$Analogamente chiamaremo derivata sinistra, se esiste, il limite sinistro del rapporto incrementale:
$$f'_{-}(x_0)=\lim_{x\rightarrow x_0^-}{\frac{f(x)-f(x_0)}{x-x_0}}$$Definizione Sia $f$ una funzione continua in $x_0$. Se esistono finite (o una finita e una infinita), ma distinte, le derivata destra e sinistra, allora si dice che $f$ ha un punto angoloso in $x_0$.
Definizione Sia $f$ una funzione continua in $x_0$. Se esistono infinite e di segno opposto le derivate destra e sinistra, allora si dice che $f$ ha una cuspide in $x_0$.
Definizione Sia $f$ una funzione continua in $x_0$. Se $\left|f(x)\right|=+\infty$ allora si dice che $f$ ha un punto di flesso a tangente verticale in $x_0$.
Teorema (linearità della funzione derivata) Siano $f,g:[a,b]\rightarrow\mathbb{R}$ derivabili in $x_0\in [a,b]$ e $\lambda,\mu\in\mathbb{R}$. Allora $\lambda f+\mu g$ è derivabile in $x_0$ e la derivata è:
$$\frac{\mathrm{d}}{\mathrm{d} x}[\lambda f+\mu g] (x_0)=\lambda f'(x)+\mu g'(x)$$Dimostrazione
$$\lim_{x\rightarrow x_0}{\frac{\lambda f(x)+\mu g(x) - [\lambda f(x_0)+\mu g(x_0)]}{x-x_0}} = $$$$= \lim_{x\rightarrow x_0}{\left[\frac{\lambda f(x)-\lambda f(x_0)}{x-x_0} + \frac{\mu g(x)-\mu g(x_0)}{x-x_0}\right]} = $$$$= \lim_{x\rightarrow x_0}{\left[\lambda\frac{f(x)-f(x_0)}{x-x_0} + \mu\frac{g(x)-g(x_0)}{x-x_0}\right]} = $$$$= \lambda f'(x)+\mu g'(x)$$Teorema (Regola di Leibniz) Siano $f,g:[a,b]\rightarrow\mathbb{R}$ derivabili in $x_0\in [a,b]$. Allora la funzione $f\cdot g$ è derivabile in $x_0$ e:
$$\frac{\mathrm{d}}{\mathrm{d} x}(f\cdot g)(x_0) = f'(x_0)g(x_0)+f(x_0)g'(x_0)$$Dimostrazione
$$\lim_{x\rightarrow x_0}{\frac{f(x)g(x)-f(x_0)g(x_0)}{x-x_0}}=$$$$=\lim_{x\rightarrow x_0}{\frac{f(x)g(x)-f(x_0)g(x_0)+f(x_0)g(x)-f(x_0)g(x)}{x-x_0}}=$$$$=\lim_{x\rightarrow x_0}{\left(g(x)\frac{f(x)-f(x_0)}{x-x_0} + f(x)\frac{g(x)-g(x_0)}{x-x_0}\right)}=$$$$=\lim_{x\rightarrow x_0}{\left(g(x)f'(x_0)+f(x_0)g'(x_0)\right)}=$$$$=g(x_0)f'(x_0)+f(x_0)g'(x_0)$$Teorema (funzione reciproca) Siano $f,g:[a,b]\rightarrow\mathbb{R}$ derivabili in $x_0\in [a,b]$ e $f(x_0)\neq 0$. Allora $\exists\frac{1}{f}:]x_0-\delta,x_0+\delta[\cap[a,b]\rightarrow\mathbb{R}$ derivabile in $x_0$ e:
$$\frac{\mathrm{d}}{\mathrm{d} x}(\frac{1}{f})(x_0)=-\frac{f'(x_0)}{f^2(x_0)}$$Dimostrazione
$$\lim_{x\rightarrow x_0}{\frac{\frac{1}{f(x)}-\frac{1}{f(x_0)}}{x-x_0}}=\lim_{x\rightarrow x_0}{\frac{f(x_0)-f(x)}{f(x)f(x_0)(x-x_0)}}=\lim_{x\rightarrow x_0}{-\frac{f(x)-f(x_0)}{f(x)f(x_0)(x-x_0)}}=-\frac{1}{f^2(x_0)}f'(x)$$Corollario (rapporto di funzioni) Siano $f,g:[a,b]\rightarrow\mathbb{R}$ derivabili in $x_0\in [a,b]$ e $g(x_0)\neq 0$. Allora la funzione $\frac{f}{g}:]x_0-\delta,x_0+\delta[\cap[a,b]\rightarrow\mathbb{R}$ derivabile in $x_0$ e:
$$\frac{\mathrm{d}}{\mathrm{d} x}(\frac{f}{g})(x_0)=\frac{f'(x_0)g(x_0)-f(x_0)g'(x_0)}{g^2(x_0)}$$Dimostrazione
$$\frac{\mathrm{d}}{\mathrm{d} x}\frac{f}{g}(x_0)=\frac{\mathrm{d}}{\mathrm{d} x}\left[f\cdot\frac{1}{g}\right] (x_0) = $$$$= f'(x_0)\frac{1}{g}(x_0)+f(x_0)\frac{\mathrm{d}}{\mathrm{d} x}\left(\frac{1}{g}\right)(x_0) = $$$$= \frac{f'(x_0)}{g(x_0)}-\frac{f(x_0)g'(x_0)}{g^2(x_0)} = $$$$= \frac{f'(x_0)g(x_0)-f(x_0)g'(x_0)}{g^2(x_0)}$$Teorema (funzione composta) Supponiamo $I,J\in\mathbb{R}$ intervalli, $x_0\in I$, $f:I\rightarrow J$ derivabile in $x_0$ e $g:J\rightarrow\mathbb{R}$ derivabile in $y_0=f(x_0)\in J$. Allora la funzione composta $g\circ f:I\rightarrow\mathbb{R}$ è derivabile in $x_0$ e:
$$\frac{\mathrm{d}}{\mathrm{d} x}(g\circ f)(x_0)=\frac{\mathrm{d} g}{\mathrm{d} y}(f(x_0))\frac{\mathrm{d} f}{\mathrm{d} x}(x_0)$$Teorema (funzione inversa) Sia $I\subseteq\mathbb{R}$ intervallo e $f:I\xrightarrow[su]{1-1}\mathbb{R}$ strettamente monotona e continua (quindi $\exists\ f^{-1}:f(I)\xrightarrow[su]{1-1}I$ strettamente monotona e continua). Se $\exists\ f'(x_0)\neq 0$ allora:
$$(f^{-1})'(y_0)=\frac{1}{\frac{\mathrm{d} f}{\mathrm{d} x}(f^{-1}(y_0))}$$Dimostrazione Il limite del rapporto incrementale è:
$$\lim_{y\rightarrow y_0}{\frac{f^{-1}(y)-f^{-1}(y_0)}{y-y_0}}$$Siccome $f^{-1}$ è la funzione inversa, allora $f^{-1}(y)=x$, $f^{-1}(y_0)=x_0$, $y=f(x)$ e $y_0=f(x_0)$. Inoltre sappiamo che $f^{-1}$ risulta continua su $J$ e si può effettuare il cambiamento di variabile, quindi
$$[y\rightarrow y_0]\implies[f^{-1}(y)\rightarrow f^{-1}(y_0)]=[x\rightarrow x_0]$$Allora abbiamo:
$$\lim_{x\rightarrow x_0}{\frac{x-x_0}{f(x)-f(x_0)}}=\frac{1}{f'(x_0)}=\frac{1}{f'(f^{-1}(y_0))}$$Teorema (di Lagrange) Sia $f:[a,b]\rightarrow\mathbb{R}$ continua in $[a,b]$ e derivabile in $]a,b[$. Allora $\exists c\in ]a,b[$ tale che
$$f'(c)=\frac{f(b)-f(a)}{b-a}$$Teorema (di Rolle) Sia $f:[a,b]\rightarrow\mathbb{R}$ continua in $[a,b]$ e derivabile in $]a,b[$. Se $f(a)=f(b)$ allora necessariamente $\exists c\in ]a,b[$ tale che:
$$f'(c)=0$$Dimostrazione Per il teorema di Weierstrass, siccome $f:[a,b]\rightarrow\mathbb{R}$ continua in $[a,b]$, $\exists\min_{[a,b]}f$ e $\exists\max_{[a,b]}f$.
Se $\displaystyle\min_{[a,b]}f=\max_{[a,b]}f$ allora $f$ è costante e quindi $f'(x)=0\ \forall x\in [a,b]$
Se $\displaystyle\min_{[a,b]}f\neq\max_{[a,b]}f$ allora almeno uno è raggiunto in $c\in ]a,b[$. Supponiamo per semplicità $\displaystyle c=\min_{[a,b]}f$ e calcoliamo il limite destro e sinistro del rapporto incrementale:
Con un ragionamento analogo si dimostra anche il caso in cui $\displaystyle c=\max_{[a,b]}$.
Teorema (di Fermat) Sia $f:]a,b[\rightarrow\mathbb{R}$. Se $c\in]a,b[$ è un punto di massimo o di minimo per $f$ e $\exists f'(c)$ allora necessariamente $f'(c)=0$.
Dimostrazione È sufficiente studiare il segno del rapporto incrementale quando $x\rightarrow c^+$ e $x\rightarrow c^-$. SUpponiamo quindi che $c$ sia un punto di minimo.
$$\left.\begin{matrix}\lim_{x\rightarrow c^+}\frac{f(x)-f(c)}{x-c}\geq 0\\\\\lim_{x\rightarrow c^-}\frac{f(x)-f(c)}{x-c}\leq 0\end{matrix}\right\}\implies f'(c)=0$$Con un ragionamento analogo si dimostra anche il caso in cui $c$ sia un punto di massimo.
Teorema (di De l'Hôpital) Siano $f,g:[a,b]\rightarrow\mathbb{R}$ derivabili in ]a,b[. Se
$\displaystyle\lim_{x\rightarrow a^+}{f(x)}=0=\lim_{x\rightarrow a^+}{g(x)}$
$g'(x)$ ha segno costante $\forall x\in ]a,b[$ (è sufficiente che non cambi di segno in un insieme con punti di accumulazione)
$\displaystyle\exists\lim_{x\rightarrow a^+}{\frac{f'(x)}{g'(x)}}=l\in\overline{\mathbb{R}}$
Allora
$$\exists\lim_{x\rightarrow a^+}{\frac{f(x)}{g(x)}}=l$$Teorema (di De l'Hôpital) Siano $f,g:[a,b]\rightarrow\mathbb{R}$ derivabili in ]a,b[. Se
$\displaystyle\lim_{x\rightarrow a^+}{\left|f(x)\right|}=+\infty=\lim_{x\rightarrow a^+}{\left|g(x)\right|}$
$g'(x)$ ha segno costante $\forall x\in ]a,b[$ (è sufficiente che non cambi di segno in un insieme con punti di accumulazione)
$\displaystyle\exists\lim_{x\rightarrow a^+}{\frac{f'(x)}{g'(x)}}=l\in\overline{\mathbb{R}}$
Allora
$$\exists\lim_{x\rightarrow a^+}{\frac{f(x)}{g(x)}}=l$$Corollario Sia $f:[a,b]\rightarrow\mathbb{R}$ continua in $[a,b]$ e derivabile in $]a,b[$. Se $\displaystyle\exists\lim_{x\rightarrow a^+}{f'(x)}=l\in\overline{\mathbb{R}}$ allora $\displaystyle\exists\ f'(a)=l$
Dimostrazione
$$f'(a)=\lim_{x\rightarrow a^+}{\frac{f(x)-f(a)}{x-a}}=\lim_{x\rightarrow a^+}{f'(a)}=l$$Definizione Siano $f:I\rightarrow\mathbb{R}$, $I$ intervallo e $f'$ la derivata di $f$. Chiamiamo $I'$ l'insieme dei punti di $I$ in cui esiste $f'$
$$I'=\{x\in I\mid\exists\ f'(x)\in\mathbb{R}\}$$Possiamo ora definire la derivata seconda di $f$, ovvero la derivata di $f':I'\rightarrow\mathbb{R}$, in $x_0$, se esiste,
$$f''(x_0)=\lim_{x\rightarrow x_0}{\frac{f'(x)-f'(x_0)}{x-x_0}}$$Più in generale, se $f,f',f'',...f^{(k+1)}:I\rightarrow\mathbb{R}$ e $x_0\in I$ possiamo definire la derivata k-esima di $f$ in $x_0$
$$f^{k}(x_0)=\lim_{x\rightarrow x_0}{\frac{f^{(k-1)}(x)-f^{(k-1)}(x_0)}{x-x_0}}$$Definizione Definiamo la classe di una funzione da $I\subset\mathbb{R}$ intervallo a $\mathbb{R}$ di ordine k come l'insieme delle funzioni di variabile reale derivabili con continuità k volte, e scriviamo:
$$\mathcal{C}^{(k)}(I,\mathbb{R})=\{f:I\rightarrow\mathbb{R}\mid f\ continua\ in\ I\}$$Osservazione $\mathcal{C}^{(\infty)}(I,\mathbb{R})\subsetneqq ... \subsetneqq\mathcal{C}^{(1)}(I,\mathbb{R})\subsetneqq\mathcal{C}^{(0)}(I,\mathbb{R})$
Definizione Sia $f:I\rightarrow\mathbb{R}$, $I$ intervallo, derivabile $n$ volte in $x_0\in I$. Chiamiamo polinomio di Taylor di $\bf f$ di ordine $n$ e punto iniziale $x_0$ il polinomio
$$T_n(x)=f(x_0)+f'(x)(x-x_0)+\frac{f''(x_0)}{2!}(x-x_0)^2+...+\frac{f^{n}(x_0)}{n!}(x-x_0)^n=\sum_{k=0}^{n}\frac{f^{(k)}(x_0)}{k!}(x-x_0)^k$$Teorema (formula di Taylor con resto di Peano) Sia $f:I\rightarrow\mathbb{R}$, $I$ intervallo, derivabile $n$ volte in $x_0\in I$. Allora
$$f(x)=\left[\sum_{k=0}^{n}\frac{f^{(k)}(x_0)}{k!}(x-x_0)^k\right]+o((x-x_0)^k)\ \ \ \ (x\rightarrow x_0)$$Dimostrazione
$n=1$ $$f'(x_0)=\lim_{x\rightarrow x_0}{\frac{f(x)-f(x_0)}{x-x_0}}\iff f(x)=f(x_0)+f'(x_0)(x-x_0)+o(x-x_0)\ \ \ \ (x\rightarrow x_0)$$
$n=2$ Vogliamo dimostrare che
$$f(x)=f(x_0)+f'(x_0)(x-x_0)+\frac{f''(x_0)}{2!}(x-x_0)^2+o((x-x_0)^2)\ \ \ \ (x\rightarrow x_0)$$Quindi:
$$f(x)-f(x_0)-f'(x_0)(x-x_0)-\frac{f''(x_0)}{2!}(x-x_0)^2=o((x-x_0)^2)\ \ \ \ (x\rightarrow x_0\iff$$$$\lim_{x\rightarrow x_0}{\frac{f(x)-f(x_0)-f'(x_0)(x-x_0)-\frac{f''(x_0)}{2!}(x-x_0)^2}{(x-x_0)^2}}=0\iff$$$$\lim_{x\rightarrow x_0}{\left[\frac{f(x)-f(x_0)-f'(x_0)(x-x_0)}{(x-x_0)^2}-\frac{f''(x_0)}{2}\right]}=0$$Applicando De l'Hôpital:
$$\lim_{x\rightarrow x_0}{\frac{f(x)-f(x_0)-f'(x_0)(x-x_0)}{(x-x_0)^2}}\overset{H}{=}\lim_{x\rightarrow x_0}{\frac{f'(x)-f'(x_0)}{2(x-x_0)}}=\frac{f''(x_0)}{2}$$Analogamente, applicando De l'Hopital $n-1$ volte, si può dimostrare in generale.
Teorema (formula di Taylor con resto di Lagrange) Siano $f\in\mathcal{C}^{(n+1)}(I,\mathbb{R})$, $x,x_0\in I$. Allora $\exists c\in I$ compreso tra $x_0$ e $x$ tale che:
$$f(x)=\sum_{k=0}^{n}{\frac{f^{(k)}(x_0)}{k!}(x-x_0)^k} + f^{(n+1)}(c)\frac{(x-x_0)^{n+1}}{(n+1)!}$$Proposizione Sia $f\in\mathcal{C}^{(n)}(I,\mathbb{R})$.
Proposizione Se $f(x)=q_n(x)+o((x-x_0)^n),\ \ \ \ (x\rightarrow x_0)$, ove $q_n(x)$ è un polinomio di grado al più $n$, allora necessariamente
$$q_n(x)=T_{n,x_0}(x)$$ove $T_{n,x_0}(x)$ è il polinomio di Taylor di $f$ di ordine $n$ e punto iniziale $x_0$.
Esponenziale La funzione esponenziale ha derivate di ordine comunque elevato; scelto come punto iniziale $x_0=0$, la sua formula di Taylor, di ordine $n$, si scrive come
$$\mathrm{exp}(x)=\sum_{k=0}^{n}{\frac{x^k}{k!}}+o(x^n),\ \ \ \ (x\rightarrow 0)$$infatti
$$D^{(k)}\mathrm{exp}(x)=\mathrm{exp}(x)$$Quindi il polinomio di Taylor è
$$T_{n,0}(x)=\sum_{k=0}^{n}{\frac{x^k}{k!}}$$Coseno La funzione coseno è pari e ha derivate di ordine comunque elevato; scelto come punto iniziale $x_0=0$, la sua formula di Taylor, di ordine $2n$, si scrive come
$$\cos(x)=\sum_{k=0}^{n}{\frac{(-1)^kx^{2k}}{(2k)!}}+o(x^{2n+1}),\ \ \ \ (x\rightarrow 0)$$infatti
$$D^{(k)}\cos(x)=\left\{\begin{matrix}0 & se\ k\ dispari\\ (-1)^k & se\ k\ pari\end{matrix}\right.$$Quindi il polinomio di Taylor è
$$T_{n,0}(x)=\sum_{k=0}^{n}{\frac{(-1)^kx^{2k}}{(2k)!}}$$Seno La funzione seno è dispari e ha derivate di ordine comunque elevato; scelto come punto iniziale $x_0=0$, la sua formula di Taylor, di ordine $2n+1$, si scrive come
$$\sin(x)=\sum_{k=0}^{n}{\frac{(-1)^kx^{2k+1}}{(2k+1)!}}+o(x^{(2n+2)}),\ \ \ \ (x\rightarrow 0)$$infatti
$$D^{(k)}\sin(x)=\left\{\begin{matrix}0 & se\ k\ pari\\ (-1)^k & se\ k\ dispari\end{matrix}\right.$$Quindi il polinomio di Taylor è
$$T_{n,0}(x)=\sum_{k=0}^{n}{\frac{(-1)^kx^{2k+1}}{(2k+1)!}}$$Coseno iperbolico La funzione coseno iperbolico è pari e ha derivate di ordine comunque elevato; scelto come punto iniziale $x_0=0$, la sua formula di Taylor, di ordine $2n$, si scrive come
$$\cosh(x)=\sum_{k=0}^{n}{\frac{x^{2k}}{(2k)!}}+o(x^{2n+1}),\ \ \ \ (x\rightarrow 0)$$infatti
$$D^{(k)}\cosh(x)=\left\{\begin{matrix}0 & se\ k\ dispari\\ 1 & se\ k\ pari\end{matrix}\right.$$Quindi il polinomio di Taylor è
$$T_{n,0}(x)=\sum_{k=0}^{n}{\frac{x^{2k}}{(2k)!}}$$Seno iperbolico La funzione seno iperbolico è dispari e ha derivate di ordine comunque elevato; scelto come punto iniziale $x_0=0$, la sua formula di Taylor, di ordine $2n+1$, si scrive come
$$\sinh(x)=\sum_{k=0}^{n}{\frac{x^{2k+1}}{(2k+1)!}}+o(x^{(2n+2)}),\ \ \ \ (x\rightarrow 0)$$infatti
$$D^{(k)}\sinh(x)=\left\{\begin{matrix}0 & se\ k\ pari\\ 1 & se\ k\ dispari\end{matrix}\right.$$Quindi il polinomio di Taylor è
$$T_{n,0}(x)=\sum_{k=0}^{n}{\frac{x^{2k}}{(2k)!}}$$$\bf{\ln(1+x)}$ La funzione $\ln(1+x)$ ha derivate di ordine comunque elevato; scelto come punto iniziale $x_0=0$, la sua formula di Taylor, di ordine $n$, si scrive come
$$\ln(1+x)=\sum_{k=1}^{n}{\frac{(-1)^{k-1}x^k}{k}}+o(x^{n}),\ \ \ \ (x\rightarrow 0)$$infatti
$$D^{(k)}\ln(1+x)=\frac{(-1)^{k-1}(k-1)!}{(1+x)^k},\ \ k\geq 1$$da cui deriva
$$D^{(k)}\ln(1+x)\left|_{x=0}\right.=(-1)^{k-1}(k-1)!,\ \ k\geq 1$$Quindi il polinomio di Taylor è
$$T_{n,0}(x)=\sum_{k=1}^{n}{\frac{(-1)^{k-1}x^k}{k}}$$$\bf{(1+x)^\alpha}$ La funzione $(1+x)^\alpha$, $x>-1$, $\alpha\in\mathbb{R}$ ha derivate di ordine comunque elevato; scelto come punto iniziale $x_0=0$, la sua formula di Taylor, di ordine $n$, si scrive come
$$(1+x)^\alpha=\sum_{k=0}^{n}\binom{\alpha}{k}x^k+o(x^{n}),\ \ \ \ (x\rightarrow 0)$$posto
$$\binom{\alpha}{k}=\frac{\alpha(\alpha-1)...(\alpha-k+1)}{k!},\ \ \binom{\alpha}{0}=1$$infatti
$$D^{(k)}(1+x)^\alpha=\alpha(\alpha-1)...(\alpha-k+1)(1+x)^{\alpha-k}$$Quindi il polinomio di Taylor è
$$T_{n,0}(x)=\sum_{k=1}^{n}\binom{\alpha}{k}x^k$$$\bf{(1+x)^{-1}}$ La funzione $(1+x)^{-1}$, $x\neq -1$, ha derivate di ordine comunque elevato; scelto come punto iniziale $x_0=0$, la sua formula di Taylor, di ordine $n$, si ottiene da quella precedente, con $\alpha=-1$, ed è
$$(1+x)^{-1}=\sum_{k=0}^{n}(-1)^kx^k+o(x^{n}),\ \ \ \ (x\rightarrow 0)$$infatti
$$\binom{-1}{k}=\frac{(-1)(-1-1)(-1-2)...(-1-k+1)}{k!}=\frac{(-1)^k(1\cdot 2\cdot 3\cdot ... \cdot k)}{k!}=(-1)^k$$Quindi il polinomio di Taylor è
$$T_{n,0}(x)=\sum_{k=1}^{n}(-1)^kx^k$$$\bf{(1+x^2)^{-1}}$ La funzione $(1+x^2)^{-1}$ ha derivate di ordine comunque elevato; scelto come punto iniziale $x_0=0$, la sua formula di Taylor, di ordine $2n$, si ottiene da quella precedente, sostituendo $x$ con $x^2$, ed è
$$(1+x^2)^{-1}=\sum_{k=0}^{n}(-1)^kx^{2k}+o(x^{2n}),\ \ \ \ (x\rightarrow 0)$$Quindi il polinomio di Taylor è
$$T_{n,0}(x)=\sum_{k=1}^{n}(-1)^kx^{2k}$$$\bf{(1-x)^{-1}}$ La funzione $(1-x)^{-1}$, $x\neq -1$, ha derivate di ordine comunque elevato; scelto come punto iniziale $x_0=0$, la sua formula di Taylor, di ordine $n$, si ottiene da qualle precedente, sostituendo $x$ con $-x$, ed è
$$(1-x)^{-1}=\sum_{k=0}^{n}x^k+o(x^{n}),\ \ \ \ (x\rightarrow 0)$$Quindi il polinomio di Taylor è
$$T_{n,0}(x)=\sum_{k=1}^{n}x^k$$$\bf{(1-x^2)^{-1}}$ La funzione $(1-x^2)^{-1}$, $x\neq\pm 1$, ha derivate di ordine comunque elevato; scelto come punto iniziale $x_0=0$, la sua formula di Taylor, di ordine $2n$, si ottiene da qualle precedente, sostituendo $x$ con $x^2$, ed è
$$(1-x^2)^{-1}=\sum_{k=0}^{n}x^{2k}+o(x^{2n}),\ \ \ \ (x\rightarrow 0)$$Quindi il polinomio di Taylor è
$$T_{n,0}(x)=\sum_{k=1}^{n}x^{2k}$$Definizione Siano $f,g:]a, +\infty[\rightarrow\mathbb{R}$ diremo che $g(x)$ è asintotica a $f(x)$ (equivalentemente, $f(x)$ ha per asintoto $g(x)$) quando $(x\rightarrow \pm\infty)$ se:
$$f(x)=g(x)+o(1),\ \ \ \ (x\rightarrow \pm\infty)$$Definizione (asintoto obliquo) Diremo che $f(x)$ ha asintoto obliquo $g(x)=ax+b\ (x\rightarrow\pm\infty)$ se esistono $a\neq 0$ e $b\in\mathbb{R}$ tali che
$$f(x)=ax+b+o(1),\ \ \ \ (x\rightarrow\pm\infty)\iff\left\{\begin{matrix}\lim_{x\rightarrow\pm\infty}{[f(x)-ax]}=b\\\\\lim_{x\rightarrow\pm\infty}{\frac{f(x)}{x}}=a\end{matrix}\right.$$Definizione Diremo che $f(x)$ ha asintoto verticale da destra (risp. da sinistra) $(x\rightarrow a^+)$ se
$$\lim_{x\rightarrow a^+}{f(x)}=\pm\infty\ \text{(risp.}\ \lim_{x\rightarrow a^-}{f(x)}=\pm\infty\text{)}$$Definizione Diremo che $f(x)$ ha asintoto orizzontale $y=c\ (x\rightarrow\pm\infty)$ se
$$\lim_{x\rightarrow\pm\infty}{f(x)}=c$$Teorema (funzioni monotone e derivata prima) Supponiamo $I\subseteq\mathbb{R}$ intervallo e $f:I\rightarrow\mathbb{R}$ derivabile in $I$. Allora:
$f$ è debolmente crescente in $I\iff f'(x)\geq 0\ \forall x\in I$
$f$ è debolmente decrescente in $I\iff f'(x)\leq 0\ \forall x\in I$
Se $f'(x)>0\ \forall x\in I$ allora $f$ è strettamente crescente in $I$
Se $f'(x)<0\ \forall x\in I$ allora $f$ è strettamente decrescente in $I$
Dimostrazione (1)
($\implies$) Scriviamo i limiti destro e sinistro del rapporto incrementale di $f(x)$
$$\lim_{x\rightarrow x^+}{\frac{f(x)-f(x_0)}{x-x_0}}\geq 0$$$$\lim_{x\rightarrow x^-}{\frac{f(x)-f(x_0)}{x-x_0}}\geq 0$$($\impliedby$) Per il teorema di Lagrange sappiamo che $\exists c\in ]x,x_0[$ tale che $f(x)-f(x_0)=f'(c)(x-x_0)$. Per ipotesi $f'(c)\geq 0\ \forall x\in ]x,x_0[$.
$$x< x_0\implies x-x_0< 0\implies f(x)-f(x_0)\leq 0\implies f(x)\leq f(x_0)$$$$x> x_0\implies x-x_0> 0\implies f(x)-f(x_0)\geq 0\implies f(x)\geq f(x_0)$$Quindi la funzione è debolmente crescente.
Teorema Siano $I$ intervallo e $f:I\rightarrow\mathbb{R}$ derivabile in $I$. Allora $f$ è strettamente crescente (risp. strettamente decrescente) se e solo se $f'(x)\geq 0$ (risp. $f'(x)\leq 0$) $\forall x\in I$ e l'insieme $E=\{x\in I\mid f'(x)=0\}\subseteq I$ non contiene intervalli aperti.
Teorema Sia $f:I\rightarrow\mathbb{R}$ derivabile $2n+1$ volte in $x_0\in I$ e tale che $f'(x_0)=f''(x_0)=...=f^{2n}(x_0)=0$. Se
Dimostrazione La dimostrazione è un'applicazione della formula di Taylor di punto iniziale $x_0$ con resto di Peano. Supponiamo per semplicità che $f^{2n+1}>0$ (il caso $f^{2n+1}<0$ è analogo):
$$f(x)-f(x_0)=\frac{f^{2n+1}(x_0)}{(2n+1)!}(x-x_0)^{2n+1}(1+o(1))$$allora il membro di destra è positivo se $x>x_0$, mentre è negativo se $x<x_0$, cioè $\exists\delta>0$ tale che $f$ è strettamente crescente in $\forall x\in ]x_0-\delta,x_0+\delta[$
Definizione Sia $A\subseteq\mathbb{R}$, $f:A\rightarrow\mathbb{R}$. Diremo che $x_0\in A$ è un punto di minimo locale (risp. di massimo locale) (o relativo) se $\exists\delta>0$ tale che
$$f(x)\geq f(x_0)\ \text{(risp.)}\ f(x)\geq f(x_0)\ \text{)}\ \forall x\in A\cap ]x_0-\delta,x_0+\delta[$$Teorema (di Fermat) Sia $f:]a,b[\rightarrow\mathbb{R}$. Se $x_0\in ]a,b[$ è un punto di massimo (o minimo) locale e $\exists f'(x_0)$ allora $f'(x_0)=0$
Dimostrazione Supponiamo che $x_0$ sia un punto di minimo locale (la dimostrazione è analoga nel caso $x_0$ sia un punto di massimo locale)
$$\left.\begin{matrix}\lim_{x\rightarrow x_0^+}{\frac{f(x)-f(x_0)}{x-x_0}}\geq 0\\\lim_{x\rightarrow x_0^-}{\frac{f(x)-f(x_0)}{x-x_0}}\end{matrix}\right\}\implies f'(x_0)=0$$Definizione Sia $f:I\rightarrow\mathbb{R}$ derivabile in $x_0\in I$. Diciamo che $x_0$ è un punto stazionario o critico se $f'(x)=0$.
Teorema Sia $f:]a,b[\rightarrow\mathbb{R}$ derivabile in $]a,b[$. Se in $x_0\in]a,b[\ f'(x_0)=0$ e $\exists\delta>0$ tale che:
$f'(x_0)> 0\ \forall x\in ]x_0,x_0+\delta[$
$f'(x_0)< 0\ \forall x\in ]x_0-\delta,x_0[$
Allora $x_0$ è un punto di minimo locale
$f'(x_0)< 0\ \forall x\in ]x_0,x_0+\delta[$
$f'(x_0)> 0\ \forall x\in ]x_0-\delta,x_0[$
Allora $x_0$ è un punto di massimo locale
Teorema Sia $f:]a,b[\rightarrow\mathbb{R}$, $x_0\in ]a,b[$ e supponiamo che $f$ sia continua in tutto $]a,b[$ e derivabile in $]a,b[\setminus\{x_0\}$. Se $\exists\delta>0$
$f'(x)>0\ \forall x\in]x_0-\delta,x_0[\cap]a,b[$ e $f'(x)<0\ \forall x\in]x_0,x_0+\delta[\cap]a,b[$ allora $x_0$ è un punto angoloso di massimo locale
$f'(x)<0\ \forall x\in]x_0-\delta,x_0[\cap]a,b[$ e $f'(x)>0\ \forall x\in]x_0,x_0+\delta[\cap]a,b[$ allora $x_0$ è un punto angoloso di minimo locale
$f'_{+}(x)=+\infty$ e $f'_{-}(x)=-\infty$ allora $x_0$ è una cuspide di minimo locale
$f'_{+}(x)=-\infty$ e $f'_{-}(x)=+\infty$ allora $x_0$ è una cuspide di massimo locale
Teorema Sia $f:]a,b[\rightarrow\mathbb{R}$ derivabile $2n$ volte in $x_0$, con $n\geq 1$. Se $f'(x_0)=f''(x_0)=...=f^{2n-1}(x_0)=0$. Allora:
Se $f^{2n}(x_0)>0$ allora $x_0$ è un punto di minimo locale
Se $f^{2n}(x_0)< 0$ allora $x_0$ è un punto di massimo locale
Dimostrazione La dimostrazione è un'applicazione della formula di Taylor di punto iniziale $x_0$ con resto di Peano:
$$(1)\ \ f(x)-f(x_0)=\frac{f^{2n}(x_0)}{(2n)!}(x-x_0)^{2n}(1 + o(1))> 0$$$$(2)\ \ f(x)-f(x_0)=\frac{f^{2n}(x_0)}{(2n)!}(x-x_0)^{2n}(1 + o(1))< 0$$Corollario Sia $f:]a,b[\rightarrow\mathbb{R}$ derivabile 2 volte in $x_0$. Supponiamo $f'(x_0)=0$ allora:
Se $f''(x_0)>0$ allora $x_0$ è un punto di minimo locale
Se $f''(x_0)<0$ allora $x_0$ è un punto di massimo locale
Teorema Sia $f:]a,b[\rightarrow\mathbb{R}$ derivabile 2 volte in $x_0$. ALlora:
Se $x_0$ è un punto di minimo locale allora $f'(x_0)=0$ e $f''(x_0)>0$
Se $x_0$ è un punto di massimo locale allora $f'(x_0)=0$ e $f''(x_0)<0$
Definizione Sia $I\subset\mathbb{R}$ intervallo e $f:I\rightarrow\mathbb{R}$. Diciamo che $f$ è convessa in $I$ se:
$$\forall x_1,x_2\in I\ e\ \forall\lambda\in]0,1[\ f(\lambda x_1+(1-\lambda)x_2)\leq \lambda f(x_1)+(1-\lambda)f(x_2)$$Diremo che $f$ è strettamente convessa se:
$$\forall x_1,x_2\in I\ e\ \forall\lambda\in]0,1[\ f(\lambda x_1+(1-\lambda)x_2)< \lambda f(x_1)+(1-\lambda)f(x_2)$$Dimostrazione Una funzione è convessa se tutti i punti del grafico stanno sotto la retta che congiunge due punti qualsiasi di esso. Presi due punti $P_1(x_1,f(x_1))$ e $P_2(x_2,f(x_2))$, la retta che li congiunge è:
$$y=f(x_1)+\frac{f(x_2)-f(x_1)}{x_2-x_1}(x-x_1)$$I punti del grafico compresi tra $P_1$ e $P_2$ sono i punti dell'intervallo $]x_1,x_2[$ e sono del tipo $x=\lambda x_1+(1-\lambda)x_2$. Andando a sostituire $x$ nell'equazione precedente
$$y=f(x_1)+\frac{f(x_2)-f(x_1)}{x_2-x_1}(\lambda x_1+(1-\lambda)x_2-x_1)$$e svolgendo i calcoli
$$y=f(x_1)+[f(x_2)-f(x_1)] (1-\lambda)=f(x_2)-\lambda f(x_2)+\lambda f(x_1)=\lambda f(x_1)+(1-\lambda)f(x_2)$$Quindi i punti interni all'intervallo $]x_1,x_2[$ hanno la forma
$$P(\lambda x_1+(1-\lambda)x_2,\lambda f(x_1)+(1-\lambda)f(x_2))$$.
Definizione Sia $I\subset\mathbb{R}$ intervallo e $f:I\rightarrow\mathbb{R}$. Diciamo che $f$ è concava in $I$ se:
$$\forall x_1,x_2\in I\ e\ \forall\lambda\in]0,1[\ f(\lambda x_1+(1-\lambda)x_2)\geq \lambda f(x_1)+(1-\lambda)f(x_2)$$Diremo che $f$ è strettamente concava se:
$$\forall x_1,x_2\in I\ e\ \forall\lambda\in]0,1[\ f(\lambda x_1+(1-\lambda)x_2)> \lambda f(x_1)+(1-\lambda)f(x_2)$$Dimostrazione Analoga a quella precedente
Teorema Sia $f:[a,b]\rightarrow\mathbb{R}$ concava (o convessa) in $[a,b]$. Allora $f$ è continua in $]a,b[$.
Teorema (convessità e rette tangenti) Sia $I\subseteq\mathbb{R}$ intervallo, $f:I\rightarrow\mathbb{R}$ derivabile in $I$. Allora:
$f$ è convessa in $I\iff \forall x,x_0\in I\ f(x)\geq f(x_0)+f'(x_0)(x-x_0)$
$f$ è concava in $I\iff \forall x,x_0\in I\ f(x)\leq f(x_0)+f'(x_0)(x-x_0)$
Se $\forall x,x_0\in I\ f(x)>f(x_0)+f'(x_0)(x-x_0)$ allora $f$ è strettamente convessa in I
Se $\forall x,x_0\in I\ f(x)<f(x_0)+f'(x_0)(x-x_0)$ allora $f$ è strettamente concava in I
Teorema (convessità e monotonia) Sia $f\in\mathcal{C}^1(I,\mathbb{R})$, $I\subseteq\mathbb{R}$ intervallo. Allora:
$f$ è convessa in $I\iff f'$ è monotona crescente in $I$
$f$ è concava in $I\iff f'$ è monotona decrescente in $I$
Teorema (convessità e segno della derivata seconda) Siano $I\subseteq\mathbb{R}$ intervallo e $f\in\mathcal{C}^2(I,\mathbb{R})$. Allora:
$f$ è convessa in $I\iff f''\geq 0\ \forall x\in I$
$f$ è concava in $I\iff f''\leq 0\ \forall x\in I$
Teorema Sia $f:[a,b]\rightarrow\mathbb{R}$ continua e strettamente convessa (risp. strettamente convessa) in $[a,b]$. Allora
$$\exists! x_0\in [a,b]\ \text{tale che}\ f(x_0)=\min_{[a,b]}f\ \text{(risp.}\ f(x_0)=\max_{[a,b]}f\text{)}$$Dimostrazione Dimostriamo solo il caso della stretta convessità (l'altra dimostrazione è analoga). Il minimo di $f$ esiste per il teorema di Weierstrass. Supponiamo per assurdo che $x_1,x_2\in[a,b]$ siano entrambi punti di minimo, cioè $\forall x\in[a,b]\ f(x)\geq f(x_1)=f(x_2)$. Preso $\lambda\in[0,1]$
$$f(\lambda x_1+(1-\lambda)x_2)<\lambda f(x_1)+(1-\lambda)f(x_2)$$per stretta convessità. Scelgo $\lambda =\frac{1}{2}$ e svolgo
$$f\left(\frac{1}{2} x_1+\left(1-\frac{1}{2}\right)x_2\right)<\frac{1}{2} f(x_1)+\left(1-\frac{1}{2}\right)f(x_2)$$$$f\left(\frac{x_1}{2}-\frac{x_2}{2}\right)<\frac{f(x_1)}{2}+\frac{f(x_2)}{2}$$$$f(x_1)< f(x_1)$$giungendo a un assurdo.
Definizione Sia $f:]a,b[\rightarrow\mathbb{R}$, continua in $]a,b[$ e derivabile in $x_0\in ]a,b[$. Allora diremo che $x_0$ è un punto di flesso se presa
$$F(x)=[f(x)-f(x_0)-f'(x_0)(x-x_0)]\ x\in]a,b[$$$\exists\delta>0$ tale che $F(x)sign(x-x_0)$ ha segno costante in $]a,b[\cap]x_0-\delta,x_0+\delta[$
Teorema Sia $f:]a,b[\rightarrow\mathbb{R}$ continua in $]a,b[$ e derivabile 2 volte in $x_0\in ]a,b[$. Se $x_0$ è un punto di flesso allora $f''(x_0)=0$.
Dimostrazione Supponiamo per assurdo che $x_0$ sia un punto di flesso e $f''(x_0)\neq 0$. Utilizzando la formula di Taylor di punto iniziale $x_0$ con resto di Peano:
$$f(x)=f(x_0)+f'(x_0)(x-x_0)+\frac{f''(x_0)}{2}(x-x0)^2+o((x-x_0)^2),\ \ \ \ (x\rightarrow x_0)$$$$F(x)=[f(x)-f(x_0)-f'(x_0)(x-x_0)]=\frac{f''(x_0)}{2}(x-x_0)^2[1+o(1)],\ \ \ \ (x\rightarrow x_0)$$Se $f''(x_0)\neq 0$ allora $x_0$ n on può essere un punto di flesso, in quanto $F(x)$ cambierebbe di segno.
Teorema Sia $f:]a,b[\rightarrow\mathbb{R}$ continua in $]a,b[$ e derivabile $2n+1$ volte in $x_0\in]a,b[$. Se $f''(x_0)=...=f^{2n}(x_0)=0$ e $f^{2n+1}(x_0)\neq 0$ allora $x_0$ è un punto di flesso.
Dimostrazione La dimostrazione è un'applicazione della formula di Taylor di punto iniziale $x_0$ con resto di Peano:
$$f(x)-f(x_0)-f'(x_0)(x-x_0)=\frac{f^{2n+1}(x_0)}{(2n+1)!}(x-x_0)^{2n+1}[1+o(1)],\ \ \ \ (x\rightarrow x_0)$$$$F(x)sign(x-x_0)=\frac{f^{2n+1}(x_0)}{(2n+1)!}(x-x_0)^{2n+1}sign(x-x_0)[1+o(1)],\ \ \ \ (x\rightarrow x_0)$$Supponiamo $f^{2n+1}(x_0)>0$, allora il membro di destra è sempre positivo
Supponiamo $f^{2n+1}(x_0)<0$, allora il membro di destra è sempre positivo
Quindi $x_0$ è un punto di flesso.
Corollario Se $f:]a,b[\rightarrow\mathbb{R}$ derivabile 3 volte e $f''(x_0)=0$ e $f'''(x_0)\neq 0$ allora $x_0$ è un punto di flesso.
Teorema Sia $f:]a,b[\rightarrow\mathbb{R}$ derivabile in $]a,b[$. Se $x_0$ è un punto di minimo o massimo per $f'(x_0)$ allora è un punto di flesso per $f$.
Dimostrazione
$$F(x)=f(x)-f(x_0)-f'(x_0)(x-x_0)$$$$F'(x)=f'(x)-f'(x_0)$$Supponiamo $x_0$ punto di minimo per $f'$. Allora $F'(x)\geq 0\ \forall x\in]a,b[\cap]x_0-\delta,x_0+\delta[$. Da qui segue che $F(x)$ è monotona crescente in $]a,b[\cap]x_0-\delta,x_0+\delta[$. Essendo $F(x_0)=0$, allora $x_0$ è un punto di flesso.
Teorema Sia $f:]a,b[\rightarrow\mathbb{R}$ derivabile 2 volte in $]a,b[$. Se in $x_0\in]a,b[\ f''(x_0)=0$ ed $\exists\delta>0$ tale che $f$ è concava in $]x_0, x_0+\delta[$ e convessa in $]x_0-\delta,x_0[$, o viceversa, allora $x_0$ è un punto di flesso.
Definizione Sia $f:I\rightarrow\mathbb{R}$, $I$ intervallo. Chiamiamo $F:I\rightarrow\mathbb{R}$ primitiva di $f$ se
$$\frac{\mathrm{d} F}{\mathrm{d} x}(x)=f(x)\ \forall x\in I$$Dimostrazione
$$\frac{\mathrm{d}}{\mathrm{d} x}G(x)=\frac{\mathrm{d}}{\mathrm{d} x}F(x)=f(x)$$$$\frac{\mathrm{d}}{\mathrm{d} x}[G(x)-F(x)]=f(x)-f(x)=0$$Teorema (funzioni a derivata nulla) Sia $I$ intervallo, $f:I\rightarrow\mathbb{R}$ derivabile in $I$. Allora
$$f'(x)=0\ \forall x\in I\iff\exists c\in\mathbb{R}\ \text{tale che}\ f(x)=c\ \forall x\in I$$Dimostrazione
($\implies$) L'implicazione verso sinistra è banale. Siccome $f(x)=c$:
$$f'(x)=\lim_{x\rightarrow x_0}{\frac{f(x)-f(x_0)}{x-x_0}}=0$$($\impliedby$) Usiamo il teorema di Lagrange:
$$\exists c\in]x,x_0[\ \text{tale che}\ f(x)-f(x0)=f'(c)(x-x_0)\ \forall x,x_0\in I$$Siccome $f'(c)=0$, allora necessariamente $f(x)-f(x_0)=0$ e quindi $x=x_0$. Per l'arbitrarietà di $x,x_0$ possiamo concludere che $f$ è costante su tutto $I$.
Teorema (caratterizzazione delle primitive di $f$ su un intervallo) Sia $I\subseteq\mathbb{R}$ intervallo, $f:I\rightarrow\mathbb{R}$. Allora:
se $F:I\rightarrow\mathbb{R}$ è una primitiva di $f$ allora $F(x)+c$, $c\in\mathbb{R}$ costante, è un'altra primitiva di $f$
se $F,G:I\rightarrow\mathbb{R}$ sono primitive di $f$, allora $\exists c\in\mathbb{R}$ costante tale che $G(x)=F(x)+c$
Definizione Sia $f:[a,b]\rightarrow\mathbb{R}$ limitata in $[a,b]$. Definiamo scomposizione $\bf\sigma$ dell'intervallo $[a,b]$ un sottoinsieme finito e ordinato di punti in $[a,b]$
$$\sigma=\{a=x_0< x_1< x_2<...< x_n=b\}$$Definizione Siano $\sigma,\tau$ scomposizioni di $[a,b]$. $\sigma\cup\tau$ è l'insieme unione dei punti che stanno in $\sigma,\tau$. Tale scomposizione è più fine di $\sigma$ e $\tau$.
Definizione Fissata la scomposizione $\sigma$ di $[a,b]$:
Proposizione Sia $f:[a,b]\rightarrow\mathbb{R}$ limitata. Sinao $\sigma,\tau$ scomposizioni di $[a,b]$.
$$(b-a)\inf_{[a,b]}f\leq s(f,\sigma)\leq s(f,\sigma\cup\tau)\leq S(f,\sigma\cup\tau)\leq S(f,\sigma)\leq (b-a)\sup_{[a,b]}f$$Dimostrazione Siano $\sigma$ e $\tau=\sigma\cup{y}$:
$$s(f,\sigma)=(x_1-x_0)\inf_{[x_0,x_1]}f+...+(x_k-x_{k-1})\inf_{[x_{k-1},x_k]}f+...+(x_n-x_{n-1})\inf_{[x_{n-1},x_n]}f$$$$s(f,\tau)=(x_1-x_0)\inf_{[x_0,x_1]}f+...+(y-x_{k-1})\inf_{[x_{k-1},y]}f+(x_k-y)\inf_{[y,x_k]}f+...+(x_n-x_{n-1})\inf_{[x_{n-1},x_n]}f$$Sottraendo:
$$s(f,\tau)-s(f,\sigma)=(y-x_{k-1})\inf_{[x_{k-1},y]}f+(x_k-y)\inf_{[y,x_k]}f-(x_k-x_{k-1})\inf_{[x_{k-1},x_k]}f = $$$$= (y-x_{k-1})\inf_{[x_{k-1},y]}f+(x_k-y)\inf_{[y,x_k]}f-(x_k-y+y-x_{k-1})\inf_{[x_{k-1},x_k]}f = $$$$= (y-x_{k-1})\left[\inf_{[x_{k-1},y]}f-\inf_{[x_{k-1},x_k]}f\right]+(x_k-y)\left[\inf_{[y,x_k]}f-\inf_{[x_{k-1},x_k]}f\right]\geq 0$$Quindi
$$s(f,\sigma)\leq s(f,\tau)$$Con un ragionamento analogo si dimostra
$$S(f,\sigma)\geq S(f,\tau)$$Definizione Si definisce integrale inferiore di $f$ in $[a,b]$
$$\underline{\int_{a}^{b}}{f(x)\mathrm{d}x}=\sup_{\sigma}s(f,\sigma)$$Si definisce integrale superiore di $f$ in $[a,b]$
$$\overline{\int_{a}^{b}}{f(x)\mathrm{d}x}=\inf_{\sigma}S(f,\sigma)$$Corollario Sia $f:[a,b]\rightarrow\mathbb{R}$ limitata. Allora
$$\underline{\int_{a}^{b}}{f(x)\mathrm{d}x}<+\infty\ \text{perché ha come maggiorante}\ (b-a)\sup_{[a,b]}f$$$$\overline{\int_{a}^{b}}{f(x)\mathrm{d}x}>-\infty\ \text{perché ha come minorante}\ (b-a)\inf_{[a,b]}f$$$$\underline{\int_{a}^{b}}{f(x)\mathrm{d}x}\leq\overline{\int_{a}^{b}}{f(x)\mathrm{d}x}$$Definizione (funzione integrabile secondo Riemann) Sia $f:[a,b]\rightarrow\mathbb{R}$ limitata. Diremo che $f$ è integrabile secondo Riemann se
$$\underline{\int_{a}^{b}}{f(x)\mathrm{d}x}=\overline{\int_{a}^{b}}{f(x)\mathrm{d}x}$$e in tal caso chiamiamo integrale di $f$ in $[a,b]$
$$\int_{a}^{b}{f(x)\mathrm{d}x}=\underline{\int_{a}^{b}}{f(x)\mathrm{d}x}=\overline{\int_{a}^{b}}{f(x)\mathrm{d}x}$$Funzione di Dirichlet La funzione di Dirichlet è così definita
$$f:[0,1]\rightarrow\mathbb{R},\ \ \ \ f(x)=\left\{\begin{matrix} 1, & x\in[0,1]\cap\mathbb{Q} \\ 0, & x\in[0,1]\setminus\mathbb{Q}\end{matrix}\right.$$Presa una qualunque partizione $\sigma=\{0=x_0<x_1<x_2<...<x_n=1\}$ scomposizione, allora
$$s(f,\sigma)=\sum_{i=1}^{n}{(x_i-x_{i-1})}\inf_{[x_{i-1},x_i]}f=0$$e
$$S(f,\sigma)=\sum_{i=1}^{n}{(x_i-x_{i-1})}\sup_{[x_{i-1},x_i]}f=(x_1-0)(x_2-x_1)(x_3-x_2)...(1-x_{n-1})=1$$Quindi
$$\underline{\int_{a}^{b}}{f(x)\mathrm{d}x}<\overline{\int_{a}^{b}}{f(x)\mathrm{d}x}$$Quindi la funzione di Dirichlet è limitata ma non integrabile secondo Riemann.
Teorema (classificazione delle funzioni integrabili secondo Riemann)
Se $f:[a,b]\rightarrow\mathbb{R}$ è continua in $[a,b]$ allora $f$ è integrabile secondo Riemann
Se $f:[a,b]\rightarrow\mathbb{R}$ è continua e limitata in $[a,b]\setminus \{c\}$ ($c\in]a,b[$) allora $f$ è integrabile secondo Riemann e
Osservazione Una funzione monotona può avere un numero infinito numerabile di discontinuità di I specie nell'intervallo $[a,b]$.
Proprietà
Definizione Sia $f:[a,b]\rightarrow\mathbb{R}$ limitata e integrabile secondo Riemann. Chiamiamo funzione integrale di $f$
$$F:[a,b]\rightarrow\mathbb{R},\ \ \ \ F(x)=\int_{a}^{x}{f(t)\mathrm{d}t}\ \ \ \ x\in[a,b]$$I Teorema Fondamentale del Calcolo Integrale Sia $f:[a,b]\rightarrow\mathbb{R}$ continua e sia $F:[a,b]\rightarrow\mathbb{R}$ la funzione integrale di $f$, $F(x)=\int_{a}^{x}{f(t)\mathrm{d}t}\ x\in[a,b]$. Allora $F\in\mathcal{C}^{(1)}([a,b],\mathbb{R})$ e $\frac{\mathrm{d}F}{\mathrm{d}x}(x)=f(x)\ \forall x\in[a,b]$.
Dimostrazione
$$f(x)=\lim_{h\to 0}{\frac{F(x+h)-F(x)}{h}}$$$$F(x+h)-F(x)=\int_{x}^{x+h}{f(t)\mathrm{dt}} \implies \frac{F(x+h)-F(x)}{h}=\frac{\int_{x}^{x+h}{f(t)\mathrm{dt}}}{h}$$Possiamo applicare il teorema della media integrale all'intervallo $[x,x+h]$. Sappiamo che $\exists c_h\in[x,x+h]$
$$\frac{\int_{x}^{x+h}{f(t)\mathrm{dt}}}{h}=\frac{f(c_h)(x+h-x)}{h}=f(c_h)$$e quindi
$$\frac{F(x+h)-F(x)}{h}=f(c_h)$$Perciò
$$\lim_{h\to 0}{f(c_h)}=f(x)$$perché $\displaystyle\lim_{h\to 0}{c_h}=x$ e perché $f$ è continua.
II Teorema Fondamentale del Calcolo Integrale Sia $f:[a,b]\rightarrow\mathbb{R}$ continua e sia $G\in\mathcal{C}^{(1)}([a,b],\mathbb{R})$ una primitiva di $f$. Allora
$$\int_{a}^{b}{f(t)\mathrm{d}t}=G(b)-G(a)$$Dimostrazione Sia $F(x)=\int_{a}^{x}{f(t)\mathrm{dt}}$ un'altra primitiva di $f(x)$ in $[a,b]$. Pertanto $\exists c\in\mathbb{R}$ tale che $F(x)=G(x)+c$. Calcoliamo $c$.
$$F(a)=\int_{a}^{a}{f(t)\mathrm{d}t}=0=G(a)+c$$Quindi $c=-G(a)$ e
$$F(x)=G(x)-G(a)$$$$F(b)=\int_{a}^{b}{f(t)\mathrm{d}t}=G(b)-G(a)$$Teorema (della media integrale) Sia $f:[a,b]\rightarrow\mathbb{R}$ integrabile secondo Riemann. Allora:
$\displaystyle\inf_{[a,b]}f\cdot (b-a)\leq\int_{a}^{b}{f(x)\mathrm{dx}}\leq\sup_{[a,b]}f\cdot (b-a)$
Sia $f\in\mathcal{C}([a,b],\mathbb{R})$. Allora $\exists c\in [a,b]$ tale che:
Dimostrazione
(1) $f$ è integrabile secondo Riemann, e quindi è limitata
$$\forall x\in [a,b] \inf_{[a,b]}f \leq f \leq \sup_{[a,b]}f$$Usando la monotonia dell'integrale
$$\inf_{[a,b]}f\int_{a}^{b}{\mathrm{dx}} \leq \int_{a}^{b}{f(x)\mathrm{dx}} \leq \sup_{[a,b]}f\int_{a}^{b}{\mathrm{dx}}\implies\inf_{[a,b]}f(b-a) \leq \int_{a}^{b}{f(x)\mathrm{dx}} \leq \sup_{[a,b]}f(b-a)$$(2) $f$ è continua in $[a,b]$. Quindi per il teorema di Weierstrass $f$ possiede $\displaystyle\min_{[a,b]}$ e $\displaystyle\max_{[a,b]}$. Per il teorema precedente
$$\min_{[a,b]}f \leq \frac{\int_{a}^{b}{f(x)\mathrm{dx}}}{(b-a)} \leq \max_{[a,b]}f$$Per il teorema di Bolzano
$$f([a,b])=[\min_{[a,b]}f,\max_{[a,b]}f]$$e quindi
$$\exists c\in [a,b]\ \text{tale che}\ f(c)=\frac{\int_{a}^{b}{f(x)\mathrm{dx}}}{(b-a)}$$Teorema (integrazione per parti) Siano $f,g\in\mathcal{C}^{(1)}([a,b],\mathbb{R})$. Allora
$$\int_{a}^{b}{f(t)g'(t)\mathrm{dt}}=f(t)g(t)\Big|_{a}^{b}-\int_{a}^{b}{f'(t)g(t)\mathrm{dt}}$$Dimostrazione
$$\frac{\mathrm{d}}{\mathrm{dt}}[f(t)g(t)]=f'(t)g(t)+f(t)g'(t)$$$$\int_{a}^{b}{\frac{\mathrm{d}}{\mathrm{dt}}f(t)g(t)\mathrm{dt}}=\int_{a}^{b}{f'(t)g(t)\mathrm{dt}}+\int_{a}^{b}{f(t)g'(t)\mathrm{dt}}$$$$f(t)g(t)\Big|_{a}^{b}=\int_{a}^{b}{f'(t)g(t)\mathrm{dt}}+\int_{a}^{b}{f(t)g'(t)\mathrm{dt}}$$$$\int_{a}^{b}{f(t)g'(t)\mathrm{dt}}=f(t)g(t)\Big|_{a}^{b}-\int_{a}^{b}{f'(t)g(t)\mathrm{dt}}$$Teorema (integrazione per sostituzione) Sia $f:[a,b]\rightarrow\mathbb{R}$ continua e $\varphi\in\mathcal{C}^{(1)}([\alpha,\beta],[a,b])$.
$$\int_{\varphi(\alpha)}^{\varphi(\beta)}{f(t)\mathrm{dt}}=\int_{\alpha}^{\beta}{f(\varphi(s))\frac{\mathrm{d}\varphi}{\mathrm{ds}}(s)\mathrm{ds}}$$Dimostrazione Sia $F\in\mathcal{C}^{(1)}([a,b],\mathbb{R})$ tale che $\frac{\mathrm{d}F}{\mathrm{d}t}(t)=f(t)\ \forall t\in[a,b]$
$$\int_{\varphi(\alpha)}^{\varphi(\beta)}{f(t)\mathrm{dt}}=F(\varphi(\beta))-F(\varphi(\alpha))$$$$F\circ\varphi\in\mathcal{C}^{(1)}([\alpha,\beta],\mathbb{R})\ \ F(\varphi(s))=(F\circ\varphi)(s)$$$$\frac{\mathrm{d}}{\mathrm{ds}}(F\circ\varphi)(s)=\frac{\mathrm{dF}}{\mathrm{dt}}(\varphi(s))\frac{\mathrm{d\varphi}}{\mathrm{ds}}(s)=f(\varphi(s))\frac{\mathrm{d\varphi}}{\mathrm{ds}}(s)$$Quindi $(F\circ\varphi)(s)$ è la primitiva di $f(\varphi(s))\frac{\mathrm{d\varphi}}{\mathrm{ds}}(s)$
$$\int_{\alpha}^{\beta}{f(\varphi(s))\frac{\mathrm{d\varphi}}{\mathrm{ds}}(s)}=(F\circ\varphi)(\beta)-(F\circ\varphi)(\alpha)=F(\varphi(\beta))-F(\varphi(\alpha))$$Osservazione Se inoltre $\varphi:[\alpha,\beta]\xrightarrow[su]{1-1}[a,b]\in\mathcal{C}^{(1)}$ (con $\varphi'(\beta)\neq 0\ \forall s\in[\alpha,\beta]$).
$$\varphi^{-1}:[a,b]\xrightarrow[su]{1-1}[\alpha,\beta]$$$$\int_{a}^{b}{f(t)\mathrm{dt}}=\int_{\varphi^{-1}(a)}^{\varphi^{-1}(b)}{f(\varphi(s))\frac{\mathrm{d\varphi}}{\mathrm{ds}}(s)\mathrm{ds}}$$Gli integrali di funzioni razionali sono gli integrali del tipo:
$$\int_{a}^{b}{\frac{P(x)}{Q(x)}\mathrm{dx}}$$Dove $P(x)=\sum_{i=1}^{n}{a_ix^i}$ e $Q(x)=\sum_{j=1}^{m}{a_jx^j}$, con $a_1,...,a_n,b_1,...,b_m\in\mathbb{R}$ e $a_n,b_m\neq 0$.
Vi sono due casi:
$n\geq m$: si effettua la divisione tra $P(x)$ e $Q(x)$
$n<m$: si effettua la scomposizione di $\frac{P(x)}{Q(x)}$
Analizzeremo ora i casi distintamente
Sappiamo che esistono e sono unici i polinomi $S(x)$ e $R(x)$ tali che:
$$P(x)=Q(x)S(x)+R(x)$$dove il grado di $S(x)$ è $n-m$ e il grado di $R(x)$ è $<m$. Possiamo quindi riscrivere
$$\frac{P(x)}{Q(x)}=S(x)+\frac{R(x)}{Q(x)}$$È necessario studiare la scomposizione di $\frac{P(x)}{Q(x)}$. Sappiamo per il teorema fondamentale dell'algebra che il polinomio $Q(x)$ ammette al più $m$ radici reali ed esattamente $m$ radici complesse, contate con la loro molteplicità.
Supponiamo che $\lambda_1,...,\lambda_s,\alpha_1\pm i\beta_1,...,\alpha_r\pm i\beta_r$ siano le radici di $Q(x)$, e siano $n_1,...,n_s,m_1,...,m_r$ le loro molteplicità, che devono soddisfare la seguente condizione:
$$n_1+...+n_s+2m_1+...+2m_r=m$$Allora è possibile scomporre $\frac{P(x)}{Q(x)}$ nel seguente modo
$$\frac{P_1(x)}{(x-\lambda_1)^{n_1}}+...+\frac{P_s(x)}{(x-\lambda_s)^{n_s}}+\frac{R_1}{[(x-\alpha_1)^2+\beta_1^2]}+...+\frac{R_r(x)}{[(x-\alpha_r)^2+\beta_r^2]}$$dove, come conseguenza del teorema fondamentale dell'algebra, i polinomi $P_1(x),...,P_s(x)$ sono costanti, mentre $R_1(x),...,R_r(x)$ sono di primo grado.
Abbiamo definito l'integrale secondo Riemann usando sempre somme inferiori o superiori, cioè approssimando, nel caso di funzioni non regolari, l'area del sottografico con l'area dell'unione finita di rettangoli.
Questo comporta delle limitazioni sulla classe di funzioni su cui questa costruzione ha senso:
Come possiamo estendere l'integrale nel caso in cui $f$ sia definita su insiemi o non limitati o non chiusi o in cui $f$ non sia limitata? Questa estensione non può avvenire direttamente usando somme inferiori/superiori perché vi sarebbero rettangoli di area infinita.
Estendiamo l'integrale a questa classe di funzioni richiedendo che la restrizione di $f$ a qualunque intervallo limitato e chiuso del dominio sia integrabile secondo Riemann e vediamo il valore dell'integrale come limite della funzione integrale.
Definizione (Integrale generalizzato) Sia $f:]a,b[\rightarrow\mathbb{R}$ tale che $\forall\alpha,\beta\in]a,b[,\ \alpha<\beta,\ f:[\alpha,\beta]\rightarrow\mathbb{R}$ è Riemann integrabile (cioè $f$ è Riemann integrabile su tutti gli intervalli limitati e chiusi contenuti in $]a,b[$). Sia $c\in]a,b[$. Se i limiti:
$$I_1=\lim_{x\to b^-}\int_{c}^{x}{f(t)\mathrm{dt}}\ \text{e}\ I_2=\lim_{x\to a^+}\int_{x}^{c}{f(t)\mathrm{dt}}$$esistono finiti, diremo che $f$ è integrabile in senso generalizzato in $]a,b[$ e il valore dell'integrale è
$$\int_{a}^{b}{f(t)\mathrm{dt}}=I_1+I_2$$Osservazione Il valore di $\int_{a}^{b}{f(t)\mathrm{dt}}$ non dipende da $c$.
Osservazione Se $I_1\in\mathbb{R}$ e $I_2=+\infty$ o viceversa o $I_1=I_2=+\infty$ diciamo che $\int_{a}^{b}{f(t)\mathrm{dt}}=+\infty$. Analogamente per $-\infty$.
Osservazione Non è possibile estendere l'integrale a tutto $]a,b[$ se $I_1=+\infty$ e $I_2=-\infty$ (o viceversa) o se uno dei due non esiste.
Osservazione Se $f:]a,b[\rightarrow\mathbb{R}$ è non negativa in $]a,b[$ (cioè $f(x)\geq 0\ \forall x\in]a,b[$) vi sono solo le seguenti possibilità:
$$\int_{a}^{b}{f(t)\mathrm{dt}}\in\mathbb{R}\ \text{o}\ \int_{a}^{b}{f(t)\mathrm{dt}}=+\infty$$Teorema Siano $f,g:]a,b[\rightarrow\mathbb{R}$ limitata e localmente Riemann integrabile (su tutti gli intervalli limitati e chiusi in $]a,b[$). Se $0\leq f(x)\leq g(x)\ \forall x\in]a,b[$, allora:
Teorema (convergenza assoluta $\implies$ convergenza semplice) Sia $f:]a,b[\in\mathbb{R}$ localmente Riemann integrabile e $\int_{a}^{b}{\left|f(x)\right|\mathrm{dx}}<+\infty$. Allora $f$ è integrabile in senso generalizzato in $]a,b[$ e
$$\left|\int_{a}^{b}{f(x)\mathrm{dx}}\right| \leq \int_{a}^{b}{\left|f(x)\right|\mathrm{dx}}$$Osservazione
$$\int_{a}^{b}{f(x)\mathrm{dx}}\in\mathbb{R} \not\implies \int_{a}^{b}{\left|f(x)\right|\mathrm{dx}}\in\mathbb{R}$$Osservazione
Se $f$ è integrabile secondo Riemann in $[a,b]$ allora è integrabile in senso generalizzato in $[a,b]$ e i valori dei due integrali coincidono.
L'insieme dei numeri complessi $\mathbb{C}$ è l'insieme composto da coppie ordinate di numeri reali $(a,b)$.
Operazioni
Proposizione $(\mathbb{C},+,\cdot)$ è un campo. Sia $z=(a,b)$
Osservazione $\mathbb{R} = \{ (a,0): a\in\mathbb{R} \}$
Definizione Il numero complesso $(0,1)$ si chiama unità immaginaria ed è denotata con $i$. Si ha che
Definizione Se $z=(a,b)\in\mathbb{C}$, la scrittura
$$z=a+ib,\ \ \ \ a,b\in\mathbb{R}$$è detta rappresentazione algebrica dei numeri complessi. Definiamo inoltre la parte reale di $z$ la quantità
$$\mathfrak{Re}(z)=a$$e coefficiente della parte immaginaria di $z$ la quantità
$$\mathfrak{Im}(z)=b$$Definizione Sia $z=a+ib$. Il numero complesso
$$\overline{z}=a-ib$$è detto complesso coniugato di $z$.
Proprietà Sia $z=a+ib$.
Definizione Sia $z=(a,b)$. La quantità
$$|z|=\sqrt{a^2+b^2}$$è detta modulo di $z$ e rappresenta la distanza di $z$ dall'origine $O=(0,0)$.
Proprietà
Definizione Sia $z\in\mathbb{C}$. L'angolo orientato misurato dal semiasse positivo delle ascisse al semiasse $OZ$ è detto argomento di $z$.
Osservazione Ogni numero complesso $z\in\mathbb{C}\setminus\{0,0\}$ ha un unico modulo e infiniti argomenti.
Proposizione $\theta$ e $\hat{\theta}$ sono argomenti di $z\in\mathbb{C}$ se e solo se $\exists n\in\mathbb{Z}$ tale che
$$\theta-\hat{\theta}=2\pi{n}$$Definizione Chiamiamo argomento principale di $z\in\mathbb{C}*$ l'unico argomento appartenente all'intervallo $]-\pi,\pi]$.
Definizione Chiamiamo rappresentazione trigonometrica di $z\in\mathbb{C}*$ la coppia $[r,\theta]$ formata dal modulo $r=|z|\geq 0$ e da un argomento $\theta$ di $z$. Questa rappresentazione si ottiene dal seguente sistema
$$\left\{\begin{matrix} r = \sqrt{a^2+b^2}\\ \\ \cos\theta=\frac{a}{\sqrt{a^2+b^2}}\\ \\ \sin\theta=\frac{b}{\sqrt{a^2+b^2}} \end{matrix}\right.$$Sia $z\in\mathcal{C}\setminus\{0,0\}$ e $\hat{\theta}$ l'argomento principale di $z$.
Coseno
La funzione $\cos$ ristretta all'intervallo $[0,\pi]$ è biiettiva e invertibile.
Seno
La funzione $\sin$ ristretta all'intervallo $[-\frac{\pi}{2},\frac{\pi}{2}]$ è biiettiva e invertibile.
Tangente
La funzione $\tan$ ristretta all'intervallo $]-\frac{\pi}{2},\frac{\pi}{2}[$ è biiettiva e invertibile.
Proposizione Siano $z=[r,\theta]$ e $w=[\rho,\phi]$ numeri complessi in forma trigonometrica. Si possono scrivere in maniera equivalente come
$$z=|z|[\cos(\theta)+i\sin(\theta)]$$$$w=|w|[\cos(\phi)+i\sin(\phi)]$$e valgono le seguenti affermazioni
Teorema (regola di De Moivre) Siano $z=|z|(\cos(\theta)+i\sin(\theta)),\ w=|w|(\cos(\varphi)+i\sin(\varphi))$. Allora
Definizione La notazione esponenziale discende da quella trigonometrica. Infatti si ha, con $z=a+ib$
$$z=|z|[\cos(b) + i\sin(b)]=|z|\mathrm{exp}(ib)$$Proprietà
Teorema (radici n-esime di un numero complesso) Sia $w=\alpha\mathrm{exp}(i\beta),\ \alpha > 1,\ \beta\in\mathbb{R}$. Allora le soluzioni dell'equazione $z^n=w$ sono
$$\sqrt[n]{\alpha}\left[\cos\left(\frac{\beta+2\pi(k-1)}{n}\right)+i\sin\left(\frac{\beta+2\pi(k-1)}{n}\right)\right],\ \ \ \ k=1,...,n$$Dimostrazione Sia $w=\alpha\mathrm{exp}(i\beta)$, $z=|z|\mathrm{exp}(i\theta)$ e $z^n=w$ l'equazione.
$$z^n=w \iff |z|^n\mathrm{exp}(in\theta)=\alpha\mathrm{exp}(i\beta) \iff $$$$\iff |z|^n[\cos(n\theta) + i\sin(n\theta)] = \alpha[\cos(\beta) + i\sin(\beta)] \iff $$$$\iff \left\{\begin{matrix} |z|^n=\alpha\\ \cos(n\theta) = \cos(\beta)\\ \sin(n\theta) = \sin(\beta) \end{matrix}\right. \iff \left\{\begin{matrix} |z|=\alpha^{\frac{1}{n}}\\ n\theta = \beta + 2k\pi & , & k\in\mathbb{Z} \end{matrix}\right.$$Quindi si ha
$$z^n=w \iff \left\{\begin{matrix} |z|=\sqrt[n]{\alpha}\\ \theta = \frac{\beta + 2k\pi}{n} & , & k\in\mathbb{Z} \end{matrix}\right.$$Si può osservare che vi sono $n$ soluzioni complesse distinte per $k=0,...,n-1$.
Osservazione Queste radici sono i vertici di un poligono regolare di $n$ lati inscritto nella circonferenza di raggio $\sqrt[n]{\alpha}$.
Definizione Siano $t, x_0,...,x_n$ variabili reali.
$$x_n=F(t,x_0,x_1,...,x_{n-1})$$$$x_n=a_0(t)x_0+a_1(t)x_1+...+a_{n-1}(t)x_{n-1}+b(t)\ \text{con}\ a_0,...,b:I\rightarrow\mathbb{R}\ \text{continue, I intervallo}$$$$x_0\rightarrow y(t),x_1\rightarrow\frac{\mathrm{d}y}{\mathrm{dt}}(t),...,x_n\rightarrow\frac{\mathrm{d^n}y}{\mathrm{dt^n}}(t)$$$$\frac{\mathrm{d^n}y}{\mathrm{dt^n}}=F(t,y(t),...,\frac{\mathrm{d^{n-1}}y}{\mathrm{dt^{n-1}}})\ \text{con}\ t\in I$$Chiamo soluzione classica dell'equazione differenziale una funzione $\varphi\in\mathcal{C}^{(n)}(I_0,\mathbb{R})$ dove $I_0\subseteq I$ è un intervallo tale che
$$\frac{\mathrm{d^n}\varphi}{\mathrm{dt^n}}=F(t,\varphi(t),...,\frac{\mathrm{d^{n-1}}\varphi}{\mathrm{dt^{n-1}}})\ \forall t\in I_0$$Definizione (Problema di Cauchy o alle condizioni iniziali)
$$(P):\left\{\begin{matrix} \frac{\mathrm{d^n}y}{\mathrm{dt^n}}=F(t,y(t),...,\frac{\mathrm{d^{n-1}}y}{\mathrm{dt^{n-1}}}) & \text{con}\ t\in I \\ y(t_0)=y_0 \\ \vdots & y_0,...,y_{n-1}\in\mathbb{R}\\ \frac{\mathrm{d^{n-1}}y}{\mathrm{dt^{n-1}}}=y_{n-1} & \end{matrix}\right.$$Chiamo soluzione classica di $(P)$ una funzione $\varphi\in\mathcal{C}^{(n)}(I_0,\mathbb{R})$ con $I_0\subseteq I$ tale che
$$\frac{\mathrm{d^n}\varphi}{\mathrm{dt^n}}=F(t,\varphi(t),...,\frac{\mathrm{d^{n-1}}\varphi}{\mathrm{dt^{n-1}}})\ \forall t\in I_0$$$$\varphi(t_0)=y_0,\ \frac{\mathrm{d}\varphi}{\mathrm{dt}}(t_0)=y_1,...,\ \frac{\mathrm{d^{n-1}}\varphi}{\mathrm{dt^{n-1}}}(t_0)=y_{n-1}$$Teorema (Problema di Cauchy o alle condizioni iniziali) Dato
$$(P):\left\{\begin{matrix} \frac{\mathrm{d^n}y}{\mathrm{dt^n}}=F(t,y(t),...,\frac{\mathrm{d^{n-1}}y}{\mathrm{dt^{n-1}}}) & \text{con}\ t\in I \\ y(t_0)=\overline{y_0} \\ \vdots & \overline{y_0},...,\overline{y_{n-1}}\in\mathbb{R}\\ \frac{\mathrm{d^{n-1}}y}{\mathrm{dt^{n-1}}}(t_0)=\overline{y_{n-1}} & \end{matrix}\right.$$Allora esiste un'unica soluzione classica di $(P)$ $\varphi\in\mathcal{C}^{(n)}(I,\mathbb{R})$ tale che
$$\frac{\mathrm{d^n}\varphi}{\mathrm{dt^n}}=a_0(t)\varphi(t)+a_1(t)\frac{\mathrm{d}\varphi}{\mathrm{dt}}(t)+...+a_{n-1}(t)\frac{\mathrm{d^{n-1}}\varphi}{\mathrm{dt^{n-1}}}(t)+b(t)\ \forall t\in I$$$$\varphi(t_0)=\overline{y_0},\ \frac{\mathrm{d}\varphi}{\mathrm{dt}}(t_0)=\overline{y_1},...,\ \frac{\mathrm{d^{n-1}}\varphi}{\mathrm{dt^{n-1}}}(t_0)=\overline{y_{n-1}}$$Teorema (forma esplicita della soluzione) Siano $I\subseteq\mathbb{R}$ un intervallo, $a,b:I\rightarrow\mathbb{R}$ continue, $t_0\in I$, $y_0\in\mathbb{R}$.
$$(P):\left\{\begin{matrix} \frac{\mathrm{d}y}{\mathrm{dt}}=a(t)y+b(t) \\ y(t_0)=y_0 \end{matrix}\right.$$Esiste un'unica soluzione $\varphi\in\mathcal{C}^{(1)}(I,\mathbb{R})$ e detta
$$A(t)=\int_{t_0}^{t}{a(s)\mathrm{ds}}\ \text{(primitiva di}\ a(t)\ \text{tale che}\ A(t_0)=0\text{)}$$$$\varphi(t)=\mathrm{exp}(A(t))\left[y_0+\int_{t_0}^{t}{b(s)\mathrm{exp}(-A(s))\mathrm{ds}}\right]\ \forall t\in I$$$$\varphi(t_0)=y_0\mathrm{exp}(A(t_0))=y_0$$Dimostrazione Supponiamo che $\varphi(t)\in\mathcal{C}^{(1)}$ sia soluzione di $(P)$. Introduciamo la funzione
$$w(t)=\mathrm{exp}(-A(t))\varphi(t)\in\mathcal{C}^{(1)}$$$w(t)$ e $\varphi(t)$ sono definite entrambe nello stesso dominio e $w(t_0)=y_0$ in quanto $\int_{t_0}^{t_0}{A(s)\mathrm{ds}}=0$. Calcoliamo $w'(t)$
$$\frac{\mathrm{d}w}{\mathrm{dt}}(t)=\mathrm{exp}(-A(t))\frac{\mathrm{d}\varphi}{\mathrm{dt}}+a(t)\mathrm{exp}(-A(t))\varphi=[a(t)\varphi(t)+b(t)]\mathrm{exp}(-A(t))+a(t)\varphi\mathrm{exp}(-A(t))=b(t)\mathrm{exp}(-A(t))$$Abbiamo quindi ottenuto il problema di Cauchy
$$(P):\left\{\begin{matrix} \frac{\mathrm{d}w}{\mathrm{dt}}(t)=b(t)\mathrm{exp}(-A(t)) \\ w(t_0)=y_0 \end{matrix}\right.$$Sappiamo per il teorema fondamentale del calcolo integrale che esiste un'unica funzione che soddisfa la prima equazione, ed è
$$w(t)=y_0+\int_{t_0}^{t}{b(s)\mathrm{exp}(-A(s))\mathrm{ds}}$$Quindi
$$\varphi(t)=\mathrm{exp}(A(t))(y_0+\int_{t_0}^{t}{b(s)\mathrm{exp}(-A(s))\mathrm{ds}})$$Svolgendo i calcoli si vede che $\varphi(t)$ verifica l'eqauzione, qualunque sia $y_0$. Era quindi lecita la supposizione iniziale.
Osservazione Nel caso non lineare non esistono in generale metodi per determinare la soluzione
Teorema (soluzioni in forma implicita) Siano $I,J\subseteq\mathbb{R}$ intervalli, $f\in\mathcal{C}(I,\mathbb{R})$, $g\in\mathcal{C}(J,\mathbb{R})$ tale che $g(y)\neq 0\ \forall y\in J$, $t_0\in I$, $y_0\in J$ e
$$(P):\left\{\begin{matrix} \frac{\mathrm{d}y}{\mathrm{dt}}=\frac{f(t)}{g(y)} \\ y(t_0)=y_0 \end{matrix}\right.$$il problema di Cauchy.
Allora $\exists\delta,\epsilon > 0$ e $\varphi\in\mathcal{C}^{(1)}(]t_0-\delta,t_0+\delta[\subseteq I,]y_0-\epsilon, y_0+\epsilon[\subseteq J)$, unica soluzione di $(P)$, cioè
$$(P):\left\{\begin{matrix} \frac{\mathrm{d}\varphi}{\mathrm{dt}}=\frac{f(t)}{g(\varphi(t))} \\ \varphi(t_0)=y_0 \end{matrix}\right.$$La soluzione $\varphi$ è data in forma implicita da $G(\varphi(t))-F(t)=0$ con
$$G(y)=\int_{y_0}^{y}{g(s)\mathrm{ds}}\ \text{e}\ F(t)=\int_{t_0}^{t}{f(\tau)\mathrm{\tau}}$$Definizione Siano $a_1,...,a_n,b\in\mathcal{C}(I,\mathbb{R})$, $I,\mathbb{R}$ intervallo. Definiamo equazione differenziale lineare omogenea di ordine n un'equazione differenziale del tipo
$$\frac{\mathrm{d^n}y}{\mathrm{dt^n}}+a_1(t)\frac{\mathrm{d^{n-1}}y}{\mathrm{dt^{n-1}}}+...+a_n(t)y=0\ \ \ \ \ \text{(EDLO)}$$Definiamo eqauzione differenziale lineare non omogenea un'equazione differenziale del tipo
$$\frac{\mathrm{d^n}y}{\mathrm{dt^n}}+a_1(t)\frac{\mathrm{d^{n-1}}y}{\mathrm{dt^{n-1}}}+...+a_n(t)y=b(t)\ \ \ \ \ \text{(EDLNO)}$$Teorema (esistenza e unicità locale della soluzione) Sia $F:I\times A\rightarrow\mathbb{R}\in\mathcal{C}^{(1)}$ ($A\subset\mathbb{R}^{n}$ aperto). Allora $\forall b_0\in I$, $\forall(\overline{y_1},...,\overline{y_n})\in A\ \exists\epsilon > 0$ tale che il problema di Cauchy
$$(P):\left\{\begin{matrix} \frac{\mathrm{d^{n}}y}{\mathrm{dt^{n}}}=F(t,y,y',...,y^{(n-1)}) \\ y(t_0)=\overline{y_1},...,y^{(n-1)}(t_0)=\overline{y_{n-1}} \end{matrix}\right.$$ha un unica soluzione $\varphi\in\mathcal{C}^{(n)}(]t_0-\epsilon,t_0+\epsilon[,\mathbb{R})$
Teorema (esistenza e unicità globale della soluzione di un problema di Cauchy)
Siano $a_1,...,a_n,b\in\mathcal{C}(I,\mathbb{R})$, $I\subseteq\mathbb{R}$ intervallo, e
$$(P):\left\{\begin{matrix} \frac{\mathrm{d^n}y}{\mathrm{dt^n}}+a_1(t)\frac{\mathrm{d^{n-1}}y}{\mathrm{dt^{n-1}}}+...+a_n(t)y=b(t) & \text{con}\ t\in I \\ y(t_0)=\overline{y_1} \\ \vdots & \overline{y_1},...,\overline{y_{n-1}}\in\mathbb{R}\\ \frac{\mathrm{d^{n-1}}y}{\mathrm{dt^{n-1}}}(t_0)=\overline{y_{n-1}} & \end{matrix}\right.$$Allora $(P)$ ha un unica soluzione $\varphi\in\mathcal{C}^{(n)}(I,\mathbb{R})$ tale che $\varphi(t_0)=\overline{y_1},...,\varphi^{(n-1)}(t_0)=\overline{y_{n-1}}$
Proposizione (principio di sovrapposizione) Siano $a_1,...,a_n\in\mathcal{C}(I,\mathbb{R})$, $I\subseteq\mathbb{R}$ intervallo. Supponiamo che $\varphi_1,\varphi_2\in\mathcal{C}^{(n)}(I,\mathbb{R})$ siano soluzioni di una (EDLO). Allora
$$\varphi_1+\varphi_2\ \text{e}\ c\varphi_1\ \forall c\in\mathbb{R}$$sono soluzioni di (EDLO).
Dimostrazione Poniamo $\varphi(t)=\varphi_1(t)+\varphi_2(t)$
$$\frac{\mathrm{d^n}\varphi}{\mathrm{dt^n}}+a_1(t)\frac{\mathrm{d^{n-1}}\varphi}{\mathrm{dt^{n-1}}}(t)+...+a_n(t)\varphi(t)=0\iff $$$$\iff \frac{\mathrm{d^n}\varphi_1}{\mathrm{dt^n}}+\frac{\mathrm{d^n}\varphi_2}{\mathrm{dt^n}}+a_1(t)\frac{\mathrm{d^{n-1}}\varphi_1}{\mathrm{dt^{n-1}}}(t)+a_1(t)\frac{\mathrm{d^{n-1}}\varphi_2}{\mathrm{dt^{n-1}}}(t)+...+a_n(t)\varphi_1(t)+a_n(t)\varphi_2(t)=0\iff $$$$\iff \frac{\mathrm{d^n}\varphi_1}{\mathrm{dt^n}}+a_1(t)\frac{\mathrm{d^{n-1}}\varphi_1}{\mathrm{dt^{n-1}}}(t)+...+a_n(t)\varphi_1(t)+\frac{\mathrm{d^n}\varphi_2}{\mathrm{dt^n}}+a_1(t)\frac{\mathrm{d^{n-1}}\varphi_2}{\mathrm{dt^{n-1}}}(t)+...+a_n(t)\varphi_2(t)=0$$Poniamo $\varphi(t)=c\varphi_1(t)$
$$\frac{\mathrm{d^n}\varphi}{\mathrm{dt^n}}+a_1(t)\frac{\mathrm{d^{n-1}}\varphi}{\mathrm{dt^{n-1}}}(t)+...+a_n(t)\varphi(t)=0\iff $$$$\iff c\frac{\mathrm{d^n}\varphi_1}{\mathrm{dt^n}}+ca_1(t)\frac{\mathrm{d^{n-1}}\varphi_1}{\mathrm{dt^{n-1}}}(t)+...+ca_n(t)\varphi_1(t)=0\iff $$$$\iff c\left[\frac{\mathrm{d^n}\varphi}{\mathrm{dt^n}}+a_1(t)\frac{\mathrm{d^{n-1}}\varphi}{\mathrm{dt^{n-1}}}(t)+...+a_n(t)\varphi(t)\right]=0$$Teorema (integrale generale di (EDLO)) Siano $a_1,...,1_n\in\mathcal{C}(I,\mathbb{R})$, $I\subseteq\mathbb{R}$ intervallo e consideriamo una (EDLO). L'insieme delle soluzioni di (EDLO) forma uno spazio vettoriale di dimensione $n$.
Dimostrazione Facciamo vedere che lo spazio vettoriale formato dalle soluzioni di (EDLO) ha dimensione $\geq n$.. Fissiamo $t_0\in I$ e consideriamo i problemi di Cauchy
$$(P_1):\left\{\begin{matrix} \frac{\mathrm{d^n}y}{\mathrm{dt^n}}+...+a_n(t)y=0 \\ y(t_0)=1 \\ y'(t_0)=0 \\ \vdots \\ y^{(n-1)}(t_0)=0 \end{matrix}\right.\ \ \ (P_2):\left\{\begin{matrix} \frac{\mathrm{d^n}y}{\mathrm{dt^n}}+...+a_n(t)y=0 \\ y(t_0)=0 \\ y'(t_0)=1 \\ \vdots \\ y^{(n-1)}(t_0)=0 \end{matrix}\right.\ \ \ ... \ \ \ (P_n):\left\{\begin{matrix} \frac{\mathrm{d^n}y}{\mathrm{dt^n}}+...+a_n(t)y=0 \\ y(t_0)=0 \\ y'(t_0)=0 \\ \vdots \\ y^{(n-1)}(t_0)=1 \end{matrix}\right.$$Siano $\varphi_1,...,\varphi_n$ soluzioni di $(P_1),...,(P_n)$, dimostriamo che sono linearmente indipendenti. Prendiamo
$$\varphi(t)=c_1\varphi_1(t)+...+c_n\varphi_n(t)\equiv 0$$$$\varphi'(t)=c_1\varphi_1'(t)+...+c_n\varphi_n'(t)\equiv 0$$$$\vdots$$$$\varphi^{(n-1)}(t)=c_1\varphi^{(n-1)}_1(t)+...+c_n\varphi^{(n-1)}_n(t)\equiv 0$$Ciò significa
$$\varphi(t_0)=c_1=0$$$$\varphi'(t_0)=c_2=0$$$$\vdots$$$$\varphi^{(n-1)}(t_0)=c_n=0$$Quindi le soluzioni sono linearmente indipendenti.
Sia $w(t)\in\mathcal{C}^{(n)}(I,\mathbb{R})$ una soluzione di (EDLO) e verifichiamo che si può esprimere come combinazione lineare di $\varphi_1,...,\varphi_n$. Prendiamo quindi il generico problema di Cauchy
$$(P_w):\left\{\begin{matrix} \frac{\mathrm{d^n}y}{\mathrm{dt^n}}+a_1(t)\frac{\mathrm{d^{n-1}}y}{\mathrm{dt^{n-1}}}+...+a_n(t)y=0 \\ y(t_0)=w(t_0) \\ y'(t_0)=w'(t_0) \\ \vdots \\ y^{(n-1)}(t_0)=w^{(n-1)}(t_0) \end{matrix}\right.$$e consideriamo la funzione
$$\psi(t)=c_1\varphi_1(t)+...+c_n\varphi_n(t)$$e verifichiamo che per opportuni $c_1,...,c_n$ appropriati $\psi(t)=w(t)$. Sappiamo che $\psi(t)$ risolve l'equazione per il principio di sovrapposizione, quindi
$$\psi(t_0)=c_1=w(t_0)$$$$\psi'(t_0)=c_2=w'(t_0)$$$$\vdots$$$$\psi^{(n-1)}=c_n=w^{(n-1)}(t_0)$$Quindi $\psi(t)=w(t_0)\varphi_1(t)+...+w^{(n-1)}(t_0)\varphi_n(t)$ è soluzione di (EDLO) e per unicità della soluzione
$$w(t)=w(t_0)\varphi_1(t)+...+w^{(n-1)}(t_0)\varphi_n(t)$$Definizione Sia $\varphi(t)\in\mathcal{C}^{(n)}(I,\mathbb{R})$ una soluzione di (EDLO) e prendiamo
$$\left\{\begin{matrix} w_1(t)=\varphi(t) \\ w_2(t)=\varphi'(t) \\ \vdots \\ w^{(n-1)}(t)=\varphi^{(n-1)}(t) \end{matrix}\right.$$dove
$$w'(t)=w_2(t),w''(t)=w_3(t),\ ...,\ w^{(n)}(t)=-a_n(t)w_1(t)+...+-a_1(t)w_n(t)$$Otteniamo così il sistema associato a (EDLO)
$$\begin{bmatrix} \frac{\mathrm{d}w_1}{\mathrm{dt}}\\ \frac{\mathrm{d}w_2}{\mathrm{dt}}\\ \vdots \\ \frac{\mathrm{d}w_n}{\mathrm{dt}} \end{bmatrix}= \begin{bmatrix} 0 & 1 & 0 & \dots & 0\\ 0 & 0 & 1 & \dots & 0\\ \vdots & \vdots & \vdots & \ddots & \vdots \\ -a_n(t) & -a_{n-1}(t) & -a_{n-2}(t) & \dots & -a_1(t) \end{bmatrix} \begin{bmatrix} w_1(t)\\ w_2(t)\\ \vdots \\ w_n(t) \end{bmatrix}$$Definiamo così il vettore soluzione di (EDLO)
$$\begin{bmatrix} w_1(t) \\ w_2(t) \\ \dots \\ w_n(t) \end{bmatrix}= \begin{bmatrix} \varphi(t) \\ \varphi'(t) \\ \dots \\ \varphi^{(n-1)}(t) \end{bmatrix}$$Definizione (wronskiano delle soluzioni) Siano $\varphi_1,...,\varphi_n\in\mathcal{C}^{(n)}(I,\mathbb{R})$ soluzioni di (EDLO). Definiamo wronskiano
$$W(t)=\mathrm{det}\begin{bmatrix} \varphi_1(t) & \varphi_2(t) & \dots & \varphi_n(t) \\ \varphi'_1(t) & \varphi'_2(t) & \dots & \varphi'_n(t) \\ \vdots & \vdots & \ddots & \vdots \\ \varphi^{(n-1)}_1(t) & \varphi^{(n-1)}_2(t) & \dots & \varphi^{(n-1)}_n(t) \end{bmatrix}$$Teorema (del wronskiano) Siano (EDLO) con $a_1,...,a_n\in\mathcal{C}(I,\mathbb{R})$ e $\varphi_1,...,\varphi_n\in\mathcal{C}^{(n)}(I,\mathbb{R})$ soluzioni di (EDLO). Allora sono equivalenti le seguenti informazioni:
Dimostrazione $(3\implies2)\ (n=2)$
Prendiamo l'(EDLO)
$$y''+a_1(t)y'+a_2(t)y=0$$con soluzioni $\varphi_1,\varphi_2$.
$$W(t)=\mathrm{det}\begin{bmatrix} \varphi_1 & \varphi_2 \\ \varphi'_1 & \varphi'_2 \end{bmatrix}= \varphi_1\varphi'_2-\varphi_2\varphi'_1$$Deriviamo il wronskiano
$$W'(t)=\varphi'_1\varphi'_2+\varphi_1\varphi''_2-\varphi'_2\varphi_1-\varphi_2\varphi''_1= $$$$=\varphi_1\varphi''_2-\varphi_2\varphi''_1= $$$$=\varphi_1[-a_1(t)\varphi'_2-a_2(t)\varphi_2]-\varphi_2[-a_1(t)\varphi'_1-a_2(t)\varphi_1]= $$$$=-a_1(t)[\varphi_1\varphi'_2-\varphi_2\varphi'_1] = -a_1(t)W(t)$$Otteniamo quindi la seguente equazione differenziale lineare di primo ordine
$$W'(t)=-a_1(t)W(t)$$Sappiamo che la soluzione è
$$W(t)=W(t_0)\mathrm{exp}(-\int_{t_0}^{t}{a_1(s)\mathrm{ds}})$$Poiché l'esponenziale non si annulla mai si ha
$$W(t_0)\neq 0 \implies W(t)\neq 0$$Proposizione Siano $a_1,...,a_n,b\in C(I,\mathbb{R}$. Siano $\psi_1,\psi_2\in\mathcal{C}^{(n)}(I,\mathbb{R})$ soluzioni di (EDLNO) e $\varphi\in\mathcal{C}^{(n)}(I,\mathbb{R})$ soluzione di (EDLO). Allora
Dimostrazione (1) Prendiamo $\varphi_1(t)=\psi_1(t)-\psi_2(t)$
$$\varphi^{(n)}_1(t)+a_1(t)\varphi^{(n-1)}_1(t)+...+a_n(t)\varphi_1(t)= $$$$=\psi^{(n)}_1(t)-\psi^{(n)}_2(t)+a_1(t)[\psi^{(n-1)}_1(t)-\psi^{(n-1)}_2(t)]+...+a_n(t)[\psi_1(t)-\psi_2(t)]= $$$$=\psi^{(n)}_1(t)+a_1(t)\psi^{(n-1)}_1(t)+...+a_n(t)\psi_1(t)-\psi^{(n)}_2(t)+a_1(t)\psi^{(n-1)}_2(t)+...+a_n(t)\psi_2(t)=b(t)-b(t)=0$$(2) Prendiamo $\psi(t)=\psi_1(t)+\varphi(t)$
$$\psi^{(n)}(t)+a_1(t)\psi^{(n-1)}(t)+...+a_n(t)\psi(t)= $$$$=\psi^{(n)}_1(t)+\varphi^{(n)}(t)+a_1(t)[\psi^{(n-1)}_1(t)+\varphi^{(n-1)}(t)]+...+a_n(t)[\psi_1(t)+\varphi(t)]= $$$$=\psi^{(n)}_1(t)+a_1(t)\psi^{(n-1)}_1(t)+...+a_n(t)\psi_1(t)+\varphi^{(n)}(t)+a_1(t)\varphi^{(n-1)}(t)+...+a_n(t)\varphi(t)=b(t)+0=b(t)$$Teorema Siano $\varphi_1,...,\varphi_n\in\mathcal{C}^{(n)}(I,\mathbb{R})$ soluzioni linearmente indipendenti di (EDLO) e $\psi_P\in\mathcal{C}^{(n)}(I,\mathbb{R})$ soluzione particolare di (EDLNO). Allora $\psi\in\mathcal{C}^{(n)}(I,\mathbb{R})$ è soluzione di (EDLNO) se e solo se
$$\exists c_1,...,c_n\in\mathbb{R}\ \text{e}\ \psi(t)=\psi_P(t)+\sum_{i=1}^n{c_i\varphi_i(t)}$$Dimostrazione ($\implies$) Siano $c_1,...,c_n\in\mathbb{R}$
$$\psi_P(t)+\sum_{i=1}^n{c_i\varphi_i(t)}\ \text{è soluzione di (EDLNO) per il punto (2) del teorema precedente}$$($\impliedby$) Se $\psi(t)$ è soluzione di (EDLNO), allora $\psi(t)-\psi_P(t)$ è soluzione di (EDLO) per il punto (1) del teorema precedente. Ciò significa che $\psi(t)-\psi_P(t)$ è una combinazione lineare di $\varphi_1,...,\varphi_n$.
Caso $n=2$ Siano
$$y''+a_1(t)y'+a_2(t)y=b(t)\ \ \ \ \text{(EDLNO)}$$$$y''+a_1(t)y'+a_2(t)y=0\ \ \ \ \text{(EDLO)}$$$$psi(t)=c_1\varphi_1(t)+c_2\varphi_2(t)\ \ \ \ \text{soluzione di (EDLO)}$$con $\varphi_1,\varphi_2\in\mathcal{C}^{(n)}(I,\mathbb{R})$ soluzioni linearmente indipendenti di (EDLO).
Dobbiamo trovare i termini $c_1(t),c_2(t)$ tali che $\psi(t)=c_1(t)\varphi_1(t)+c_2(t)\varphi_2(t)$ sia soluzione di (EDLNO). Imponiamo quindi che $\psi(t)$ sia soluzione di (EDLNO).
$$\psi'=c_1\varphi'_1+c'_1\varphi_1+c_2\varphi'_2+c'_2\varphi_2$$Impongo $c'_1\varphi_1+c'_2\varphi_2=0$
$$\psi'=c_1\varphi'_1+c_2\varphi'_2$$$$\psi''=c'_1\varphi'_1+c_1\varphi''_1+c'_2\varphi'_2+c_2\varphi''_2$$Inseriamo $\psi,\psi',\psi''$ in (EDLNO).
$$c'_1\varphi'_1+c_1\varphi''_1+c'_2\varphi'_2+c_2\varphi''_2+a_1(t)[c_1\varphi'_1+c_2\varphi'_2]+a_2[c_1\varphi_1+c_2\varphi_2]=b(t) \iff $$$$\iff c_1(t)[\varphi''_1+a_1(t)\varphi'_1+a_2(t)\varphi_1]+c_2(t)[\varphi''_2+a_1(t)\varphi'_2+a_2(t)\varphi_2]+c'_1\varphi'_1+c'_2\varphi'_2=b(t) \iff $$$$\iff c'_1\varphi'_1+c'_2\varphi'_2=b(t)$$Abbiamo ottenuto dunque il seguente sistema con incognite $c_1,c_2$
$$\left\{\begin{matrix} c'_1(t)\varphi_1(t)+c'_2(t)\varphi_2(t)=0 \\ \\ c'_1(t)\varphi'_1(t)+c'_2(t)\varphi'_2(t)=b(t) \end{matrix}\right.$$Risolvibile con la regola di Cramer (il determinante è il wronskiano $W(t)\neq 0$ delle soluzioni $\varphi_1,\varphi_2$ linearmente indipendenti).
$$c'_1(t)=\frac{ \begin{vmatrix} \ 0 & \varphi_2(t)\ \\ \\ \ b(t) & \varphi'_2(t)\ \end{vmatrix} }{W(t)}=-\frac{b(t)\varphi_2(t)}{W(t)}, \ \ \ \ c'_2(t)=\frac{ \begin{vmatrix} \ \varphi_1(t) & 0\ \\ \\ \ \varphi'_1(t) & b(t)\ \end{vmatrix} }{W(t)}=\frac{b(t)\varphi_1(t)}{W(t)}$$Quindi
$$c_1(t)=-\int_{t_0}^{t}{\frac{b(s)\varphi_2(s)}{W(s)}\mathrm{ds}}, \ \ \ \ c_2(t)=\int_{t_0}^{t}{\frac{b(s)\varphi_1(s)}{W(s)}\mathrm{ds}}$$Ricavati $c_1$ e $c_2$ si ottiene
$$\psi(t)=\int_{t_0}^{t}{\frac{b(s)[\varphi_1(s)\varphi_2(t)-\varphi_2(s)\varphi_1(t)]}{W(s)}\mathrm{ds}}$$Osservazione $\varphi_1(s)\varphi_2(t)-\varphi_2(s)\varphi_1(t)$ è detto nucleo integrale.
Definizione Siano $a_1,...,a_n\in\mathbb{R}$. Definiamo equazione differenziale lineare omogenea a coefficienti costanti di ordine n un'equazione differenziale del tipo
$$y^{(n)}+a_1y^{(n-1)}+...+a_ny=0\ \ \ \ \text{(EDLOCC)}$$Vogliamo cercare soluzioni del tipo $y(t)=\mathrm{exp}(\lambda t)$ con $\lambda$ numero complesso. Andando a sostiuire la soluzione nell'(EDLOCC) otteniamo
$$\mathrm{exp}(\lambda t)[\lambda^n+a_1\lambda^{n-1}+...+a_{n-1}\lambda+a_n]=0$$Posto
$$P(\lambda)=\lambda^n+a_1\lambda^{n-1}+...+a_{n-1}\lambda+a_n$$polinomio caratteristico dell'(EDLOCC), possiamo distinguere due casi
sono soluzioni linearmente indipendenti della (EDLOCC). L'integrale generale sarà
$$y(t)=c_1\mathrm{exp}(\lambda_1 t)+...+c_n\mathrm{exp}(\lambda_n t)$$sono soluzioni linearmente indipendenti della (EDLOCC).
Osservazione Quando le radici di $P(\lambda)$ sono complesse, allora anche l'integrale generale sarà complesso. Se $\lambda=\alpha+i\beta$ è radice di $P(\lambda)$ di molteplicità $m$, allora anche $\overline{\lambda}=\alpha-i\beta$ lo è con molteplicità $m$. Le soluzioni si possono esprimere con la seguente notazione
$$\mathrm{exp}(\lambda t)=\mathrm{exp}(\alpha t)[\cos(\beta t)+i\sin(\beta t)]$$Per costruire soluzioni reali in questo caso si utilizza il fatto che combinazioni lineari di soluzioni di una (EDLO), e quindi in particolare di una (EDLOCC), siano ancora soluzioni di (EDLO) (risp. di (EDLOCC))
$$t^{k_i-1}\frac{\mathrm{exp}((\alpha+i\beta)t) + \mathrm{exp}((\alpha-i\beta)t)}{2}=t^{k_i-1}\mathrm{exp}(\alpha t)\cos(\beta t),\ i=1,...,m$$$$t^{k_i-1}\frac{\mathrm{exp}((\alpha+i\beta)t) - \mathrm{exp}((\alpha-i\beta)t)}{2i}=t^{k_i-1}\mathrm{exp}(\alpha t)\sin(\beta t),\ i=1,...,m$$Termine noto esponenziale
Sia
$$y^{(n)}(t)+a_1y^{(n-1)}(t)+...+a_ny(t)=c\mathrm{exp}(\beta t)$$la nostra (EDLNOCC) con termine noto di tipo esponenziale.
Termine noto polinomiale
Sia
$$y^{(n)}(t)+a_1y^{(n-1)}(t)+...+a_ny(t)=ct^s$$la nostra (EDLNOCC) con termine noto di tipo polinomiale.
Termine noto cos/sin
Sia
$$y^{(n)}(t)+a_1y^{(n-1)}(t)+...+a_ny(t)=c\cos(\beta t)$$la nostra (EDLNOCC) con termine noto $\cos$ (il ragionamento è lo stesso per $\sin$).
Definizione Una funzione $f(t)$ si dice periodica di periodo $T>0$ se $\forall t\in\mathbb{R}$ si ha
$$f(t)=f(T+t)$$Proprietà Se $T,S>0$ sono periodi, allora
Definizione Se $f(t)$ non è costante, esiste il periodo minimo $T_f$ positivo tale che $f(t+T_f)=f(t)\ \forall t\in\mathbb{R}$ e se $S$ è periodo allora $S=nT_f,\ n\in\mathbb{Z}$. Tale periodo è chiamato periodo fondamentale.
Teorema Siano $f(t)$ e $g(t)$ funzioni periodiche di periodo fondamentale rispettivamente $T_f$ e $S_f$. La funzione
$$h(t)=f(t)+g(t)$$è periodica di periodo fondamentale $P_f=mcm(T_f,S_f)$ se e solo se $\frac{T_f}{S_f}\in\mathbb{Q}$