#!/usr/bin/env python # coding: utf-8 # $$\author{\text{Giorgio Renzi}}$$ # $$\text{Ingegneria Informatica - 0926, Alma Mater Studiorum - Università di Bologna}$$ # $$\text{\href{mailto:giorgio.renzi@studio.unibo.it}{giorgio.renzi@studio.unibo.it}}$$ # # # Relazioni # # ## Prodotto cartesiano # # **Definizione** Siano $A$ e $B$ due insiemi. L'insieme delle coppie ordinate $(a,b)$, con $a\in A$ e $b\in B$, si chiama **prodotto cartesiano** tra $A$ e $B$ e si indica con # # $$A\times B:={(a,b)\mid a\in A, b\in B)}$$ # # ## Relazioni # # **Definizione** Una proprietà $\mathcal{A}$ definita in $S\times T$ è detta **relazione** tra $S$ e $T$; diremo che $s\in S$ è in relazione con $t\in T$ se si ha $\mathcal{A}(s,t)$ vera. # # Data una relazione $\mathcal{R}$: # # $$\mathcal{D}om(R)=\{a\in A\mid \text{s è in relazione tramite}\ \mathcal{R}\ \text{con almeno un elemento di}\ B\}\subseteq S$$ # # $$\mathcal{C}od(R)=\{b\in B\mid \text{b è in relazione tramite}\ \mathcal{R}\ \text{con almeno un elemento di}\ A\}\subseteq T$$ # # $$\mathcal{G}raf(R)=\{(a,b)\in A\times B\mid \mathcal{R}(a,b)\ \text{è vera}\}\subseteq A\times B$$ # # ### Relazioni binarie # # **Definizione** Una relazione $\mathcal{R}$ tra $S$ e $S$ (cioè una proprietà che mette in relazione tra loro elementi di $S$), è detta **relazione binaria** in $S$. Sia $\mathcal{R}$ una relazione binaria; diremo: # - $\mathcal{R}(x,y)$ è **riflessiva** se $\forall x\in S$ $\mathcal{R}(x,x)$ è vera # - $\mathcal{R}(x,y)$ è **simmetrica** se $\forall x,y\in S$ $\mathcal{R}(x,y)$ vera $\implies \mathcal{R}(y,x)$ vera # - $\mathcal{R}(x,y)$ è **antisimmetrica** se $\forall x,y\in S$ $\mathcal{R}(x,y)$ vera e $\mathcal{R}(y,x)$ vera $\implies x=y$ # - $\mathcal{R}(x,y)$ è **transitiva** se $\forall x,y,z\in S$ $\mathcal{R}(x,y)$ vera e $\mathcal{R}(y,z)$ vera $\implies \mathcal{R}(x,z)$ # # ### Relazioni di equivalenza # # La relazione binaria $\mathcal{R}$ su $A$ si dice **relazione di equivalenza** se è riflessiva, simmetrica e transitiva. La relazione di equivalenza si indica con il simbolo $\sim$. # # ### Relazioni d'ordine # # **Definizione** La relazione binaria $\mathcal{R}$ su $A$ si dice **relazione d'ordine** se è riflessiva, antisimmetrica e transitiva. Alcuni esempi di relazione d'ordine sono $<$, $\leq$, $>$, $\geq$. # # **Definizione** Una relazione d'ordine si dice **totale** se # # $$\forall x,y\in A\ \text{si ha}\ \mathcal{R}(x,y)\ \text{oppure}\ \mathcal{R}(y,x)$$ # # cioè, comunque si fissino due elementi di A, essi sono **confrontabili**. Altrimenti la relazione d'ordine è detta **parziale**. # # Indichiamo con $(\mathbb{R}, \leq)$ l'insieme ${R}$ ordinato con la relazione $\leq$. # **Legge di tricotomia**: $\forall x,y\in \mathbb{R}$ vale solo una delle seguenti possibilità: # - $x < y$ # - $x > y$ # - $x = y$ # # # Massimo e minimo # # **Definizione** Sia $A \subset \mathbb{R}$ non vuoto. $m$ si dice **massimo** (risp. **minimo**) di $A$ se: # # - $m \in A$ # # - $m \geq x\ \text{(risp. } m\leq x \text{)}\ \forall x\in A$ # # Se $m$ esiste, usiamo la notazione # # $$m=\max A\ \text{(risp. } m=\min A \text{)}$$ # # Il minimo e il massimo **se esistono sono unici**. # # # Maggiorante e minorante # # **Definizione** Sia $A \subset \mathbb{R}$ non vuoto. $m\in \mathbb{R}$ si dice **maggiorante** (risp. **minorante**) di $A$ se: # # $$m\geq x\ \text{(risp. } m\leq x \text{)}\ \forall x\in A$$ # # Se $A$ possiede un maggiorante (risp. minorante), allora **ne possiede infiniti**. # Il massimo di A è un maggiorante. Il minimo di A è un maggiorante. # # # Insieme superiormente (inferiormente) limitato # # **Definizione** Un insieme $A\subset \mathbb{R}$ non vuoto che ammette maggiorante (risp. minorante) si dice **superiormente limitato** (risp. **inferiormente limitato**). Un insieme superiormente e inferiormente limitato si dice insieme limitato. # # # Estremo superiore ed estremo inferiore # # **Definizione** Sia $A\subset \mathbb{R}$ un insieme superiormente limitato. Il minimo dei maggioranti si dice **estremo superiore** di $A$ e si indica con $\sup A$: # # $$\sup A=\min\{y\in \mathbb{R}\mid y\geq x, \forall x\in A\}$$ # # **Definizione** Sia $A\subset \mathbb{R}$ un insieme inferiormente limitato. Il massimo dei minoranti si dice **estremo inferiore** di $A$ e si indica con $\inf A$: # # $$\inf A=\max\{y\in \mathbb{R}\mid y\leq x, \forall x\in A\}$$ # # **Teorema** $(\mathbb{R}, \leq)$ è un **insieme totalmente ordinato e completo**, cioè $\forall A\in \mathbb{R}$ inferiormente limitato, l'insieme $M$ dei suoi minoranti ha massimo. # # **Proposizione** Ogni sottoinsieme di $\mathbb{R}$ superiormente limitato (risp. inferiormente limitato) ammette estremo superiore (risp. estremo inferiore). # # **Definizione** Sia $A\subseteq \mathbb{R}$: # - se $A$ non possiede maggioranti, diremo che $A$ è un insieme **non superiormente limitato** # # $$\sup A=+\infty$$ # # - se $A$ non possiede minoranti, diremo che $A$ è un insieme **non inferiormente limitato** # # $$\inf A=-\infty$$ # # - se $A$ è limitato sia inferiormente che superiormente, diremo che $A$ è limitato. # # **Proposizione** Ogni sottoinsieme di ${R}$ ammette estremo superiore e inferiore (finiti o non finiti) # # # Insiemi $\mathbb{N}, \mathbb{Z}, \mathbb{Q}, \mathbb{R}$ # # ## Intervalli # # **Definizione** Siano $a,b\in\mathbb{R}$ # - Intervallo limitato e chiuso # # $[a,b]=\{x\in\mathbb{R}\mid a\leq x\leq b\}$ # # - Intervallo superiormente non limitato e chiuso # # $[a,+\infty[=\{x\in\mathbb{R}\mid x\geq a\}$ # # - Intervallo inferiormente non limitato e chiuso # # $]-\infty,b]=\{x\in\mathbb{R}\mid x\leq b\}$ # # - Intervallo limitato e aperto # # $]a,b[=\{x\in\mathbb{R}\mid a< x a\}$ # # - Intervallo non inferiormente limitato e aperto # # $]-\infty,b[=\{x\in\mathbb{R}\mid x< b\}$ # # - Intervallo chiuso a sinistra e aperto a destra # # $[a,b[=\{x\in\mathbb{R}\mid a\leq x< b\}$ # # - Intervallo chiuso a destra e aperto a sinistra # # $]a,b]=\{x\in\mathbb{R}\mid a< x\leq b\}$ # # ## Proprietà degli insiemi # # **Proprietà di densità** $\mathbb{Q}$ è denso in $\mathbb{R}$, ovvero # #
$\forall x\in \mathbb{R}\ \forall\epsilon >0\ \ \exists q\in \mathbb{Q}$ tale che $\left |x-q\right |<\epsilon$
# # **Definizione** Sia $A\subseteq \mathbb{R}$. Diremo che $A$ è un **insieme finito** se esiste $k\in\mathbb{N}$ e $f:\{1,2,...,k\}\xrightarrow[su]{1-1} A$. # # Il numero degli elementi k dell'insieme è detto **cardinalità** # # $$card(A)=\#A=k$$ # # **Definizione** Sia $A\subseteq\mathbb{R}$. Diremo che $A$ è **infinito numerabile** se esiste $f:\mathbb{N}\xrightarrow[su]{1-1}A$ # # **Teorema** $\mathbb{Z}$ e $\mathbb{Q}$ sono insiemi infiniti numerabili. # # **Dimostrazione** ($\mathbb{Z}$ è infinito numerabile) È possibile costruire la funzione $f:\mathbb{N}\xrightarrow[su]{1-1}\mathbb{Z}$ # # $$f=\begin{cases} # -\frac{n}{2} & \text{ if } n\ è\ pari \\ # \frac{n+1}{2} & \text{ if } n\ è\ dispari # \end{cases}$$ # # **Teorema** (di Cantor) L'insieme $[0,1]$ non è numerabile. # # **Dimostrazione** Supponiamo per assurdo che possiamo formare una lista in cui contiamo tutti gli elementi di $[0,1]$: # # $$x_1=0.a_11a_12a_13a_14...$$ # $$x_2=0.a_21a_22a_23a_24...$$ # $$x_2=0.a_31a_32a_33a_34...$$ # # Adesso possiamo costruire un numero # $$b=0.b_1b_2b_3b_4...$$ # tale che # $$b_k\neq a_kk,\ b_k\in \{1,2,3,4,5,6,7,8\},\ k\geq 1$$ # # Siccome ogni k-esima cifra di $b$ è diversa dalla k-esima cifra di $x_k$ per costruzione, e avendo escluso la possibilità che $b$ sia la rappresentazione equivalente di ciascun $x_k$, poiché $b$ non può terminare con infiniti 0 o 9, allora b non è nella lista e siamo arrivati ad un assurdo. # # **Teorema** $\mathbb{R}$ è non numerabile, come anche l'insieme dei numeri irrazionali $\mathbb{R}\setminus\mathbb{Q}$. # # **Definizione** Un insieme $A\subset\mathbb{R}$ dotato di minimo e tale che $x\in A\implies x+1\in A$ è detto **induttivo** # # **Proposizione** L'insieme $\mathbb{N}$ dei numeri naturali possiede minimo, è superiormente non limitato ed è il più piccolo insieme induttivo. # # # Funzioni # # **Definizione** Una **funzione** dall'insieme $A$ all'insieme $B$ è una relazione di $A\times B$ tale che: # - $\mathcal{D}om(f)=A$ # - $\forall x\in A\ \exists! y\in B$ tale che "y è in relazione con x tramite $f$, cioè $y=fx$ # # e si indica con $f:A\rightarrow B$ # # $$\mathcal{G}raf(f)=\{(x,y),\ x\in \mathcal{D}om(A),\ y=f(x)\}=\{(x,f(x)),\ x\in A\}$$ # # ## Iniettività e suriettività # # **Definizione** Siano $A$ e $B$ insiemi e $f: A\rightarrow B$ una funzione # - Diremo che $f$ è **iniettiva** (1-1) se # #
$\forall x_1,x_2\in A$ con $x_1\neq x_2$ si ha $f(x_1)\neq f(x_2)$,
# # - Diremo che $f$ è **suriettiva** (su) se # #
$\forall y\in B\ \exists x\in A$ tale che $y=f(x)$
# # - Diremo che $f$ è **biiettiva** (o **biunivoca**) se è sia iniettiva che suriettiva, ovvero # #
$\forall y\in B\ \exists! x\in A$ tale che $y=f(x)$
# # ## Immagine e controimmagine tramite $f$ # # **Definizione** Siano $A,B,C\subset R$, $f:A\rightarrow B$ e $C\subset B$. # # L'**insieme immagine** di A tramite $f$ è l'insieme dei valori della funzione $f(x)\in B$ # # $$f(A)=\mathcal{I}m(f)=\{y\in \mathbb{B}\mid \exists x\in A\ e\ y=f(x)\}$$ # # L'**insieme controimmagine** di C tramite $f$ è l'insieme dei valori di x tali che $f(x)\in C$ # # $$f^{-1}(C)=\{x\in A\mid f(x)\in C\}$$ # # ## Funzione composta # # **Definizione** Siano $f:A\rightarrow B$ e $g:B\rightarrow C$ funzioni. La funzione $h:x\in A\rightarrow g(f(x))\in C$ si chiama **funzione composta** di $g$ e $f$ e si indica con $g\circ f$. # # **Osservazione** $f(A)\subseteq \mathcal{D}om(B)$ # # ## Funzione inversa # # **Definizione** Sia $f:A\xrightarrow[su]{1-1} B$. Definiamo la **funzione inversa** di $f$, $f^{-1}:B\xrightarrow[su]{1-1} A$, l'unica funzione che verifica le proprietà: # # $$\forall x\in A: f^{-1}(f(x))=x$$ # $$\forall y\in B: f(f^{-1}(x))=y$$ # # ## Funzioni monotone # # **Definizione** Sia $A\subseteq\mathbb{R}$. $f:A\rightarrow\mathbb{R}$ è: # - (monotona) **crescente** se $\forall x_1,x_2\in A$ con $x_1f(x_2)$ # # **Teorema** Sia $A\subseteq\mathbb{R}$ e $f:A\rightarrow\mathbb{R}$ strettamente monotona. Allora # # 1. $f$ è iniettiva da $A$ in $\mathbb{R}$ # # 2. $\exists f^{-1}:f(A)\xrightarrow[su]{1-1}A$ strettamente monotona nello stesso verso # # **Teorema** (monotonia delle funzioni composte) Siano $A,B,C\subset\mathbb{R}$ e $f:A\rightarrow B$ e $g:B\rightarrow C$ funzioni monotone. Allora $g\circ f$ è monotona. In particolare: # - se $f$ e $g$ sono entrambe crescenti o decrescenti, allora $g\circ f$ è crescente # - se $f$ è crescente e $g$ decrescente o viceversa, allora $g\circ f$ è decrescente # # ## Funzioni limitate # # **Definizione** $f:A\rightarrow\mathbb{R}$ si dice **superiormente limitata** su A (risp. **inferiormente limitata**) se # #
$f(A)=\{y\in\mathbb{R}\mid\exists x\in A\ \text{t.c}\ f(x)=y\}$ è superiormente limitato (risp. inferiormente limitato)
# # o equivalentemente # # $$f(x)\leq m\ \text{(risp. }f(x)\geq m\text{)},\ \forall x\in A$$ # # Una funzione limitata superiormente e inferiormente è detta **limitata**. # # **Definizione** Sia $f:A\rightarrow\mathbb{R}$. Diciamo che $f$ ha massimo se l'insieme $f(A)$ ha massimo, cioè # # $$\exists x_0\in A\ \text{tale che}\ f(x)\leq f(x_0),\ \forall x\in A$$ # # Diremo che f$(x_0)$ è il massimo per A e si scrive # # $$\max_{x\in A}f(x)=f(x_0)$$ # # e $x_0$ è un **punto di massimo** # # **Definizione** Sia $f:A\rightarrow\mathbb{R}$. Diciamo che $f$ ha minimo se l'insieme $f(A)$ ha minimo, cioè # # $$\exists x_0\in A\ \text{tale che}\ f(x)\geq f(x_0),\ \forall x\in A$$ # # Diremo che f$(x_0)$ è il minimo per A e si scrive # # $$\min_{x\in A}f(x)=f(x_0)$$ # # e $x_0$ è un **punto di minimo** # # **Definizione** Sia $f:A\rightarrow\mathbb{R}$. Chiamiamo **estremo superiore** di $f$ l'estremo superiore di $f(A)$ e si scrive # #
$\sup_{A}f(x)=\sup f(A)\in\mathbb{R}$ oppure $\sup_{A}f(x)=+\infty$
# # **Definizione** Sia $f:A\rightarrow\mathbb{R}$. Chiamiamo **estremo inferiore** di $f$ l'estremo inferiore di $f(A)$ e si scrive # #
$\inf_{A}f(x)=\inf f(A)\in\mathbb{R}$ oppure $\inf_{A}f(x)=-\infty$
# # # Limiti # # **Definizione** Un **intorno aperto** di $x_o\in\mathbb{R}$ è un intervallo aperto del tipo $]x_0-\delta,x_0+\delta[$ con $\delta>0$ # # **Definizione** Sia $A\subseteq\mathbb{R}$ con $x_0\in\mathbb{R}$. Diremo che $x_0$ è un **punto di accumulazione** per $A$ se # # $$\forall\delta>0\ (]x_0-\delta,x_0+\delta[\setminus \{x_0\})\cap A\neq\emptyset$$. # # Ovvero per ogni intorno $]x_0-\delta,x_0+\delta[$ esistono punti $x\in A$ distinti da $x_0$ nell'intersezione di $A$ con l'intorno $]x_0-\delta,x_0+\delta[$. # # **Osservazione** Se $x_0$ è un punto di accumulazione per $A$, allora $\forall\delta>0\ (]x_0-\delta,x_0+\delta[\setminus \{x_0\})\cap A$ contiene infiniti punti. # # **Dimostrazione** Supponiamo per assurdo che # # $$\forall\overline\delta>0\ (]x_0-\delta,x_0+\delta[\setminus \{x_0\})\cap A=\{y_1,y_2,y_3,...,y_n\}$$ # # Prendo $\delta_k=\left | y_k-x_0\right |$ con $k=0,1,2,...,n$. # # Prendo $0<\delta<\min\{\delta_1,\delta_2,...,\delta_n\}$. # # Allora $(]x_0-\delta,x_0+\delta[\setminus \{x_0\})\cap A\neq\emptyset$ # # **Teorema** (di Bolzano-Weierstrass) Un insieme $A\subset\mathbb{R}$ infinito e limitato ha almeno un punto di accumulazione. # # ## Limiti per $x\rightarrow x_0$ # # **Definizione** (limite convergente) Sia $A\subset\mathbb{R}$, $f:A\rightarrow\mathbb{R}$, $x_0$ punto di accumulazione per $A$ e $l\in\mathbb{R}$. Diciamo che per $x\rightarrow x_0\ f(x)$ converge a $l$ e scriviamo: # # $$\lim_{x\rightarrow x_0}{f(x)}=l\ \text{se}$$ # # $$\forall\epsilon>0\ \exists\delta>0:\ \forall x\in A,\ x\neq x_0\ \left |x-x_0\right |<\delta\implies \left |f(x)-l\right |<\epsilon$$ # # **Definizione** (limite divergente) Sia $A\subset\mathbb{R}$, $f:A\rightarrow\mathbb{R}$ e $x_0$ punto di accumulazione per $A$. Diciamo che per $x\rightarrow x_0\ f(x)$ diverge positivamente (risp. diverge negativamente) e scriviamo: # # $$\lim_{x\rightarrow x_0}{f(x)}=+\infty\ \text{(risp.}\ \lim_{x\rightarrow x_0}{f(x)}=-\infty \text{) se}$$ # # $$\forall\epsilon>0\ \exists\delta>0:\ \forall x\in A,\ x\neq x_0\ f(x)>\epsilon\ \text{(risp.}\ f(x)<-\epsilon \text{)}$$ # # **Osservazione** Se $\lim_{x\rightarrow x_0}{f(x)}=+\infty\ \text{(risp.}\ -\infty\text{)}$ allora significa che $f$ è non superiormente limitata (risp. non inferiormente limitata) nel suo codominio. # # ## Limiti per $x\rightarrow\pm\infty$ # # **Definizione** Diciamo che $x_0=+\infty$ (risp. $-\infty$) è un punto di accumulazione per $A$, insieme non limitato superiormente (risp. non limitato inferiormente) se $\forall\delta>0\ A\cap ]\delta,+\infty[\neq\emptyset$ (risp. $A\cap ]-\infty,\delta[\neq\emptyset$). # # **Definizione** (limite convergente) Sia $A\subset\mathbb{R}$ non superiormente limitato (risp. non inferiormente limitato), $f:A\rightarrow B$ e $l\in\mathbb{R}$. Diciamo che per $x\rightarrow +\infty$ (risp. $-\infty$) $f(x)$ converge a $l$ e scriviamo: # # $$\lim_{x\rightarrow +\infty}{f(x)}=l\ \text{(risp.}\ \lim_{x\rightarrow -\infty}{f(x)}=l\text{)}\ se$$ # # $$\forall\epsilon>0\ \exists\delta>0:\ \forall x\in A,\ x>\delta\ \text{(risp.}\ x<-\delta\text{)}\ \left |f(x)-l\right |<\epsilon$$ # # **Definizione** (limite divergente) Sia $A\subset\mathbb{R}$ non superiormente limitato (risp. non inferiormente limitato), $f:A\rightarrow\mathbb{R}$. Diciamo che per $x\rightarrow\pm\infty$ $f(x)$ diverge positivamente (risp. diverge negativamente) a $l$ e scriviamo: # # $$\lim_{x\rightarrow\pm\infty}{f(x)}=+\infty\ \text{(risp.}\ \lim_{x\rightarrow -\infty}{f(x)}=-\infty\text{)}\ se$$ # # $$\forall\epsilon>0\ \exists\delta>0:\ \forall x\in A,\ x>\delta\ \text{(risp.}\ x<-\delta\text{)}\ f(x)>\epsilon\ \text{(risp.}\ f(x)<-\epsilon\text{)}$$ # # ## Limite destro e limite sinistro # # **Definizione** Siano $f:A\rightarrow\mathbb{R}$, $A\subset\mathbb{R}$ e $x_0\in\mathbb{R}$ punto di accumulazione per $A\cap]x_0,+\infty[$ (risp. $A\cap]-\infty,x_0[$). Diciamo che $f$ ha limite destro (risp. limite sinistro) $l\in\overline{\mathbb{R}}$ per $x\rightarrow x_0^{+}$ (risp. $x\rightarrow x_0^{-}$) se $l$ è il limite per $x\rightarrow x_0$ di $f$ ristretta a $A\cap]x_0,+\infty[$ (risp. $A\cap]-\infty,x_0[$) e scriviamo: # # $$\lim_{x\rightarrow x_0^{+}}{f(x)}=l\ \text{(risp.}\ \lim_{x\rightarrow x_0^{-}}{f(x)}=l\text{)}$$ # # ## Teoremi e proprietà dei limiti # # **Osservazione** Se $x_0$ è punto di accumulazione per $A$ allora $\forall\overline\delta>0$ $x_0$ è punto di accumulazione per $A_0=A\cap ]x_0-\overline\delta,x_0+\overline\delta[$. # # **Teorema** (località del limite) Sia $f:A\rightarrow\mathbb{R}$, $x_0\in\overline{\mathbb{R}}$ punto di accumulazione per $A$ e $l\in\overline{\mathbb{R}}$. Sia $\overline\delta>0$ e $A_0=A\cap ]x_0-\overline\delta,x_0+\overline\delta[$. Allora $x_0$ è un punto di accumulazione per $A_0$ e # # $$\lim_{x\rightarrow x_0}{f\mid_A(x)}=l \iff \lim_{x\rightarrow x_0}{f\mid_{A_0}(x)}=l$$ # # **Teorema** (unicità del limite) Sia $f:A\rightarrow\mathbb{R}$ e $x_0$ punto di accumulazione per $A$. Allora il limite $\displaystyle \lim_{x\rightarrow x_0}{f(x)}$ se esiste è unico. # # **Dimostrazione** Supponiamo per assurdo che esistano due limiti $l_1$ e $l_2$ distinti, ovvero $l_1\neq l_2$. Dimostriamo $l_1=l_2$. Per la definizione di limite sia ha che $\forall\epsilon>0\ \left|f(x)-l_1\right|<\epsilon$ e $\left|f(x)-l_2\right|<\epsilon$. Sommando i membri delle disuguaglianze si ottiene # # $$\left|f(x)-l_1\right|+\left|f(x)-l_2\right| < 2\epsilon$$ # # Siccome $\left|f(x)-l_1\right|=\left|l_1-f(x)\right|$, per la disuguaglianza triangolare si ha # # $$\left|l_1-l_2\right|<\left|f(x)-l_1\right|+\left|f(x)-l_2\right| < 2\epsilon$$ # # Da cui $\left|l_1-l_2\right| < 2\epsilon$ e, per l'aribtrarietà di $\epsilon$, $\left|l_1-l_2\right|=0$ e quindi $l_1=l_2$. # # **Teorema** (locale limitatezza di f) Sia $f:A\rightarrow\mathbb{R}$, $x_0$ punto di accumulazione per $A$, $l\in\mathbb{R}$ e $\displaystyle \lim_{x\rightarrow x_0}{f(x)}=l$. Allora $\exists\delta>0$ tale che f ristretta all'insieme $A\cap ]x_0-\delta, x_0+\delta[$ è una funzione limitata. # # **Osservazione** In particolare se $f(x)$ è non superiormente o non inferiormente limitata, allora $\lim_{x\rightarrow x_0}{f(x)}$ o non esiste, o se esiste non può essere finito, ovvero $l\notin\mathbb{R}$. # # **Teorema** Sia $f:A\rightarrow\mathbb{R}$, $x_0$ punto di accumulazione per $A\cap ]-\infty, x_0[$ e $A\cap ]x_0,+\infty[$, $l\in\overline{\mathbb{R}}$. Allora # # $$\displaystyle\lim_{x\rightarrow x_0}{f(x)}=l \iff \lim_{x\rightarrow x_0^+}{f(x)}=\lim_{x\rightarrow x_0^-}{f(x)}=l$$ # # **Osservazione** Se $\displaystyle \lim_{x\rightarrow x_0^+}{f(x)}\neq\lim_{x\rightarrow x_0^-}{f(x)}$ oppure uno dei due limiti (destro/sinistro) non esiste allora $\nexists\lim_{x\rightarrow x_0}{f(x)}$. # # **Teorema** (limiti di funzioni monotone) Sia $f:A\rightarrow\mathbb{R}$ una funzione monotona crescente. Sia $x_0\in]a,b[$. Allora # # 1. $\displaystyle\exists\lim_{x\rightarrow x_0^+}{f(x)}=\inf_{x\in ]x_0,b]}{f(x)}$ # # 2. $\displaystyle\exists\lim_{x\rightarrow x_0^-}{f(x)}=\sup_{x\in[a,x_0[}{f(x)}$ # # 3. $\displaystyle\exists\lim_{x\rightarrow a^+}{f(x)}=\inf_{x\in]a,b]}{f(x)}$ # # 4. $\displaystyle\exists\lim_{x\rightarrow b^-}{f(x)}=\sup_{x\in[a,b[}{f(x)}$ # # **Teorema** Siano $f,g:A\rightarrow\mathbb{R}$ e $x_0\in\mathbb{R}$ punto di accumulazione per $A$ (oppure $x_0=+\infty$ e $A$ non superiormente limitato, oppure $x_0=-\infty$ e $A$ non inferiormente limitato), $l,m\in\overline{\mathbb{R}}$. Supponiamo che $\displaystyle\lim_{x\rightarrow x_0}{f(x)}=l$ e $\displaystyle\lim_{x\rightarrow x_0}{g(x)}=m$. Allora: # # 1. se $f(x)\leq g(x)\ \forall x\in A$ si ha $l\leq m$ # # 2. se $l0$ tale che $f(x)0$ tale che $g(x)\neq 0\ \forall x\in A\cap]x_0-\delta,x_0+\delta[,\ x\neq x_0$ # # 4. Se $m\neq 0$ allora la funzione $\frac{f}{g}$ ha limite $\frac{l}{m}$ per $x\rightarrow x_0$, cioè $\displaystyle\lim_{x\rightarrow x_0}{\frac{f(x)}{g(x)}}=\frac{l}{m}$ # # 5. Se $c\in\mathbb{R}$ è una costante, allora $\displaystyle\lim_{x\rightarrow x_0}{[c\cdot f(x)]}=c\cdot l$. # # **Definizione** $f:A\rightarrow\mathbb{R}$ con $A\subset\mathbb{R}$ è **infinitesimo** $(x\rightarrow x_0)$ se # # $$\lim_{x\rightarrow x_0}{f(x)}=0$$ # # $f$ è **infinito** $(x\rightarrow x_0)$ se # # $$\lim_{x\rightarrow x_0}{\left|f(x)\right|}=+\infty$$ # # **Teorema** (proprietà algebriche degli infinitesimi) Siano $A\subseteq\mathbb{R}$, $f,g:A\rightarrow\mathbb{R}$, $x_0$ punto di accumulazione per $A$ (oppure $x_0=+\infty$ e $A$ non superiormente limitato, oppure $x_0=-\infty$ e $A$ non inferiormente limitato) e $\displaystyle\lim_{x\rightarrow x_0}{f(x)}=0$. Allora: # # 1. Se $\exists M>0$ tale che $\left|g(x)\right|0$ tale che $g(x)\geq M,\ \forall x\in A$, allora $\displaystyle\lim_{x\rightarrow x_0}{[f(x)\cdot g(x)]}=+\infty$ # # 3. Se $\exists M\in\mathbb{R},\ M<0$ tale che $g(x)\leq M,\ \forall x\in A$, allora $\displaystyle\lim_{x\rightarrow x_0}{[f(x)\cdot g(x)]}=-\infty$ # # 4. $\displaystyle\lim_{x\rightarrow x_0}{\frac{1}{f(x)}}=0$. # # Analogamente per $\displaystyle\lim_{x\rightarrow x_0}{f(x)}=-\infty$: # # 1. Se $\exists M\in\mathbb{R}$ tale che $g(x)\leq M,\ \forall x\in A$, allora $\displaystyle\lim_{x\rightarrow x_0}{[f(x)+g(x)]}=-\infty$ # # 2. Se $\exists M\in\mathbb{R},\ M>0$ tale che $g(x)\geq M,\ \forall x\in A$, allora $\displaystyle\lim_{x\rightarrow x_0}{[f(x)\cdot g(x)]}=-\infty$ # # 3. Se $\exists M\in\mathbb{R},\ M<0$ tale che $g(x)\leq M,\ \forall x\in A$, allora $\displaystyle\lim_{x\rightarrow x_0}{[f(x)\cdot g(x)]}=+\infty$ # # 4. $\displaystyle\lim_{x\rightarrow x_0}{\frac{1}{f(x)}}=0$. # # ## Simboli di Landau # # **Definizione** (o-piccolo) $f$ si dice **o-piccolo di 1**, $(x\rightarrow x_0)$, e si scrive # # $$f(x) = o(1),\ (x\rightarrow x_0),\ \ \ \ se \lim_{x\rightarrow x_0}{f(x)}=0$$ # # $f$ si dice **o-piccolo di $\bf g$**, $(x\rightarrow x_0)$, e si scrive # # $$f(x) = o(g(x)),\ (x\rightarrow x_0),\ \ \ \ se \lim_{x\rightarrow x_0}{\frac{f(x)}{g(x)}}=0$$ # # Se $f(x) = o(g(x)),\ (x\rightarrow x_0)$, $f$ si dice **trascurabile** rispetto a g, $(x\rightarrow x_0)$. # # **Definizione** (equivalenza) $f$ si dice **equivalente** a $g$, $(x\rightarrow x_0)$, e si scrive # # $$f(x)\approx g(x),\ (x\rightarrow x_0),\ \ \ \ se \lim_{x\rightarrow x_0}{\frac{f(x)}{g(x)}}=1$$ # # **Teorema** Siano $f,g:A\rightarrow\mathbb{R}$. # # $$f(x)\approx g(x),\ (x\rightarrow x_0)\iff f(x)=g(x)+o(g(x)),\ (x\rightarrow x_0)$$ # # **Teorema** Se $f_1\approx f_2$ e $g_1\approx g_2$, $(x\rightarrow x_0)$, allora # # $$f_1g_1\approx f_2g_2,\ (x\rightarrow x_0);\ \ \frac{f_1}{g_1}\approx\frac{f_2}{g_2},\ (x\rightarrow x_0)$$ # # **Teorema** (principio di sostituzione) # # $$\lim_{x\rightarrow x_0}{\frac{f+o(f)}{g+o(g)}}=\lim_{x\rightarrow x_0}{\frac{f}{g}}$$ # # **Proposizione** Siano $f,g,h:A\rightarrow\mathbb{R}$. Se $l+m\neq 0$ e # # $$\left.\begin{matrix}f(x)\approx lh(x),\ (x\rightarrow x_0)\\g(x)\approx mh(x),\ (x\rightarrow x_0)\end{matrix}\right\}\implies [f(x)+g(x)]\approx (l+m)h(x),\ (x\rightarrow x_0)$$ # # ## Funzioni continue # # **Definizione** Siano $A\subseteq\mathbb{R}$, $f:A\rightarrow\mathbb{R}$. Diremo che $f$ è continua in $x_0\in A$ se # # $$\forall\epsilon>0\ \exists\delta>0:\left|f(x)-f(x_0)\right|<\epsilon\ \forall x\in A\cap]x_0-\delta, x_0+\delta[$$ # # 1. Se $x_0$ è un punto isolato, quindi non di accumulazione, allora $f$ è banalmente continua in $x_0$ # # 2. Se $x_0$ è un punto di accumulazione, allora la definizione è equivalente a # # $$f\ è\ continua\iff \lim_{x\rightarrow x_0}{f(x)}=f(x_0)$$ # # **Definizione** $f:A\rightarrow\mathbb{R}$, $A\subset\mathbb{R}$ è una funzione continua su $A$ se $f$ è continua in tutti i punti di $A$. # # **Teorema** (continuità della funzione composta) Siano $A,B\subseteq\mathbb{R}$, $f:A\rightarrow B$, $g:B\rightarrow\mathbb{R}$. Se $f$ è continua in $x_0\in A$ e $g$ è continua in $y_0=f(x_0)$, allora $f\circ g:A\rightarrow\mathbb{R}$ è continua in $x_0$. # # **Teorema** (permanenza del segno) Se $f:A\rightarrow\mathbb{R}$ è continua in $x_0\in A$ e $f(x_0)>0$ (risp. $f(x_0)<0$) allora # # $$\exists\delta>0:\ f(x)>0\ \text{(risp. }f(x)< 0 \text{)}\ \forall x\in A\cap]x_0-\delta,x_0+\delta[$$ # # **Teorema** (di Weierstrass) Sia $f:[a,b]\rightarrow\mathbb{R}$ continua in $[a,b]$. Allora $\displaystyle\exists\max_{[a,b]}f$ e $\displaystyle\exists\min_{[a,b]}f$. # # Il teorema è valido anche per $\displaystyle{A=\bigcup_{i=1}^k{[a_i,b_i]}}$ ed è valido in generale se $A$ è un insieme limitato e chiuso. # # **Teorema** (degli zeri) Sia $f:[a,b]\rightarrow\mathbb{R}$ continua in $[a,b]$ e tale che $f(a)< 0< f(b)$. Allora $\exists c\in ]a,b[$ tale che $f(c)=0$. # # **Teorema** (dei valori intermedi) Sia $f:[a,b]\rightarrow\mathbb{R}$ continua in $[a,b]$. Allora $f$ assume tutti i valori compresi tra $f(a)$ e $f(b)$. # # $$\displaystyle [f(a),f(b)]=\{y\in\mathbb{R}\mid\exists x\in A,\ y=f(x)\}=\mathcal{I}m_{[a,b]}(f)$$ # # **Teorema** (di Bolzano) Siano $I\subset\mathbb{R}$ intervallo e $f:I\rightarrow\mathbb{R}$ continua in $I$. Allora $f(I)=\mathcal{I}m(f)$ è un intervallo. # # **Teorema** (funzioni monotone e continuità) Siano $I\subset\mathbb{R}$ intervallo e $f:I\rightarrow\mathbb{R}$ monotona. Allora $f\ è\ continua\iff f(I)\ è\ un\ intervallo$. # # **Teorema** (continuità funzione inversa) Siano $I\subset\mathbb{R}$ intervallo e $f:I\rightarrow\mathbb{R}$ continua e strettamente monotona in $I$. Allora $f^{-1}:f(I)\rightarrow I$ è strettamente monotona e continua nell'intervallo $f(I)$. # # **Dimostrazione** Per il teorema di Bolzano $f(I)$ è un intervallo perché $f:I\rightarrow\mathbb{R}$ è continua. # # $f$ è strettamente monotona quindi $\exists\ f^{-1}:f(I)\xrightarrow[su]{1-1} I$. # # Per il teorema precedente $f^{-1}$ è continua perché $I$ è un intervallo. # # **Corollario** (di Bolzano-Weierstrass) Se $f:[a,b]\rightarrow\mathbb{R}$ continua in $[a,b]$ allora $\displaystyle f([a,b])=[\min_{[a,b]}f,\max_{[a,b]}f]$. # # # Derivazione # # **Definizione** Sia $f:[a,b]\rightarrow\mathbb{R}$, $x_0\in [a,b]$. Chiamiamo **rapporto incrementale** di $f$ rispetto a $x_0$ # # $$R(x)=\frac{f(x)-f(x_0)}{x-x_0},\ \ \ \ R:[a,b]\setminus\{x_0\}\rightarrow\mathbb{R}$$ # # **Definizione** Siano $f:A\rightarrow\mathbb{R}$ e $x_0\in A$. Posto # # $$f'(x_0)=\frac{\mathrm{d} f}{\mathrm{d} x}(x_0)=\lim_{x\rightarrow x_0}{\frac{f(x)-f(x_0)}{x-x_0}},\ \ \ \ \frac{\mathrm{d} f}{\mathrm{d} x}(x_0)\in\overline{\mathbb{R}}$$ # # Se $\frac{\mathrm{d} f}{\mathrm{d} x}(x_0)\in\mathbb{R}$ si dice che $f$ è derivabile in $x_0$. # # **Osservazione** Sia $f:[a,b]\rightarrow\mathbb{R}$. # # $$\mathcal{D}om(f') = \{x\in [a,b]\mid\exists\ f'(x)\in\mathbb{R}\}$$ # # **Teorema** Sia $f:[a,b]\rightarrow\mathbb{R}$ derivabile in $x_0\in\mathbb{R}$. Allora $f(x)$ è continua in $x_0$. # # **Dimostrazione** $\displaystyle\lim_{x\rightarrow x_0}{f(x)}=f(x_0)\iff\lim_{x\rightarrow x_0}{[f(x)-f(x_0)]}=0$ # # $$\lim_{x\rightarrow x_0}{[f(x)-f(x_0)]}=\lim_{x\rightarrow x_0}{\frac{f(x)-f(x_0)}{x-x_0}(x-x_0)}=f'(x_0)\lim_{x\rightarrow x_0}{(x-x_0)}=0$$ # # **Definizione** Sia $f:A\rightarrow\mathbb{R}$ e $x_0\in A$. Supponiamo che $x_0$ sia punto di accumulazione per $A\cap]x_0,+\infty[$ e $A\cap]-\infty,x_0[$. Chiameremo **derivata destra** di $f(x_0)$, se esiste, il limite destro del rapporto incrementale: # # $$f'_{+}(x_0)=\lim_{x\rightarrow x_0^+}{\frac{f(x)-f(x_0)}{x-x_0}}$$ # # Analogamente chiamaremo **derivata sinistra**, se esiste, il limite sinistro del rapporto incrementale: # # $$f'_{-}(x_0)=\lim_{x\rightarrow x_0^-}{\frac{f(x)-f(x_0)}{x-x_0}}$$ # # **Definizione** Sia $f$ una funzione continua in $x_0$. Se esistono finite (o una finita e una infinita), ma distinte, le derivata destra e sinistra, allora si dice che $f$ ha un **punto angoloso** in $x_0$. # # **Definizione** Sia $f$ una funzione continua in $x_0$. Se esistono infinite e di segno opposto le derivate destra e sinistra, allora si dice che $f$ ha una **cuspide** in $x_0$. # # **Definizione** Sia $f$ una funzione continua in $x_0$. Se $\left|f(x)\right|=+\infty$ allora si dice che $f$ ha un **punto di flesso a tangente verticale** in $x_0$. # # ## Regole di derivazione # # **Teorema** (linearità della funzione derivata) Siano $f,g:[a,b]\rightarrow\mathbb{R}$ derivabili in $x_0\in [a,b]$ e $\lambda,\mu\in\mathbb{R}$. Allora $\lambda f+\mu g$ è derivabile in $x_0$ e la derivata è: # # $$\frac{\mathrm{d}}{\mathrm{d} x}[\lambda f+\mu g] (x_0)=\lambda f'(x)+\mu g'(x)$$ # # **Dimostrazione** # # $$\lim_{x\rightarrow x_0}{\frac{\lambda f(x)+\mu g(x) - [\lambda f(x_0)+\mu g(x_0)]}{x-x_0}} = $$ # # $$= \lim_{x\rightarrow x_0}{\left[\frac{\lambda f(x)-\lambda f(x_0)}{x-x_0} + \frac{\mu g(x)-\mu g(x_0)}{x-x_0}\right]} = $$ # # $$= \lim_{x\rightarrow x_0}{\left[\lambda\frac{f(x)-f(x_0)}{x-x_0} + \mu\frac{g(x)-g(x_0)}{x-x_0}\right]} = $$ # # $$= \lambda f'(x)+\mu g'(x)$$ # # **Teorema** (Regola di Leibniz) Siano $f,g:[a,b]\rightarrow\mathbb{R}$ derivabili in $x_0\in [a,b]$. Allora la funzione $f\cdot g$ è derivabile in $x_0$ e: # # $$\frac{\mathrm{d}}{\mathrm{d} x}(f\cdot g)(x_0) = f'(x_0)g(x_0)+f(x_0)g'(x_0)$$ # # **Dimostrazione** # # $$\lim_{x\rightarrow x_0}{\frac{f(x)g(x)-f(x_0)g(x_0)}{x-x_0}}=$$ # # $$=\lim_{x\rightarrow x_0}{\frac{f(x)g(x)-f(x_0)g(x_0)+f(x_0)g(x)-f(x_0)g(x)}{x-x_0}}=$$ # # $$=\lim_{x\rightarrow x_0}{\left(g(x)\frac{f(x)-f(x_0)}{x-x_0} + f(x)\frac{g(x)-g(x_0)}{x-x_0}\right)}=$$ # # $$=\lim_{x\rightarrow x_0}{\left(g(x)f'(x_0)+f(x_0)g'(x_0)\right)}=$$ # # $$=g(x_0)f'(x_0)+f(x_0)g'(x_0)$$ # # **Teorema** (funzione reciproca) Siano $f,g:[a,b]\rightarrow\mathbb{R}$ derivabili in $x_0\in [a,b]$ e $f(x_0)\neq 0$. Allora $\exists\frac{1}{f}:]x_0-\delta,x_0+\delta[\cap[a,b]\rightarrow\mathbb{R}$ derivabile in $x_0$ e: # # $$\frac{\mathrm{d}}{\mathrm{d} x}(\frac{1}{f})(x_0)=-\frac{f'(x_0)}{f^2(x_0)}$$ # # **Dimostrazione** # # $$\lim_{x\rightarrow x_0}{\frac{\frac{1}{f(x)}-\frac{1}{f(x_0)}}{x-x_0}}=\lim_{x\rightarrow x_0}{\frac{f(x_0)-f(x)}{f(x)f(x_0)(x-x_0)}}=\lim_{x\rightarrow x_0}{-\frac{f(x)-f(x_0)}{f(x)f(x_0)(x-x_0)}}=-\frac{1}{f^2(x_0)}f'(x)$$ # # **Corollario** (rapporto di funzioni) Siano $f,g:[a,b]\rightarrow\mathbb{R}$ derivabili in $x_0\in [a,b]$ e $g(x_0)\neq 0$. Allora la funzione $\frac{f}{g}:]x_0-\delta,x_0+\delta[\cap[a,b]\rightarrow\mathbb{R}$ derivabile in $x_0$ e: # # $$\frac{\mathrm{d}}{\mathrm{d} x}(\frac{f}{g})(x_0)=\frac{f'(x_0)g(x_0)-f(x_0)g'(x_0)}{g^2(x_0)}$$ # # **Dimostrazione** # # $$\frac{\mathrm{d}}{\mathrm{d} x}\frac{f}{g}(x_0)=\frac{\mathrm{d}}{\mathrm{d} x}\left[f\cdot\frac{1}{g}\right] (x_0) = $$ # # $$= f'(x_0)\frac{1}{g}(x_0)+f(x_0)\frac{\mathrm{d}}{\mathrm{d} x}\left(\frac{1}{g}\right)(x_0) = $$ # # $$= \frac{f'(x_0)}{g(x_0)}-\frac{f(x_0)g'(x_0)}{g^2(x_0)} = $$ # # $$= \frac{f'(x_0)g(x_0)-f(x_0)g'(x_0)}{g^2(x_0)}$$ # # **Teorema** (funzione composta) Supponiamo $I,J\in\mathbb{R}$ intervalli, $x_0\in I$, $f:I\rightarrow J$ derivabile in $x_0$ e $g:J\rightarrow\mathbb{R}$ derivabile in $y_0=f(x_0)\in J$. Allora la funzione composta $g\circ f:I\rightarrow\mathbb{R}$ è derivabile in $x_0$ e: # # $$\frac{\mathrm{d}}{\mathrm{d} x}(g\circ f)(x_0)=\frac{\mathrm{d} g}{\mathrm{d} y}(f(x_0))\frac{\mathrm{d} f}{\mathrm{d} x}(x_0)$$ # # **Teorema** (funzione inversa) Sia $I\subseteq\mathbb{R}$ intervallo e $f:I\xrightarrow[su]{1-1}\mathbb{R}$ strettamente monotona e continua (quindi $\exists\ f^{-1}:f(I)\xrightarrow[su]{1-1}I$ strettamente monotona e continua). Se $\exists\ f'(x_0)\neq 0$ allora: # # $$(f^{-1})'(y_0)=\frac{1}{\frac{\mathrm{d} f}{\mathrm{d} x}(f^{-1}(y_0))}$$ # # **Dimostrazione** Il limite del rapporto incrementale è: # # $$\lim_{y\rightarrow y_0}{\frac{f^{-1}(y)-f^{-1}(y_0)}{y-y_0}}$$ # # Siccome $f^{-1}$ è la funzione inversa, allora $f^{-1}(y)=x$, $f^{-1}(y_0)=x_0$, $y=f(x)$ e $y_0=f(x_0)$. Inoltre sappiamo che $f^{-1}$ risulta continua su $J$ e si può effettuare il cambiamento di variabile, quindi # # $$[y\rightarrow y_0]\implies[f^{-1}(y)\rightarrow f^{-1}(y_0)]=[x\rightarrow x_0]$$ # # Allora abbiamo: # # $$\lim_{x\rightarrow x_0}{\frac{x-x_0}{f(x)-f(x_0)}}=\frac{1}{f'(x_0)}=\frac{1}{f'(f^{-1}(y_0))}$$ # # **Teorema** (di Lagrange) Sia $f:[a,b]\rightarrow\mathbb{R}$ continua in $[a,b]$ e derivabile in $]a,b[$. Allora $\exists c\in ]a,b[$ tale che # # $$f'(c)=\frac{f(b)-f(a)}{b-a}$$ # # **Teorema** (di Rolle) Sia $f:[a,b]\rightarrow\mathbb{R}$ continua in $[a,b]$ e derivabile in $]a,b[$. Se $f(a)=f(b)$ allora necessariamente $\exists c\in ]a,b[$ tale che: # # $$f'(c)=0$$ # # **Dimostrazione** Per il teorema di Weierstrass, siccome $f:[a,b]\rightarrow\mathbb{R}$ continua in $[a,b]$, $\exists\min_{[a,b]}f$ e $\exists\max_{[a,b]}f$. # # 1. Se $\displaystyle\min_{[a,b]}f=\max_{[a,b]}f$ allora $f$ è costante e quindi $f'(x)=0\ \forall x\in [a,b]$ # # 2. Se $\displaystyle\min_{[a,b]}f\neq\max_{[a,b]}f$ allora almeno uno è raggiunto in $c\in ]a,b[$. Supponiamo per semplicità $\displaystyle c=\min_{[a,b]}f$ e calcoliamo il limite destro e sinistro del rapporto incrementale: # # $$\left.\begin{matrix}\lim_{x\rightarrow c^+}\frac{f(x)-f(c)}{x-c}\geq 0\\\\\lim_{x\rightarrow c^-}\frac{f(x)-f(c)}{x-c}\leq 0\end{matrix}\right\}\implies f'(c)=0$$ # # Con un ragionamento analogo si dimostra anche il caso in cui $\displaystyle c=\max_{[a,b]}$. # # **Teorema** (di Fermat) Sia $f:]a,b[\rightarrow\mathbb{R}$. Se $c\in]a,b[$ è un punto di massimo o di minimo per $f$ e $\exists f'(c)$ allora necessariamente $f'(c)=0$. # # **Dimostrazione** È sufficiente studiare il segno del rapporto incrementale quando $x\rightarrow c^+$ e $x\rightarrow c^-$. SUpponiamo quindi che $c$ sia un punto di minimo. # # $$\left.\begin{matrix}\lim_{x\rightarrow c^+}\frac{f(x)-f(c)}{x-c}\geq 0\\\\\lim_{x\rightarrow c^-}\frac{f(x)-f(c)}{x-c}\leq 0\end{matrix}\right\}\implies f'(c)=0$$ # # Con un ragionamento analogo si dimostra anche il caso in cui $c$ sia un punto di massimo. # # **Teorema** (di De l'Hôpital) Siano $f,g:[a,b]\rightarrow\mathbb{R}$ derivabili in ]a,b[. Se # # 1. $\displaystyle\lim_{x\rightarrow a^+}{f(x)}=0=\lim_{x\rightarrow a^+}{g(x)}$ # # 2. $g'(x)$ ha segno costante $\forall x\in ]a,b[$ (è sufficiente che non cambi di segno in un insieme con punti di accumulazione) # # 3. $\displaystyle\exists\lim_{x\rightarrow a^+}{\frac{f'(x)}{g'(x)}}=l\in\overline{\mathbb{R}}$ # # Allora # # $$\exists\lim_{x\rightarrow a^+}{\frac{f(x)}{g(x)}}=l$$ # # **Teorema** (di De l'Hôpital) Siano $f,g:[a,b]\rightarrow\mathbb{R}$ derivabili in ]a,b[. Se # # 1. $\displaystyle\lim_{x\rightarrow a^+}{\left|f(x)\right|}=+\infty=\lim_{x\rightarrow a^+}{\left|g(x)\right|}$ # # 2. $g'(x)$ ha segno costante $\forall x\in ]a,b[$ (è sufficiente che non cambi di segno in un insieme con punti di accumulazione) # # 3. $\displaystyle\exists\lim_{x\rightarrow a^+}{\frac{f'(x)}{g'(x)}}=l\in\overline{\mathbb{R}}$ # # Allora # # $$\exists\lim_{x\rightarrow a^+}{\frac{f(x)}{g(x)}}=l$$ # # **Corollario** Sia $f:[a,b]\rightarrow\mathbb{R}$ continua in $[a,b]$ e derivabile in $]a,b[$. Se $\displaystyle\exists\lim_{x\rightarrow a^+}{f'(x)}=l\in\overline{\mathbb{R}}$ allora $\displaystyle\exists\ f'(a)=l$ # # **Dimostrazione** # # $$f'(a)=\lim_{x\rightarrow a^+}{\frac{f(x)-f(a)}{x-a}}=\lim_{x\rightarrow a^+}{f'(a)}=l$$ # # **Definizione** Siano $f:I\rightarrow\mathbb{R}$, $I$ intervallo e $f'$ la derivata di $f$. Chiamiamo $I'$ l'insieme dei punti di $I$ in cui esiste $f'$ # # $$I'=\{x\in I\mid\exists\ f'(x)\in\mathbb{R}\}$$ # # Possiamo ora definire la **derivata seconda** di $f$, ovvero la derivata di $f':I'\rightarrow\mathbb{R}$, in $x_0$, se esiste, # # $$f''(x_0)=\lim_{x\rightarrow x_0}{\frac{f'(x)-f'(x_0)}{x-x_0}}$$ # # Più in generale, se $f,f',f'',...f^{(k+1)}:I\rightarrow\mathbb{R}$ e $x_0\in I$ possiamo definire la derivata k-esima di $f$ in $x_0$ # # $$f^{k}(x_0)=\lim_{x\rightarrow x_0}{\frac{f^{(k-1)}(x)-f^{(k-1)}(x_0)}{x-x_0}}$$ # # **Definizione** Definiamo la **classe di una funzione** da $I\subset\mathbb{R}$ intervallo a $\mathbb{R}$ di ordine k come l'insieme delle funzioni di variabile reale derivabili con continuità k volte, e scriviamo: # # $$\mathcal{C}^{(k)}(I,\mathbb{R})=\{f:I\rightarrow\mathbb{R}\mid f\ continua\ in\ I\}$$ # # **Osservazione** $\mathcal{C}^{(\infty)}(I,\mathbb{R})\subsetneqq ... \subsetneqq\mathcal{C}^{(1)}(I,\mathbb{R})\subsetneqq\mathcal{C}^{(0)}(I,\mathbb{R})$ # # # Polinomi di Taylor # # **Definizione** Sia $f:I\rightarrow\mathbb{R}$, $I$ intervallo, derivabile $n$ volte in $x_0\in I$. Chiamiamo **polinomio di Taylor di $\bf f$** di ordine $n$ e punto iniziale $x_0$ il polinomio # # $$T_n(x)=f(x_0)+f'(x)(x-x_0)+\frac{f''(x_0)}{2!}(x-x_0)^2+...+\frac{f^{n}(x_0)}{n!}(x-x_0)^n=\sum_{k=0}^{n}\frac{f^{(k)}(x_0)}{k!}(x-x_0)^k$$ # # **Teorema** (formula di Taylor con resto di Peano) Sia $f:I\rightarrow\mathbb{R}$, $I$ intervallo, derivabile $n$ volte in $x_0\in I$. Allora # # $$f(x)=\left[\sum_{k=0}^{n}\frac{f^{(k)}(x_0)}{k!}(x-x_0)^k\right]+o((x-x_0)^k)\ \ \ \ (x\rightarrow x_0)$$ # # **Dimostrazione** # # $n=1$ $$f'(x_0)=\lim_{x\rightarrow x_0}{\frac{f(x)-f(x_0)}{x-x_0}}\iff f(x)=f(x_0)+f'(x_0)(x-x_0)+o(x-x_0)\ \ \ \ (x\rightarrow x_0)$$ # # $n=2$ Vogliamo dimostrare che # # $$f(x)=f(x_0)+f'(x_0)(x-x_0)+\frac{f''(x_0)}{2!}(x-x_0)^2+o((x-x_0)^2)\ \ \ \ (x\rightarrow x_0)$$ # # Quindi: # # $$f(x)-f(x_0)-f'(x_0)(x-x_0)-\frac{f''(x_0)}{2!}(x-x_0)^2=o((x-x_0)^2)\ \ \ \ (x\rightarrow x_0\iff$$ # # $$\lim_{x\rightarrow x_0}{\frac{f(x)-f(x_0)-f'(x_0)(x-x_0)-\frac{f''(x_0)}{2!}(x-x_0)^2}{(x-x_0)^2}}=0\iff$$ # # $$\lim_{x\rightarrow x_0}{\left[\frac{f(x)-f(x_0)-f'(x_0)(x-x_0)}{(x-x_0)^2}-\frac{f''(x_0)}{2}\right]}=0$$ # # Applicando De l'Hôpital: # # $$\lim_{x\rightarrow x_0}{\frac{f(x)-f(x_0)-f'(x_0)(x-x_0)}{(x-x_0)^2}}\overset{H}{=}\lim_{x\rightarrow x_0}{\frac{f'(x)-f'(x_0)}{2(x-x_0)}}=\frac{f''(x_0)}{2}$$ # # Analogamente, applicando De l'Hopital $n-1$ volte, si può dimostrare in generale. # # **Teorema** (formula di Taylor con resto di Lagrange) Siano $f\in\mathcal{C}^{(n+1)}(I,\mathbb{R})$, $x,x_0\in I$. Allora $\exists c\in I$ compreso tra $x_0$ e $x$ tale che: # # $$f(x)=\sum_{k=0}^{n}{\frac{f^{(k)}(x_0)}{k!}(x-x_0)^k} + f^{(n+1)}(c)\frac{(x-x_0)^{n+1}}{(n+1)!}$$ # # ## Proprietà del polinomio di Taylor # # **Proposizione** Sia $f\in\mathcal{C}^{(n)}(I,\mathbb{R})$. # # 1. Il polinomio di Taylor di $f$ di punto iniziale $x_0$ e grado minore o uguale a $n$ è l'unico polinomio di grado $\leq n$ per il quale vale # # $$T_{n}^{k}(x_0)=f^{(k)}(x_0)$$ # # 2. Derivando il polinomio di Taylor di ordine $n$ di $f$ si ottiene il polinomio di Taylor di grado $n-1$ di $f$ # # $$\frac{\mathrm{d}}{\mathrm{d} x}T_n[f] (x)=T_{n-1}[f'] (x)$$ # # **Proposizione** Se $f(x)=q_n(x)+o((x-x_0)^n),\ \ \ \ (x\rightarrow x_0)$, ove $q_n(x)$ è un polinomio di grado al più $n$, allora necessariamente # # $$q_n(x)=T_{n,x_0}(x)$$ # # ove $T_{n,x_0}(x)$ è il polinomio di Taylor di $f$ di ordine $n$ e punto iniziale $x_0$. # # ## Formule di Taylor delle funzioni elementari # # **Esponenziale** La funzione esponenziale ha derivate di ordine comunque elevato; scelto come punto iniziale $x_0=0$, la sua formula di Taylor, di ordine $n$, si scrive come # # $$\mathrm{exp}(x)=\sum_{k=0}^{n}{\frac{x^k}{k!}}+o(x^n),\ \ \ \ (x\rightarrow 0)$$ # # infatti # # $$D^{(k)}\mathrm{exp}(x)=\mathrm{exp}(x)$$ # # Quindi il polinomio di Taylor è # # $$T_{n,0}(x)=\sum_{k=0}^{n}{\frac{x^k}{k!}}$$ # # **Coseno** La funzione coseno è pari e ha derivate di ordine comunque elevato; scelto come punto iniziale $x_0=0$, la sua formula di Taylor, di ordine $2n$, si scrive come # # $$\cos(x)=\sum_{k=0}^{n}{\frac{(-1)^kx^{2k}}{(2k)!}}+o(x^{2n+1}),\ \ \ \ (x\rightarrow 0)$$ # # infatti # # $$D^{(k)}\cos(x)=\left\{\begin{matrix}0 & se\ k\ dispari\\ (-1)^k & se\ k\ pari\end{matrix}\right.$$ # # Quindi il polinomio di Taylor è # # $$T_{n,0}(x)=\sum_{k=0}^{n}{\frac{(-1)^kx^{2k}}{(2k)!}}$$ # # **Seno** La funzione seno è dispari e ha derivate di ordine comunque elevato; scelto come punto iniziale $x_0=0$, la sua formula di Taylor, di ordine $2n+1$, si scrive come # # $$\sin(x)=\sum_{k=0}^{n}{\frac{(-1)^kx^{2k+1}}{(2k+1)!}}+o(x^{(2n+2)}),\ \ \ \ (x\rightarrow 0)$$ # # infatti # # $$D^{(k)}\sin(x)=\left\{\begin{matrix}0 & se\ k\ pari\\ (-1)^k & se\ k\ dispari\end{matrix}\right.$$ # # Quindi il polinomio di Taylor è # # $$T_{n,0}(x)=\sum_{k=0}^{n}{\frac{(-1)^kx^{2k+1}}{(2k+1)!}}$$ # # **Coseno iperbolico** La funzione coseno iperbolico è pari e ha derivate di ordine comunque elevato; scelto come punto iniziale $x_0=0$, la sua formula di Taylor, di ordine $2n$, si scrive come # # $$\cosh(x)=\sum_{k=0}^{n}{\frac{x^{2k}}{(2k)!}}+o(x^{2n+1}),\ \ \ \ (x\rightarrow 0)$$ # # infatti # # $$D^{(k)}\cosh(x)=\left\{\begin{matrix}0 & se\ k\ dispari\\ 1 & se\ k\ pari\end{matrix}\right.$$ # # Quindi il polinomio di Taylor è # # $$T_{n,0}(x)=\sum_{k=0}^{n}{\frac{x^{2k}}{(2k)!}}$$ # # **Seno iperbolico** La funzione seno iperbolico è dispari e ha derivate di ordine comunque elevato; scelto come punto iniziale $x_0=0$, la sua formula di Taylor, di ordine $2n+1$, si scrive come # # $$\sinh(x)=\sum_{k=0}^{n}{\frac{x^{2k+1}}{(2k+1)!}}+o(x^{(2n+2)}),\ \ \ \ (x\rightarrow 0)$$ # # infatti # # $$D^{(k)}\sinh(x)=\left\{\begin{matrix}0 & se\ k\ pari\\ 1 & se\ k\ dispari\end{matrix}\right.$$ # # Quindi il polinomio di Taylor è # # $$T_{n,0}(x)=\sum_{k=0}^{n}{\frac{x^{2k}}{(2k)!}}$$ # # **$\bf{\ln(1+x)}$** La funzione $\ln(1+x)$ ha derivate di ordine comunque elevato; scelto come punto iniziale $x_0=0$, la sua formula di Taylor, di ordine $n$, si scrive come # # $$\ln(1+x)=\sum_{k=1}^{n}{\frac{(-1)^{k-1}x^k}{k}}+o(x^{n}),\ \ \ \ (x\rightarrow 0)$$ # # infatti # # $$D^{(k)}\ln(1+x)=\frac{(-1)^{k-1}(k-1)!}{(1+x)^k},\ \ k\geq 1$$ # # da cui deriva # # $$D^{(k)}\ln(1+x)\left|_{x=0}\right.=(-1)^{k-1}(k-1)!,\ \ k\geq 1$$ # # Quindi il polinomio di Taylor è # # $$T_{n,0}(x)=\sum_{k=1}^{n}{\frac{(-1)^{k-1}x^k}{k}}$$ # # **$\bf{(1+x)^\alpha}$** La funzione $(1+x)^\alpha$, $x>-1$, $\alpha\in\mathbb{R}$ ha derivate di ordine comunque elevato; scelto come punto iniziale $x_0=0$, la sua formula di Taylor, di ordine $n$, si scrive come # # $$(1+x)^\alpha=\sum_{k=0}^{n}\binom{\alpha}{k}x^k+o(x^{n}),\ \ \ \ (x\rightarrow 0)$$ # # posto # # $$\binom{\alpha}{k}=\frac{\alpha(\alpha-1)...(\alpha-k+1)}{k!},\ \ \binom{\alpha}{0}=1$$ # # infatti # # $$D^{(k)}(1+x)^\alpha=\alpha(\alpha-1)...(\alpha-k+1)(1+x)^{\alpha-k}$$ # # Quindi il polinomio di Taylor è # # $$T_{n,0}(x)=\sum_{k=1}^{n}\binom{\alpha}{k}x^k$$ # # **$\bf{(1+x)^{-1}}$** La funzione $(1+x)^{-1}$, $x\neq -1$, ha derivate di ordine comunque elevato; scelto come punto iniziale $x_0=0$, la sua formula di Taylor, di ordine $n$, si ottiene da quella precedente, con $\alpha=-1$, ed è # # $$(1+x)^{-1}=\sum_{k=0}^{n}(-1)^kx^k+o(x^{n}),\ \ \ \ (x\rightarrow 0)$$ # # infatti # # $$\binom{-1}{k}=\frac{(-1)(-1-1)(-1-2)...(-1-k+1)}{k!}=\frac{(-1)^k(1\cdot 2\cdot 3\cdot ... \cdot k)}{k!}=(-1)^k$$ # # Quindi il polinomio di Taylor è # # $$T_{n,0}(x)=\sum_{k=1}^{n}(-1)^kx^k$$ # # **$\bf{(1+x^2)^{-1}}$** La funzione $(1+x^2)^{-1}$ ha derivate di ordine comunque elevato; scelto come punto iniziale $x_0=0$, la sua formula di Taylor, di ordine $2n$, si ottiene da quella precedente, sostituendo $x$ con $x^2$, ed è # # $$(1+x^2)^{-1}=\sum_{k=0}^{n}(-1)^kx^{2k}+o(x^{2n}),\ \ \ \ (x\rightarrow 0)$$ # # Quindi il polinomio di Taylor è # # $$T_{n,0}(x)=\sum_{k=1}^{n}(-1)^kx^{2k}$$ # # **$\bf{(1-x)^{-1}}$** La funzione $(1-x)^{-1}$, $x\neq -1$, ha derivate di ordine comunque elevato; scelto come punto iniziale $x_0=0$, la sua formula di Taylor, di ordine $n$, si ottiene da qualle precedente, sostituendo $x$ con $-x$, ed è # # $$(1-x)^{-1}=\sum_{k=0}^{n}x^k+o(x^{n}),\ \ \ \ (x\rightarrow 0)$$ # # Quindi il polinomio di Taylor è # # $$T_{n,0}(x)=\sum_{k=1}^{n}x^k$$ # # **$\bf{(1-x^2)^{-1}}$** La funzione $(1-x^2)^{-1}$, $x\neq\pm 1$, ha derivate di ordine comunque elevato; scelto come punto iniziale $x_0=0$, la sua formula di Taylor, di ordine $2n$, si ottiene da qualle precedente, sostituendo $x$ con $x^2$, ed è # # $$(1-x^2)^{-1}=\sum_{k=0}^{n}x^{2k}+o(x^{2n}),\ \ \ \ (x\rightarrow 0)$$ # # Quindi il polinomio di Taylor è # # $$T_{n,0}(x)=\sum_{k=1}^{n}x^{2k}$$ # # # Studio qualitativo del grafico di una funzione # # ## Comportamento asintotico # # **Definizione** Siano $f,g:]a, +\infty[\rightarrow\mathbb{R}$ diremo che $g(x)$ è asintotica a $f(x)$ (equivalentemente, $f(x)$ ha per asintoto $g(x)$) quando $(x\rightarrow \pm\infty)$ se: # # $$f(x)=g(x)+o(1),\ \ \ \ (x\rightarrow \pm\infty)$$ # # **Definizione** (asintoto obliquo) Diremo che $f(x)$ ha asintoto obliquo $g(x)=ax+b\ (x\rightarrow\pm\infty)$ se esistono $a\neq 0$ e $b\in\mathbb{R}$ tali che # # $$f(x)=ax+b+o(1),\ \ \ \ (x\rightarrow\pm\infty)\iff\left\{\begin{matrix}\lim_{x\rightarrow\pm\infty}{[f(x)-ax]}=b\\\\\lim_{x\rightarrow\pm\infty}{\frac{f(x)}{x}}=a\end{matrix}\right.$$ # # **Definizione** Diremo che $f(x)$ ha asintoto verticale da destra (risp. da sinistra) $(x\rightarrow a^+)$ se # # $$\lim_{x\rightarrow a^+}{f(x)}=\pm\infty\ \text{(risp.}\ \lim_{x\rightarrow a^-}{f(x)}=\pm\infty\text{)}$$ # # **Definizione** Diremo che $f(x)$ ha asintoto orizzontale $y=c\ (x\rightarrow\pm\infty)$ se # # $$\lim_{x\rightarrow\pm\infty}{f(x)}=c$$ # # ## Monotonia # # **Teorema** (funzioni monotone e derivata prima) Supponiamo $I\subseteq\mathbb{R}$ intervallo e $f:I\rightarrow\mathbb{R}$ derivabile in $I$. Allora: # # 1. $f$ è debolmente crescente in $I\iff f'(x)\geq 0\ \forall x\in I$ # # 2. $f$ è debolmente decrescente in $I\iff f'(x)\leq 0\ \forall x\in I$ # # 3. Se $f'(x)>0\ \forall x\in I$ allora $f$ è strettamente crescente in $I$ # # 4. Se $f'(x)<0\ \forall x\in I$ allora $f$ è strettamente decrescente in $I$ # # **Dimostrazione** (1) # # ($\implies$) Scriviamo i limiti destro e sinistro del rapporto incrementale di $f(x)$ # # $$\lim_{x\rightarrow x^+}{\frac{f(x)-f(x_0)}{x-x_0}}\geq 0$$ # # $$\lim_{x\rightarrow x^-}{\frac{f(x)-f(x_0)}{x-x_0}}\geq 0$$ # # ($\impliedby$) Per il teorema di Lagrange sappiamo che $\exists c\in ]x,x_0[$ tale che $f(x)-f(x_0)=f'(c)(x-x_0)$. Per ipotesi $f'(c)\geq 0\ \forall x\in ]x,x_0[$. # # $$x< x_0\implies x-x_0< 0\implies f(x)-f(x_0)\leq 0\implies f(x)\leq f(x_0)$$ # # $$x> x_0\implies x-x_0> 0\implies f(x)-f(x_0)\geq 0\implies f(x)\geq f(x_0)$$ # # Quindi la funzione è debolmente crescente. # # **Teorema** Siano $I$ intervallo e $f:I\rightarrow\mathbb{R}$ derivabile in $I$. Allora $f$ è strettamente crescente (risp. strettamente decrescente) se e solo se $f'(x)\geq 0$ (risp. $f'(x)\leq 0$) $\forall x\in I$ e l'insieme $E=\{x\in I\mid f'(x)=0\}\subseteq I$ non contiene intervalli aperti. # # **Teorema** Sia $f:I\rightarrow\mathbb{R}$ derivabile $2n+1$ volte in $x_0\in I$ e tale che $f'(x_0)=f''(x_0)=...=f^{2n}(x_0)=0$. Se # # - $f^{2n+1}>0$ allora $x_0$ è un punto di crescenza, ovvero $f$ è strettamente crescente # - $f^{2n+1}<0$ allora $x_0$ è un punto di decrescenza, ovvero $f$ è strettamente decrescente # # **Dimostrazione** La dimostrazione è un'applicazione della formula di Taylor di punto iniziale $x_0$ con resto di Peano. Supponiamo per semplicità che $f^{2n+1}>0$ (il caso $f^{2n+1}<0$ è analogo): # # $$f(x)-f(x_0)=\frac{f^{2n+1}(x_0)}{(2n+1)!}(x-x_0)^{2n+1}(1+o(1))$$ # # allora il membro di destra è positivo se $x>x_0$, mentre è negativo se $x0$ tale che $f$ è strettamente crescente in $\forall x\in ]x_0-\delta,x_0+\delta[$ # # ## Punti di massimo e minimo locale # # **Definizione** Sia $A\subseteq\mathbb{R}$, $f:A\rightarrow\mathbb{R}$. Diremo che $x_0\in A$ è un punto di **minimo locale** (risp. di **massimo locale**) (o relativo) se $\exists\delta>0$ tale che # # $$f(x)\geq f(x_0)\ \text{(risp.)}\ f(x)\geq f(x_0)\ \text{)}\ \forall x\in A\cap ]x_0-\delta,x_0+\delta[$$ # # **Teorema** (di Fermat) Sia $f:]a,b[\rightarrow\mathbb{R}$. Se $x_0\in ]a,b[$ è un punto di massimo (o minimo) locale e $\exists f'(x_0)$ allora $f'(x_0)=0$ # # **Dimostrazione** Supponiamo che $x_0$ sia un punto di minimo locale (la dimostrazione è analoga nel caso $x_0$ sia un punto di massimo locale) # # $$\left.\begin{matrix}\lim_{x\rightarrow x_0^+}{\frac{f(x)-f(x_0)}{x-x_0}}\geq 0\\\lim_{x\rightarrow x_0^-}{\frac{f(x)-f(x_0)}{x-x_0}}\end{matrix}\right\}\implies f'(x_0)=0$$ # # **Definizione** Sia $f:I\rightarrow\mathbb{R}$ derivabile in $x_0\in I$. Diciamo che $x_0$ è un **punto stazionario o critico** se $f'(x)=0$. # # **Teorema** Sia $f:]a,b[\rightarrow\mathbb{R}$ derivabile in $]a,b[$. Se in $x_0\in]a,b[\ f'(x_0)=0$ e $\exists\delta>0$ tale che: # # 1. $f'(x_0)> 0\ \forall x\in ]x_0,x_0+\delta[$ # # 2. $f'(x_0)< 0\ \forall x\in ]x_0-\delta,x_0[$ # # Allora $x_0$ è un punto di minimo locale # # 3. $f'(x_0)< 0\ \forall x\in ]x_0,x_0+\delta[$ # # 4. $f'(x_0)> 0\ \forall x\in ]x_0-\delta,x_0[$ # # Allora $x_0$ è un punto di massimo locale # # **Teorema** Sia $f:]a,b[\rightarrow\mathbb{R}$, $x_0\in ]a,b[$ e supponiamo che $f$ sia continua in tutto $]a,b[$ e derivabile in $]a,b[\setminus\{x_0\}$. Se $\exists\delta>0$ # # 1. $f'(x)>0\ \forall x\in]x_0-\delta,x_0[\cap]a,b[$ e $f'(x)<0\ \forall x\in]x_0,x_0+\delta[\cap]a,b[$ allora $x_0$ è un punto angoloso di massimo locale # # 2. $f'(x)<0\ \forall x\in]x_0-\delta,x_0[\cap]a,b[$ e $f'(x)>0\ \forall x\in]x_0,x_0+\delta[\cap]a,b[$ allora $x_0$ è un punto angoloso di minimo locale # # 3. $f'_{+}(x)=+\infty$ e $f'_{-}(x)=-\infty$ allora $x_0$ è una cuspide di minimo locale # # 4. $f'_{+}(x)=-\infty$ e $f'_{-}(x)=+\infty$ allora $x_0$ è una cuspide di massimo locale # # **Teorema** Sia $f:]a,b[\rightarrow\mathbb{R}$ derivabile $2n$ volte in $x_0$, con $n\geq 1$. Se $f'(x_0)=f''(x_0)=...=f^{2n-1}(x_0)=0$. Allora: # # 1. Se $f^{2n}(x_0)>0$ allora $x_0$ è un punto di minimo locale # # 2. Se $f^{2n}(x_0)< 0$ allora $x_0$ è un punto di massimo locale # # **Dimostrazione** La dimostrazione è un'applicazione della formula di Taylor di punto iniziale $x_0$ con resto di Peano: # # $$(1)\ \ f(x)-f(x_0)=\frac{f^{2n}(x_0)}{(2n)!}(x-x_0)^{2n}(1 + o(1))> 0$$ # # $$(2)\ \ f(x)-f(x_0)=\frac{f^{2n}(x_0)}{(2n)!}(x-x_0)^{2n}(1 + o(1))< 0$$ # # **Corollario** Sia $f:]a,b[\rightarrow\mathbb{R}$ derivabile 2 volte in $x_0$. Supponiamo $f'(x_0)=0$ allora: # # 1. Se $f''(x_0)>0$ allora $x_0$ è un punto di minimo locale # # 2. Se $f''(x_0)<0$ allora $x_0$ è un punto di massimo locale # # **Teorema** Sia $f:]a,b[\rightarrow\mathbb{R}$ derivabile 2 volte in $x_0$. ALlora: # # 1. Se $x_0$ è un punto di minimo locale allora $f'(x_0)=0$ e $f''(x_0)>0$ # # 2. Se $x_0$ è un punto di massimo locale allora $f'(x_0)=0$ e $f''(x_0)<0$ # # ## Convessità e concavità # # **Definizione** Sia $I\subset\mathbb{R}$ intervallo e $f:I\rightarrow\mathbb{R}$. Diciamo che $f$ è **convessa** in $I$ se: # # $$\forall x_1,x_2\in I\ e\ \forall\lambda\in]0,1[\ f(\lambda x_1+(1-\lambda)x_2)\leq \lambda f(x_1)+(1-\lambda)f(x_2)$$ # # Diremo che $f$ è **strettamente convessa** se: # # $$\forall x_1,x_2\in I\ e\ \forall\lambda\in]0,1[\ f(\lambda x_1+(1-\lambda)x_2)< \lambda f(x_1)+(1-\lambda)f(x_2)$$ # # **Dimostrazione** Una funzione è convessa se tutti i punti del grafico stanno sotto la retta che congiunge due punti qualsiasi di esso. Presi due punti $P_1(x_1,f(x_1))$ e $P_2(x_2,f(x_2))$, la retta che li congiunge è: # # $$y=f(x_1)+\frac{f(x_2)-f(x_1)}{x_2-x_1}(x-x_1)$$ # # I punti del grafico compresi tra $P_1$ e $P_2$ sono i punti dell'intervallo $]x_1,x_2[$ e sono del tipo $x=\lambda x_1+(1-\lambda)x_2$. Andando a sostituire $x$ nell'equazione precedente # # $$y=f(x_1)+\frac{f(x_2)-f(x_1)}{x_2-x_1}(\lambda x_1+(1-\lambda)x_2-x_1)$$ # # e svolgendo i calcoli # # $$y=f(x_1)+[f(x_2)-f(x_1)] (1-\lambda)=f(x_2)-\lambda f(x_2)+\lambda f(x_1)=\lambda f(x_1)+(1-\lambda)f(x_2)$$ # # Quindi i punti interni all'intervallo $]x_1,x_2[$ hanno la forma # # $$P(\lambda x_1+(1-\lambda)x_2,\lambda f(x_1)+(1-\lambda)f(x_2))$$. # # **Definizione** Sia $I\subset\mathbb{R}$ intervallo e $f:I\rightarrow\mathbb{R}$. Diciamo che $f$ è **concava** in $I$ se: # # $$\forall x_1,x_2\in I\ e\ \forall\lambda\in]0,1[\ f(\lambda x_1+(1-\lambda)x_2)\geq \lambda f(x_1)+(1-\lambda)f(x_2)$$ # # Diremo che $f$ è **strettamente concava** se: # # $$\forall x_1,x_2\in I\ e\ \forall\lambda\in]0,1[\ f(\lambda x_1+(1-\lambda)x_2)> \lambda f(x_1)+(1-\lambda)f(x_2)$$ # # **Dimostrazione** Analoga a quella precedente # # **Teorema** Sia $f:[a,b]\rightarrow\mathbb{R}$ concava (o convessa) in $[a,b]$. Allora $f$ è continua in $]a,b[$. # # **Teorema** (convessità e rette tangenti) Sia $I\subseteq\mathbb{R}$ intervallo, $f:I\rightarrow\mathbb{R}$ derivabile in $I$. Allora: # # 1. $f$ è convessa in $I\iff \forall x,x_0\in I\ f(x)\geq f(x_0)+f'(x_0)(x-x_0)$ # # 2. $f$ è concava in $I\iff \forall x,x_0\in I\ f(x)\leq f(x_0)+f'(x_0)(x-x_0)$ # # 3. Se $\forall x,x_0\in I\ f(x)>f(x_0)+f'(x_0)(x-x_0)$ allora $f$ è strettamente convessa in I # # 4. Se $\forall x,x_0\in I\ f(x)0$ tale che $F(x)sign(x-x_0)$ ha segno costante in $]a,b[\cap]x_0-\delta,x_0+\delta[$ # # **Teorema** Sia $f:]a,b[\rightarrow\mathbb{R}$ continua in $]a,b[$ e derivabile 2 volte in $x_0\in ]a,b[$. Se $x_0$ è un punto di flesso allora $f''(x_0)=0$. # # **Dimostrazione** Supponiamo per assurdo che $x_0$ sia un punto di flesso e $f''(x_0)\neq 0$. Utilizzando la formula di Taylor di punto iniziale $x_0$ con resto di Peano: # # $$f(x)=f(x_0)+f'(x_0)(x-x_0)+\frac{f''(x_0)}{2}(x-x0)^2+o((x-x_0)^2),\ \ \ \ (x\rightarrow x_0)$$ # # $$F(x)=[f(x)-f(x_0)-f'(x_0)(x-x_0)]=\frac{f''(x_0)}{2}(x-x_0)^2[1+o(1)],\ \ \ \ (x\rightarrow x_0)$$ # # Se $f''(x_0)\neq 0$ allora $x_0$ n # on può essere un punto di flesso, in quanto $F(x)$ cambierebbe di segno. # # **Teorema** Sia $f:]a,b[\rightarrow\mathbb{R}$ continua in $]a,b[$ e derivabile $2n+1$ volte in $x_0\in]a,b[$. Se $f''(x_0)=...=f^{2n}(x_0)=0$ e $f^{2n+1}(x_0)\neq 0$ allora $x_0$ è un punto di flesso. # # **Dimostrazione** La dimostrazione è un'applicazione della formula di Taylor di punto iniziale $x_0$ con resto di Peano: # # $$f(x)-f(x_0)-f'(x_0)(x-x_0)=\frac{f^{2n+1}(x_0)}{(2n+1)!}(x-x_0)^{2n+1}[1+o(1)],\ \ \ \ (x\rightarrow x_0)$$ # # $$F(x)sign(x-x_0)=\frac{f^{2n+1}(x_0)}{(2n+1)!}(x-x_0)^{2n+1}sign(x-x_0)[1+o(1)],\ \ \ \ (x\rightarrow x_0)$$ # # 1. Supponiamo $f^{2n+1}(x_0)>0$, allora il membro di destra è sempre positivo # # 2. Supponiamo $f^{2n+1}(x_0)<0$, allora il membro di destra è sempre positivo # # Quindi $x_0$ è un punto di flesso. # # **Corollario** Se $f:]a,b[\rightarrow\mathbb{R}$ derivabile 3 volte e $f''(x_0)=0$ e $f'''(x_0)\neq 0$ allora $x_0$ è un punto di flesso. # # **Teorema** Sia $f:]a,b[\rightarrow\mathbb{R}$ derivabile in $]a,b[$. Se $x_0$ è un punto di minimo o massimo per $f'(x_0)$ allora è un punto di flesso per $f$. # # **Dimostrazione** # # $$F(x)=f(x)-f(x_0)-f'(x_0)(x-x_0)$$ # # $$F'(x)=f'(x)-f'(x_0)$$ # # Supponiamo $x_0$ punto di minimo per $f'$. Allora $F'(x)\geq 0\ \forall x\in]a,b[\cap]x_0-\delta,x_0+\delta[$. Da qui segue che $F(x)$ è monotona crescente in $]a,b[\cap]x_0-\delta,x_0+\delta[$. Essendo $F(x_0)=0$, allora $x_0$ è un punto di flesso. # # **Teorema** Sia $f:]a,b[\rightarrow\mathbb{R}$ derivabile 2 volte in $]a,b[$. Se in $x_0\in]a,b[\ f''(x_0)=0$ ed $\exists\delta>0$ tale che $f$ è concava in $]x_0, x_0+\delta[$ e convessa in $]x_0-\delta,x_0[$, o viceversa, allora $x_0$ è un punto di flesso. # # # Integrazione # # ## Primitive # # **Definizione** Sia $f:I\rightarrow\mathbb{R}$, $I$ intervallo. Chiamiamo $F:I\rightarrow\mathbb{R}$ **primitiva** di $f$ se # # $$\frac{\mathrm{d} F}{\mathrm{d} x}(x)=f(x)\ \forall x\in I$$ # # **Dimostrazione** # # $$\frac{\mathrm{d}}{\mathrm{d} x}G(x)=\frac{\mathrm{d}}{\mathrm{d} x}F(x)=f(x)$$ # # $$\frac{\mathrm{d}}{\mathrm{d} x}[G(x)-F(x)]=f(x)-f(x)=0$$ # # **Teorema** (funzioni a derivata nulla) Sia $I$ intervallo, $f:I\rightarrow\mathbb{R}$ derivabile in $I$. Allora # # $$f'(x)=0\ \forall x\in I\iff\exists c\in\mathbb{R}\ \text{tale che}\ f(x)=c\ \forall x\in I$$ # # **Dimostrazione** # # ($\implies$) L'implicazione verso sinistra è banale. Siccome $f(x)=c$: # # $$f'(x)=\lim_{x\rightarrow x_0}{\frac{f(x)-f(x_0)}{x-x_0}}=0$$ # # ($\impliedby$) Usiamo il teorema di Lagrange: # # $$\exists c\in]x,x_0[\ \text{tale che}\ f(x)-f(x0)=f'(c)(x-x_0)\ \forall x,x_0\in I$$ # # Siccome $f'(c)=0$, allora necessariamente $f(x)-f(x_0)=0$ e quindi $x=x_0$. Per l'arbitrarietà di $x,x_0$ possiamo concludere che $f$ è costante su tutto $I$. # # **Teorema** (caratterizzazione delle primitive di $f$ su un intervallo) Sia $I\subseteq\mathbb{R}$ intervallo, $f:I\rightarrow\mathbb{R}$. Allora: # # 1. se $F:I\rightarrow\mathbb{R}$ è una primitiva di $f$ allora $F(x)+c$, $c\in\mathbb{R}$ costante, è un'altra primitiva di $f$ # # 2. se $F,G:I\rightarrow\mathbb{R}$ sono primitive di $f$, allora $\exists c\in\mathbb{R}$ costante tale che $G(x)=F(x)+c$ # # ## Integrazione secondo Riemann # # **Definizione** Sia $f:[a,b]\rightarrow\mathbb{R}$ limitata in $[a,b]$. Definiamo **scomposizione $\bf\sigma$** dell'intervallo $[a,b]$ un sottoinsieme finito e ordinato di punti in $[a,b]$ # # $$\sigma=\{a=x_0< x_1< x_2<...< x_n=b\}$$ # # **Definizione** Siano $\sigma,\tau$ scomposizioni di $[a,b]$. $\sigma\cup\tau$ è l'**insieme unione** dei punti che stanno in $\sigma,\tau$. Tale scomposizione è più fine di $\sigma$ e $\tau$. # # **Definizione** Fissata la scomposizione $\sigma$ di $[a,b]$: # # 1. definiamo la **somma inferiore** di $f$ rispetto a $\sigma$ come # # $$s(f,\sigma)=(x_1-x_0)\inf_{[x_0,x_1]}f+...+(x_n-x_{n-1})\inf_{[x_{n-1},x_n]}f = \\ # = \sum_{i=1}^{n}{(x_i-x_{i-1})\inf_{[x_{i-1},x_i]}f}$$ # # 2. definiamo la **somma superiore** di $f$ rispetto a $\sigma$ come # # $$S(f,\sigma)=(x_1-x_0)\sup_{[x_0,x_1]}f+...+(x_n-x_{n-1})\sup_{[x_{n-1},x_n]}f = \\ # = \sum_{i=1}^{n}{(x_i-x_{i-1})\sup_{[x_{i-1},x_i]}f}$$ # # **Proposizione** Sia $f:[a,b]\rightarrow\mathbb{R}$ limitata. Sinao $\sigma,\tau$ scomposizioni di $[a,b]$. # # $$(b-a)\inf_{[a,b]}f\leq s(f,\sigma)\leq s(f,\sigma\cup\tau)\leq S(f,\sigma\cup\tau)\leq S(f,\sigma)\leq (b-a)\sup_{[a,b]}f$$ # # **Dimostrazione** Siano $\sigma$ e $\tau=\sigma\cup{y}$: # # $$s(f,\sigma)=(x_1-x_0)\inf_{[x_0,x_1]}f+...+(x_k-x_{k-1})\inf_{[x_{k-1},x_k]}f+...+(x_n-x_{n-1})\inf_{[x_{n-1},x_n]}f$$ # # $$s(f,\tau)=(x_1-x_0)\inf_{[x_0,x_1]}f+...+(y-x_{k-1})\inf_{[x_{k-1},y]}f+(x_k-y)\inf_{[y,x_k]}f+...+(x_n-x_{n-1})\inf_{[x_{n-1},x_n]}f$$ # # Sottraendo: # # $$s(f,\tau)-s(f,\sigma)=(y-x_{k-1})\inf_{[x_{k-1},y]}f+(x_k-y)\inf_{[y,x_k]}f-(x_k-x_{k-1})\inf_{[x_{k-1},x_k]}f = $$ # # $$= (y-x_{k-1})\inf_{[x_{k-1},y]}f+(x_k-y)\inf_{[y,x_k]}f-(x_k-y+y-x_{k-1})\inf_{[x_{k-1},x_k]}f = $$ # # $$= (y-x_{k-1})\left[\inf_{[x_{k-1},y]}f-\inf_{[x_{k-1},x_k]}f\right]+(x_k-y)\left[\inf_{[y,x_k]}f-\inf_{[x_{k-1},x_k]}f\right]\geq 0$$ # # Quindi # # $$s(f,\sigma)\leq s(f,\tau)$$ # # Con un ragionamento analogo si dimostra # # $$S(f,\sigma)\geq S(f,\tau)$$ # # **Definizione** Si definisce **integrale inferiore** di $f$ in $[a,b]$ # # $$\underline{\int_{a}^{b}}{f(x)\mathrm{d}x}=\sup_{\sigma}s(f,\sigma)$$ # # Si definisce **integrale superiore** di $f$ in $[a,b]$ # # $$\overline{\int_{a}^{b}}{f(x)\mathrm{d}x}=\inf_{\sigma}S(f,\sigma)$$ # # **Corollario** Sia $f:[a,b]\rightarrow\mathbb{R}$ limitata. Allora # # $$\underline{\int_{a}^{b}}{f(x)\mathrm{d}x}<+\infty\ \text{perché ha come maggiorante}\ (b-a)\sup_{[a,b]}f$$ # # $$\overline{\int_{a}^{b}}{f(x)\mathrm{d}x}>-\infty\ \text{perché ha come minorante}\ (b-a)\inf_{[a,b]}f$$ # # $$\underline{\int_{a}^{b}}{f(x)\mathrm{d}x}\leq\overline{\int_{a}^{b}}{f(x)\mathrm{d}x}$$ # # **Definizione** (funzione integrabile secondo Riemann) Sia $f:[a,b]\rightarrow\mathbb{R}$ limitata. Diremo che $f$ è **integrabile secondo Riemann** se # # $$\underline{\int_{a}^{b}}{f(x)\mathrm{d}x}=\overline{\int_{a}^{b}}{f(x)\mathrm{d}x}$$ # # e in tal caso chiamiamo **integrale** di $f$ in $[a,b]$ # # $$\int_{a}^{b}{f(x)\mathrm{d}x}=\underline{\int_{a}^{b}}{f(x)\mathrm{d}x}=\overline{\int_{a}^{b}}{f(x)\mathrm{d}x}$$ # # **Funzione di Dirichlet** La funzione di Dirichlet è così definita # # $$f:[0,1]\rightarrow\mathbb{R},\ \ \ \ f(x)=\left\{\begin{matrix} 1, & x\in[0,1]\cap\mathbb{Q} \\ 0, & x\in[0,1]\setminus\mathbb{Q}\end{matrix}\right.$$ # # Presa una qualunque partizione $\sigma=\{0=x_0 1,\ \beta\in\mathbb{R}$. Allora le soluzioni dell'equazione $z^n=w$ sono # # $$\sqrt[n]{\alpha}\left[\cos\left(\frac{\beta+2\pi(k-1)}{n}\right)+i\sin\left(\frac{\beta+2\pi(k-1)}{n}\right)\right],\ \ \ \ k=1,...,n$$ # # **Dimostrazione** Sia $w=\alpha\mathrm{exp}(i\beta)$, $z=|z|\mathrm{exp}(i\theta)$ e $z^n=w$ l'equazione. # # $$z^n=w \iff |z|^n\mathrm{exp}(in\theta)=\alpha\mathrm{exp}(i\beta) \iff $$ # # $$\iff |z|^n[\cos(n\theta) + i\sin(n\theta)] = \alpha[\cos(\beta) + i\sin(\beta)] \iff $$ # # $$\iff \left\{\begin{matrix} # |z|^n=\alpha\\ # \cos(n\theta) = \cos(\beta)\\ # \sin(n\theta) = \sin(\beta) # \end{matrix}\right. # \iff # \left\{\begin{matrix} # |z|=\alpha^{\frac{1}{n}}\\ # n\theta = \beta + 2k\pi & , & k\in\mathbb{Z} # \end{matrix}\right.$$ # # Quindi si ha # # $$z^n=w \iff # \left\{\begin{matrix} # |z|=\sqrt[n]{\alpha}\\ # \theta = \frac{\beta + 2k\pi}{n} & , & k\in\mathbb{Z} # \end{matrix}\right.$$ # # Si può osservare che vi sono $n$ soluzioni complesse distinte per $k=0,...,n-1$. # # **Osservazione** Queste radici sono i vertici di un poligono regolare di $n$ lati inscritto nella circonferenza di raggio $\sqrt[n]{\alpha}$. # # # Equazioni differenziali ordinarie # # **Definizione** Siano $t, x_0,...,x_n$ variabili reali. # # $$x_n=F(t,x_0,x_1,...,x_{n-1})$$ # # $$x_n=a_0(t)x_0+a_1(t)x_1+...+a_{n-1}(t)x_{n-1}+b(t)\ \text{con}\ a_0,...,b:I\rightarrow\mathbb{R}\ \text{continue, I intervallo}$$ # # $$x_0\rightarrow y(t),x_1\rightarrow\frac{\mathrm{d}y}{\mathrm{dt}}(t),...,x_n\rightarrow\frac{\mathrm{d^n}y}{\mathrm{dt^n}}(t)$$ # # $$\frac{\mathrm{d^n}y}{\mathrm{dt^n}}=F(t,y(t),...,\frac{\mathrm{d^{n-1}}y}{\mathrm{dt^{n-1}}})\ \text{con}\ t\in I$$ # # Chiamo **soluzione classica** dell'equazione differenziale una funzione $\varphi\in\mathcal{C}^{(n)}(I_0,\mathbb{R})$ dove $I_0\subseteq I$ è un intervallo tale che # # $$\frac{\mathrm{d^n}\varphi}{\mathrm{dt^n}}=F(t,\varphi(t),...,\frac{\mathrm{d^{n-1}}\varphi}{\mathrm{dt^{n-1}}})\ \forall t\in I_0$$ # # **Definizione** (Problema di Cauchy o alle condizioni iniziali) # # $$(P):\left\{\begin{matrix} # \frac{\mathrm{d^n}y}{\mathrm{dt^n}}=F(t,y(t),...,\frac{\mathrm{d^{n-1}}y}{\mathrm{dt^{n-1}}}) & \text{con}\ t\in I \\ # y(t_0)=y_0 \\ # \vdots & y_0,...,y_{n-1}\in\mathbb{R}\\ # \frac{\mathrm{d^{n-1}}y}{\mathrm{dt^{n-1}}}=y_{n-1} & # \end{matrix}\right.$$ # # Chiamo soluzione classica di $(P)$ una funzione $\varphi\in\mathcal{C}^{(n)}(I_0,\mathbb{R})$ con $I_0\subseteq I$ tale che # # $$\frac{\mathrm{d^n}\varphi}{\mathrm{dt^n}}=F(t,\varphi(t),...,\frac{\mathrm{d^{n-1}}\varphi}{\mathrm{dt^{n-1}}})\ \forall t\in I_0$$ # # $$\varphi(t_0)=y_0,\ \frac{\mathrm{d}\varphi}{\mathrm{dt}}(t_0)=y_1,...,\ \frac{\mathrm{d^{n-1}}\varphi}{\mathrm{dt^{n-1}}}(t_0)=y_{n-1}$$ # # **Teorema** (Problema di Cauchy o alle condizioni iniziali) Dato # # $$(P):\left\{\begin{matrix} # \frac{\mathrm{d^n}y}{\mathrm{dt^n}}=F(t,y(t),...,\frac{\mathrm{d^{n-1}}y}{\mathrm{dt^{n-1}}}) & \text{con}\ t\in I \\ # y(t_0)=\overline{y_0} \\ # \vdots & \overline{y_0},...,\overline{y_{n-1}}\in\mathbb{R}\\ # \frac{\mathrm{d^{n-1}}y}{\mathrm{dt^{n-1}}}(t_0)=\overline{y_{n-1}} & # \end{matrix}\right.$$ # # Allora esiste un'unica soluzione classica di $(P)$ $\varphi\in\mathcal{C}^{(n)}(I,\mathbb{R})$ tale che # # $$\frac{\mathrm{d^n}\varphi}{\mathrm{dt^n}}=a_0(t)\varphi(t)+a_1(t)\frac{\mathrm{d}\varphi}{\mathrm{dt}}(t)+...+a_{n-1}(t)\frac{\mathrm{d^{n-1}}\varphi}{\mathrm{dt^{n-1}}}(t)+b(t)\ \forall t\in I$$ # # $$\varphi(t_0)=\overline{y_0},\ \frac{\mathrm{d}\varphi}{\mathrm{dt}}(t_0)=\overline{y_1},...,\ \frac{\mathrm{d^{n-1}}\varphi}{\mathrm{dt^{n-1}}}(t_0)=\overline{y_{n-1}}$$ # # ## Equazioni differenziali del I ordine lineari # # **Teorema** (forma esplicita della soluzione) Siano $I\subseteq\mathbb{R}$ un intervallo, $a,b:I\rightarrow\mathbb{R}$ continue, $t_0\in I$, $y_0\in\mathbb{R}$. # # $$(P):\left\{\begin{matrix} # \frac{\mathrm{d}y}{\mathrm{dt}}=a(t)y+b(t) \\ # y(t_0)=y_0 # \end{matrix}\right.$$ # # Esiste un'unica soluzione $\varphi\in\mathcal{C}^{(1)}(I,\mathbb{R})$ e detta # # $$A(t)=\int_{t_0}^{t}{a(s)\mathrm{ds}}\ \text{(primitiva di}\ a(t)\ \text{tale che}\ A(t_0)=0\text{)}$$ # # $$\varphi(t)=\mathrm{exp}(A(t))\left[y_0+\int_{t_0}^{t}{b(s)\mathrm{exp}(-A(s))\mathrm{ds}}\right]\ \forall t\in I$$ # # $$\varphi(t_0)=y_0\mathrm{exp}(A(t_0))=y_0$$ # # **Dimostrazione** Supponiamo che $\varphi(t)\in\mathcal{C}^{(1)}$ sia soluzione di $(P)$. Introduciamo la funzione # # $$w(t)=\mathrm{exp}(-A(t))\varphi(t)\in\mathcal{C}^{(1)}$$ # # $w(t)$ e $\varphi(t)$ sono definite entrambe nello stesso dominio e $w(t_0)=y_0$ in quanto $\int_{t_0}^{t_0}{A(s)\mathrm{ds}}=0$. Calcoliamo $w'(t)$ # # $$\frac{\mathrm{d}w}{\mathrm{dt}}(t)=\mathrm{exp}(-A(t))\frac{\mathrm{d}\varphi}{\mathrm{dt}}+a(t)\mathrm{exp}(-A(t))\varphi=[a(t)\varphi(t)+b(t)]\mathrm{exp}(-A(t))+a(t)\varphi\mathrm{exp}(-A(t))=b(t)\mathrm{exp}(-A(t))$$ # # Abbiamo quindi ottenuto il problema di Cauchy # # $$(P):\left\{\begin{matrix} # \frac{\mathrm{d}w}{\mathrm{dt}}(t)=b(t)\mathrm{exp}(-A(t)) \\ # w(t_0)=y_0 # \end{matrix}\right.$$ # # Sappiamo per il teorema fondamentale del calcolo integrale che esiste un'unica funzione che soddisfa la prima equazione, ed è # # $$w(t)=y_0+\int_{t_0}^{t}{b(s)\mathrm{exp}(-A(s))\mathrm{ds}}$$ # # Quindi # # $$\varphi(t)=\mathrm{exp}(A(t))(y_0+\int_{t_0}^{t}{b(s)\mathrm{exp}(-A(s))\mathrm{ds}})$$ # # Svolgendo i calcoli si vede che $\varphi(t)$ verifica l'eqauzione, qualunque sia $y_0$. Era quindi lecita la supposizione iniziale. # # **Osservazione** Nel caso non lineare non esistono in generale metodi per determinare la soluzione # # ## Equazioni differenziali a variabili separabili del primo ordine # # **Teorema** (soluzioni in forma implicita) Siano $I,J\subseteq\mathbb{R}$ intervalli, $f\in\mathcal{C}(I,\mathbb{R})$, $g\in\mathcal{C}(J,\mathbb{R})$ tale che $g(y)\neq 0\ \forall y\in J$, $t_0\in I$, $y_0\in J$ e # # $$(P):\left\{\begin{matrix} # \frac{\mathrm{d}y}{\mathrm{dt}}=\frac{f(t)}{g(y)} \\ # y(t_0)=y_0 # \end{matrix}\right.$$ # # il problema di Cauchy. # # Allora $\exists\delta,\epsilon > 0$ e $\varphi\in\mathcal{C}^{(1)}(]t_0-\delta,t_0+\delta[\subseteq I,]y_0-\epsilon, y_0+\epsilon[\subseteq J)$, unica soluzione di $(P)$, cioè # # $$(P):\left\{\begin{matrix} # \frac{\mathrm{d}\varphi}{\mathrm{dt}}=\frac{f(t)}{g(\varphi(t))} \\ # \varphi(t_0)=y_0 # \end{matrix}\right.$$ # # La soluzione $\varphi$ è data in forma implicita da $G(\varphi(t))-F(t)=0$ con # # $$G(y)=\int_{y_0}^{y}{g(s)\mathrm{ds}}\ \text{e}\ F(t)=\int_{t_0}^{t}{f(\tau)\mathrm{\tau}}$$ # # ## Equazioni differenziali di ordine n # # **Definizione** Siano $a_1,...,a_n,b\in\mathcal{C}(I,\mathbb{R})$, $I,\mathbb{R}$ intervallo. Definiamo **equazione differenziale lineare omogenea** di ordine n un'equazione differenziale del tipo # # $$\frac{\mathrm{d^n}y}{\mathrm{dt^n}}+a_1(t)\frac{\mathrm{d^{n-1}}y}{\mathrm{dt^{n-1}}}+...+a_n(t)y=0\ \ \ \ \ \text{(EDLO)}$$ # # Definiamo **eqauzione differenziale lineare non omogenea** un'equazione differenziale del tipo # # $$\frac{\mathrm{d^n}y}{\mathrm{dt^n}}+a_1(t)\frac{\mathrm{d^{n-1}}y}{\mathrm{dt^{n-1}}}+...+a_n(t)y=b(t)\ \ \ \ \ \text{(EDLNO)}$$ # # **Teorema** (esistenza e unicità locale della soluzione) Sia $F:I\times A\rightarrow\mathbb{R}\in\mathcal{C}^{(1)}$ ($A\subset\mathbb{R}^{n}$ aperto). Allora $\forall b_0\in I$, $\forall(\overline{y_1},...,\overline{y_n})\in A\ \exists\epsilon > 0$ tale che il problema di Cauchy # # $$(P):\left\{\begin{matrix} # \frac{\mathrm{d^{n}}y}{\mathrm{dt^{n}}}=F(t,y,y',...,y^{(n-1)}) \\ # y(t_0)=\overline{y_1},...,y^{(n-1)}(t_0)=\overline{y_{n-1}} # \end{matrix}\right.$$ # # ha un unica soluzione $\varphi\in\mathcal{C}^{(n)}(]t_0-\epsilon,t_0+\epsilon[,\mathbb{R})$ # # **Teorema** (esistenza e unicità globale della soluzione di un problema di Cauchy) # # Siano $a_1,...,a_n,b\in\mathcal{C}(I,\mathbb{R})$, $I\subseteq\mathbb{R}$ intervallo, e # # $$(P):\left\{\begin{matrix} # \frac{\mathrm{d^n}y}{\mathrm{dt^n}}+a_1(t)\frac{\mathrm{d^{n-1}}y}{\mathrm{dt^{n-1}}}+...+a_n(t)y=b(t) & \text{con}\ t\in I \\ # y(t_0)=\overline{y_1} \\ # \vdots & \overline{y_1},...,\overline{y_{n-1}}\in\mathbb{R}\\ # \frac{\mathrm{d^{n-1}}y}{\mathrm{dt^{n-1}}}(t_0)=\overline{y_{n-1}} & # \end{matrix}\right.$$ # # Allora $(P)$ ha un unica soluzione $\varphi\in\mathcal{C}^{(n)}(I,\mathbb{R})$ tale che $\varphi(t_0)=\overline{y_1},...,\varphi^{(n-1)}(t_0)=\overline{y_{n-1}}$ # # **Proposizione** (principio di sovrapposizione) Siano $a_1,...,a_n\in\mathcal{C}(I,\mathbb{R})$, $I\subseteq\mathbb{R}$ intervallo. Supponiamo che $\varphi_1,\varphi_2\in\mathcal{C}^{(n)}(I,\mathbb{R})$ siano soluzioni di una (EDLO). Allora # # $$\varphi_1+\varphi_2\ \text{e}\ c\varphi_1\ \forall c\in\mathbb{R}$$ # # sono soluzioni di (EDLO). # # **Dimostrazione** Poniamo $\varphi(t)=\varphi_1(t)+\varphi_2(t)$ # # $$\frac{\mathrm{d^n}\varphi}{\mathrm{dt^n}}+a_1(t)\frac{\mathrm{d^{n-1}}\varphi}{\mathrm{dt^{n-1}}}(t)+...+a_n(t)\varphi(t)=0\iff $$ # # $$\iff \frac{\mathrm{d^n}\varphi_1}{\mathrm{dt^n}}+\frac{\mathrm{d^n}\varphi_2}{\mathrm{dt^n}}+a_1(t)\frac{\mathrm{d^{n-1}}\varphi_1}{\mathrm{dt^{n-1}}}(t)+a_1(t)\frac{\mathrm{d^{n-1}}\varphi_2}{\mathrm{dt^{n-1}}}(t)+...+a_n(t)\varphi_1(t)+a_n(t)\varphi_2(t)=0\iff $$ # # $$\iff \frac{\mathrm{d^n}\varphi_1}{\mathrm{dt^n}}+a_1(t)\frac{\mathrm{d^{n-1}}\varphi_1}{\mathrm{dt^{n-1}}}(t)+...+a_n(t)\varphi_1(t)+\frac{\mathrm{d^n}\varphi_2}{\mathrm{dt^n}}+a_1(t)\frac{\mathrm{d^{n-1}}\varphi_2}{\mathrm{dt^{n-1}}}(t)+...+a_n(t)\varphi_2(t)=0$$ # # Poniamo $\varphi(t)=c\varphi_1(t)$ # # $$\frac{\mathrm{d^n}\varphi}{\mathrm{dt^n}}+a_1(t)\frac{\mathrm{d^{n-1}}\varphi}{\mathrm{dt^{n-1}}}(t)+...+a_n(t)\varphi(t)=0\iff $$ # # $$\iff c\frac{\mathrm{d^n}\varphi_1}{\mathrm{dt^n}}+ca_1(t)\frac{\mathrm{d^{n-1}}\varphi_1}{\mathrm{dt^{n-1}}}(t)+...+ca_n(t)\varphi_1(t)=0\iff $$ # # $$\iff c\left[\frac{\mathrm{d^n}\varphi}{\mathrm{dt^n}}+a_1(t)\frac{\mathrm{d^{n-1}}\varphi}{\mathrm{dt^{n-1}}}(t)+...+a_n(t)\varphi(t)\right]=0$$ # # **Teorema** (integrale generale di (EDLO)) Siano $a_1,...,1_n\in\mathcal{C}(I,\mathbb{R})$, $I\subseteq\mathbb{R}$ intervallo e consideriamo una (EDLO). L'insieme delle soluzioni di (EDLO) forma uno spazio vettoriale di dimensione $n$. # # **Dimostrazione** Facciamo vedere che lo spazio vettoriale formato dalle soluzioni di (EDLO) ha dimensione $\geq n$.. Fissiamo $t_0\in I$ e consideriamo i problemi di Cauchy # # $$(P_1):\left\{\begin{matrix} # \frac{\mathrm{d^n}y}{\mathrm{dt^n}}+...+a_n(t)y=0 \\ # y(t_0)=1 \\ # y'(t_0)=0 \\ # \vdots \\ # y^{(n-1)}(t_0)=0 # \end{matrix}\right.\ \ \ # (P_2):\left\{\begin{matrix} # \frac{\mathrm{d^n}y}{\mathrm{dt^n}}+...+a_n(t)y=0 \\ # y(t_0)=0 \\ # y'(t_0)=1 \\ # \vdots \\ # y^{(n-1)}(t_0)=0 # \end{matrix}\right.\ \ \ ... \ \ \ # (P_n):\left\{\begin{matrix} # \frac{\mathrm{d^n}y}{\mathrm{dt^n}}+...+a_n(t)y=0 \\ # y(t_0)=0 \\ # y'(t_0)=0 \\ # \vdots \\ # y^{(n-1)}(t_0)=1 # \end{matrix}\right.$$ # # Siano $\varphi_1,...,\varphi_n$ soluzioni di $(P_1),...,(P_n)$, dimostriamo che sono linearmente indipendenti. Prendiamo # # $$\varphi(t)=c_1\varphi_1(t)+...+c_n\varphi_n(t)\equiv 0$$ # $$\varphi'(t)=c_1\varphi_1'(t)+...+c_n\varphi_n'(t)\equiv 0$$ # $$\vdots$$ # $$\varphi^{(n-1)}(t)=c_1\varphi^{(n-1)}_1(t)+...+c_n\varphi^{(n-1)}_n(t)\equiv 0$$ # # Ciò significa # # $$\varphi(t_0)=c_1=0$$ # $$\varphi'(t_0)=c_2=0$$ # $$\vdots$$ # $$\varphi^{(n-1)}(t_0)=c_n=0$$ # # Quindi le soluzioni sono linearmente indipendenti. # # Sia $w(t)\in\mathcal{C}^{(n)}(I,\mathbb{R})$ una soluzione di (EDLO) e verifichiamo che si può esprimere come combinazione lineare di $\varphi_1,...,\varphi_n$. Prendiamo quindi il generico problema di Cauchy # # $$(P_w):\left\{\begin{matrix} # \frac{\mathrm{d^n}y}{\mathrm{dt^n}}+a_1(t)\frac{\mathrm{d^{n-1}}y}{\mathrm{dt^{n-1}}}+...+a_n(t)y=0 \\ # y(t_0)=w(t_0) \\ # y'(t_0)=w'(t_0) \\ # \vdots \\ # y^{(n-1)}(t_0)=w^{(n-1)}(t_0) # \end{matrix}\right.$$ # # e consideriamo la funzione # # $$\psi(t)=c_1\varphi_1(t)+...+c_n\varphi_n(t)$$ # # e verifichiamo che per opportuni $c_1,...,c_n$ appropriati $\psi(t)=w(t)$. Sappiamo che $\psi(t)$ risolve l'equazione per il principio di sovrapposizione, quindi # # $$\psi(t_0)=c_1=w(t_0)$$ # $$\psi'(t_0)=c_2=w'(t_0)$$ # $$\vdots$$ # $$\psi^{(n-1)}=c_n=w^{(n-1)}(t_0)$$ # # Quindi $\psi(t)=w(t_0)\varphi_1(t)+...+w^{(n-1)}(t_0)\varphi_n(t)$ è soluzione di (EDLO) e per unicità della soluzione # # $$w(t)=w(t_0)\varphi_1(t)+...+w^{(n-1)}(t_0)\varphi_n(t)$$ # # **Definizione** Sia $\varphi(t)\in\mathcal{C}^{(n)}(I,\mathbb{R})$ una soluzione di (EDLO) e prendiamo # # $$\left\{\begin{matrix} # w_1(t)=\varphi(t) \\ # w_2(t)=\varphi'(t) \\ # \vdots \\ # w^{(n-1)}(t)=\varphi^{(n-1)}(t) # \end{matrix}\right.$$ # # dove # # $$w'(t)=w_2(t),w''(t)=w_3(t),\ ...,\ w^{(n)}(t)=-a_n(t)w_1(t)+...+-a_1(t)w_n(t)$$ # # Otteniamo così il sistema associato a (EDLO) # # $$\begin{bmatrix} # \frac{\mathrm{d}w_1}{\mathrm{dt}}\\ # \frac{\mathrm{d}w_2}{\mathrm{dt}}\\ # \vdots \\ # \frac{\mathrm{d}w_n}{\mathrm{dt}} # \end{bmatrix}= # \begin{bmatrix} # 0 & 1 & 0 & \dots & 0\\ # 0 & 0 & 1 & \dots & 0\\ # \vdots & \vdots & \vdots & \ddots & \vdots \\ # -a_n(t) & -a_{n-1}(t) & -a_{n-2}(t) & \dots & -a_1(t) # \end{bmatrix} # \begin{bmatrix} # w_1(t)\\ # w_2(t)\\ # \vdots \\ # w_n(t) # \end{bmatrix}$$ # # Definiamo così il vettore soluzione di (EDLO) # # $$\begin{bmatrix} # w_1(t) \\ w_2(t) \\ \dots \\ w_n(t) # \end{bmatrix}= # \begin{bmatrix} # \varphi(t) \\ \varphi'(t) \\ \dots \\ \varphi^{(n-1)}(t) # \end{bmatrix}$$ # # **Definizione** (wronskiano delle soluzioni) Siano $\varphi_1,...,\varphi_n\in\mathcal{C}^{(n)}(I,\mathbb{R})$ soluzioni di (EDLO). Definiamo **wronskiano** # # $$W(t)=\mathrm{det}\begin{bmatrix} # \varphi_1(t) & \varphi_2(t) & \dots & \varphi_n(t) \\ # \varphi'_1(t) & \varphi'_2(t) & \dots & \varphi'_n(t) \\ # \vdots & \vdots & \ddots & \vdots \\ # \varphi^{(n-1)}_1(t) & \varphi^{(n-1)}_2(t) & \dots & \varphi^{(n-1)}_n(t) # \end{bmatrix}$$ # # **Teorema** (del wronskiano) Siano (EDLO) con $a_1,...,a_n\in\mathcal{C}(I,\mathbb{R})$ e $\varphi_1,...,\varphi_n\in\mathcal{C}^{(n)}(I,\mathbb{R})$ soluzioni di (EDLO). Allora sono equivalenti le seguenti informazioni: # # 1. $\varphi_1(t),...,\varphi_n(t)$ sono soluzioni linearmente indipendenti di (EDLO) # 2. $W(t)\neq 0\ \forall t\in I$ # 3. $\exists t_0\in I$ tale che $W(t_0)\neq 0$ # # **Dimostrazione** $(3\implies2)\ (n=2)$ # # Prendiamo l'(EDLO) # # $$y''+a_1(t)y'+a_2(t)y=0$$ # # con soluzioni $\varphi_1,\varphi_2$. # # $$W(t)=\mathrm{det}\begin{bmatrix} # \varphi_1 & \varphi_2 \\ # \varphi'_1 & \varphi'_2 # \end{bmatrix}= # \varphi_1\varphi'_2-\varphi_2\varphi'_1$$ # # Deriviamo il wronskiano # # $$W'(t)=\varphi'_1\varphi'_2+\varphi_1\varphi''_2-\varphi'_2\varphi_1-\varphi_2\varphi''_1= $$ # # $$=\varphi_1\varphi''_2-\varphi_2\varphi''_1= $$ # # $$=\varphi_1[-a_1(t)\varphi'_2-a_2(t)\varphi_2]-\varphi_2[-a_1(t)\varphi'_1-a_2(t)\varphi_1]= $$ # # $$=-a_1(t)[\varphi_1\varphi'_2-\varphi_2\varphi'_1] = -a_1(t)W(t)$$ # # Otteniamo quindi la seguente equazione differenziale lineare di primo ordine # # $$W'(t)=-a_1(t)W(t)$$ # # Sappiamo che la soluzione è # # $$W(t)=W(t_0)\mathrm{exp}(-\int_{t_0}^{t}{a_1(s)\mathrm{ds}})$$ # # Poiché l'esponenziale non si annulla mai si ha # # $$W(t_0)\neq 0 \implies W(t)\neq 0$$ # # **Proposizione** Siano $a_1,...,a_n,b\in C(I,\mathbb{R}$. Siano $\psi_1,\psi_2\in\mathcal{C}^{(n)}(I,\mathbb{R})$ soluzioni di (EDLNO) e $\varphi\in\mathcal{C}^{(n)}(I,\mathbb{R})$ soluzione di (EDLO). Allora # # 1. $\psi_1-\psi_2$ è soluzione di (EDLO) # 2. $\psi_1 + \varphi$ è soluzione di (EDLNO) # # **Dimostrazione** (1) Prendiamo $\varphi_1(t)=\psi_1(t)-\psi_2(t)$ # # $$\varphi^{(n)}_1(t)+a_1(t)\varphi^{(n-1)}_1(t)+...+a_n(t)\varphi_1(t)= $$ # # $$=\psi^{(n)}_1(t)-\psi^{(n)}_2(t)+a_1(t)[\psi^{(n-1)}_1(t)-\psi^{(n-1)}_2(t)]+...+a_n(t)[\psi_1(t)-\psi_2(t)]= $$ # # $$=\psi^{(n)}_1(t)+a_1(t)\psi^{(n-1)}_1(t)+...+a_n(t)\psi_1(t)-\psi^{(n)}_2(t)+a_1(t)\psi^{(n-1)}_2(t)+...+a_n(t)\psi_2(t)=b(t)-b(t)=0$$ # # (2) Prendiamo $\psi(t)=\psi_1(t)+\varphi(t)$ # # $$\psi^{(n)}(t)+a_1(t)\psi^{(n-1)}(t)+...+a_n(t)\psi(t)= $$ # # $$=\psi^{(n)}_1(t)+\varphi^{(n)}(t)+a_1(t)[\psi^{(n-1)}_1(t)+\varphi^{(n-1)}(t)]+...+a_n(t)[\psi_1(t)+\varphi(t)]= $$ # # $$=\psi^{(n)}_1(t)+a_1(t)\psi^{(n-1)}_1(t)+...+a_n(t)\psi_1(t)+\varphi^{(n)}(t)+a_1(t)\varphi^{(n-1)}(t)+...+a_n(t)\varphi(t)=b(t)+0=b(t)$$ # # **Teorema** Siano $\varphi_1,...,\varphi_n\in\mathcal{C}^{(n)}(I,\mathbb{R})$ soluzioni linearmente indipendenti di (EDLO) e $\psi_P\in\mathcal{C}^{(n)}(I,\mathbb{R})$ soluzione particolare di (EDLNO). Allora $\psi\in\mathcal{C}^{(n)}(I,\mathbb{R})$ è soluzione di (EDLNO) se e solo se # # $$\exists c_1,...,c_n\in\mathbb{R}\ \text{e}\ \psi(t)=\psi_P(t)+\sum_{i=1}^n{c_i\varphi_i(t)}$$ # # **Dimostrazione** ($\implies$) Siano $c_1,...,c_n\in\mathbb{R}$ # # $$\psi_P(t)+\sum_{i=1}^n{c_i\varphi_i(t)}\ \text{è soluzione di (EDLNO) per il punto (2) del teorema precedente}$$ # # ($\impliedby$) Se $\psi(t)$ è soluzione di (EDLNO), allora $\psi(t)-\psi_P(t)$ è soluzione di (EDLO) per il punto (1) del teorema precedente. Ciò significa che $\psi(t)-\psi_P(t)$ è una combinazione lineare di $\varphi_1,...,\varphi_n$. # # ## Metodo generale per la ricerca di una soluzione particolare di (EDLNO) o metodo di variazione delle costanti o metodo di Lagrangia # # **Caso $n=2$** Siano # # $$y''+a_1(t)y'+a_2(t)y=b(t)\ \ \ \ \text{(EDLNO)}$$ # # # $$y''+a_1(t)y'+a_2(t)y=0\ \ \ \ \text{(EDLO)}$$ # # # $$psi(t)=c_1\varphi_1(t)+c_2\varphi_2(t)\ \ \ \ \text{soluzione di (EDLO)}$$ # # con $\varphi_1,\varphi_2\in\mathcal{C}^{(n)}(I,\mathbb{R})$ soluzioni linearmente indipendenti di (EDLO). # # Dobbiamo trovare i termini $c_1(t),c_2(t)$ tali che $\psi(t)=c_1(t)\varphi_1(t)+c_2(t)\varphi_2(t)$ sia soluzione di (EDLNO). Imponiamo quindi che $\psi(t)$ sia soluzione di (EDLNO). # # $$\psi'=c_1\varphi'_1+c'_1\varphi_1+c_2\varphi'_2+c'_2\varphi_2$$ # # Impongo $c'_1\varphi_1+c'_2\varphi_2=0$ # # $$\psi'=c_1\varphi'_1+c_2\varphi'_2$$ # # $$\psi''=c'_1\varphi'_1+c_1\varphi''_1+c'_2\varphi'_2+c_2\varphi''_2$$ # # Inseriamo $\psi,\psi',\psi''$ in (EDLNO). # # $$c'_1\varphi'_1+c_1\varphi''_1+c'_2\varphi'_2+c_2\varphi''_2+a_1(t)[c_1\varphi'_1+c_2\varphi'_2]+a_2[c_1\varphi_1+c_2\varphi_2]=b(t) \iff $$ # # $$\iff c_1(t)[\varphi''_1+a_1(t)\varphi'_1+a_2(t)\varphi_1]+c_2(t)[\varphi''_2+a_1(t)\varphi'_2+a_2(t)\varphi_2]+c'_1\varphi'_1+c'_2\varphi'_2=b(t) \iff $$ # # $$\iff c'_1\varphi'_1+c'_2\varphi'_2=b(t)$$ # # Abbiamo ottenuto dunque il seguente sistema con incognite $c_1,c_2$ # # $$\left\{\begin{matrix} # c'_1(t)\varphi_1(t)+c'_2(t)\varphi_2(t)=0 \\ # \\ # c'_1(t)\varphi'_1(t)+c'_2(t)\varphi'_2(t)=b(t) # \end{matrix}\right.$$ # # Risolvibile con la regola di Cramer (il determinante è il wronskiano $W(t)\neq 0$ delle soluzioni $\varphi_1,\varphi_2$ linearmente indipendenti). # # # $$c'_1(t)=\frac{ # \begin{vmatrix} # \ 0 & \varphi_2(t)\ \\ # \\ # \ b(t) & \varphi'_2(t)\ # \end{vmatrix} # }{W(t)}=-\frac{b(t)\varphi_2(t)}{W(t)}, # \ \ \ \ # c'_2(t)=\frac{ # \begin{vmatrix} # \ \varphi_1(t) & 0\ \\ # \\ # \ \varphi'_1(t) & b(t)\ # \end{vmatrix} # }{W(t)}=\frac{b(t)\varphi_1(t)}{W(t)}$$ # # Quindi # # $$c_1(t)=-\int_{t_0}^{t}{\frac{b(s)\varphi_2(s)}{W(s)}\mathrm{ds}}, # \ \ \ \ # c_2(t)=\int_{t_0}^{t}{\frac{b(s)\varphi_1(s)}{W(s)}\mathrm{ds}}$$ # # Ricavati $c_1$ e $c_2$ si ottiene # # $$\psi(t)=\int_{t_0}^{t}{\frac{b(s)[\varphi_1(s)\varphi_2(t)-\varphi_2(s)\varphi_1(t)]}{W(s)}\mathrm{ds}}$$ # # **Osservazione** $\varphi_1(s)\varphi_2(t)-\varphi_2(s)\varphi_1(t)$ è detto nucleo integrale. # # ## Equazioni differenziali lineari omogenee a coefficienti costanti di ordine n # # **Definizione** Siano $a_1,...,a_n\in\mathbb{R}$. Definiamo **equazione differenziale lineare omogenea a coefficienti costanti** di ordine n un'equazione differenziale del tipo # # $$y^{(n)}+a_1y^{(n-1)}+...+a_ny=0\ \ \ \ \text{(EDLOCC)}$$ # # ### Ricerca di soluzioni di tipo esponenziale per EDLOCC # # Vogliamo cercare soluzioni del tipo $y(t)=\mathrm{exp}(\lambda t)$ con $\lambda$ numero complesso. Andando a sostiuire la soluzione nell'(EDLOCC) otteniamo # # $$\mathrm{exp}(\lambda t)[\lambda^n+a_1\lambda^{n-1}+...+a_{n-1}\lambda+a_n]=0$$ # # Posto # # $$P(\lambda)=\lambda^n+a_1\lambda^{n-1}+...+a_{n-1}\lambda+a_n$$ # # polinomio caratteristico dell'(EDLOCC), possiamo distinguere due casi # # 1. $P(\lambda)$ ha $n$ radici $\lambda_1,...\lambda_n\in\mathbb{C}$ distinte. Allora le funzioni # # # $$\psi_1(t)=\mathrm{exp}(\lambda_1 t),\ ...\ ,\ \psi_n(t)=\mathrm{exp}(\lambda_n t)$$ # # sono soluzioni linearmente indipendenti della (EDLOCC). L'integrale generale sarà # # $$y(t)=c_1\mathrm{exp}(\lambda_1 t)+...+c_n\mathrm{exp}(\lambda_n t)$$ # # 2. $P(\lambda)$ ha $m0$ se $\forall t\in\mathbb{R}$ si ha # # $$f(t)=f(T+t)$$ # # **Proprietà** Se $T,S>0$ sono periodi, allora # 1. $T+S$ è periodo # 2. $nT$ è periodo (con $n\in\mathbb{Z}$) # # **Definizione** Se $f(t)$ non è costante, esiste il periodo minimo $T_f$ positivo tale che $f(t+T_f)=f(t)\ \forall t\in\mathbb{R}$ e se $S$ è periodo allora $S=nT_f,\ n\in\mathbb{Z}$. Tale periodo è chiamato **periodo fondamentale**. # # **Teorema** Siano $f(t)$ e $g(t)$ funzioni periodiche di periodo fondamentale rispettivamente $T_f$ e $S_f$. La funzione # # $$h(t)=f(t)+g(t)$$ # # è periodica di periodo fondamentale $P_f=mcm(T_f,S_f)$ se e solo se $\frac{T_f}{S_f}\in\mathbb{Q}$