#!/usr/bin/env python
# coding: utf-8
# $$\author{\text{Giorgio Renzi}}$$
# $$\text{Ingegneria Informatica - 0926, Alma Mater Studiorum - Università di Bologna}$$
# $$\text{\href{mailto:giorgio.renzi@studio.unibo.it}{giorgio.renzi@studio.unibo.it}}$$
#
# # Relazioni
#
# ## Prodotto cartesiano
#
# **Definizione** Siano $A$ e $B$ due insiemi. L'insieme delle coppie ordinate $(a,b)$, con $a\in A$ e $b\in B$, si chiama **prodotto cartesiano** tra $A$ e $B$ e si indica con
#
# $$A\times B:={(a,b)\mid a\in A, b\in B)}$$
#
# ## Relazioni
#
# **Definizione** Una proprietà $\mathcal{A}$ definita in $S\times T$ è detta **relazione** tra $S$ e $T$; diremo che $s\in S$ è in relazione con $t\in T$ se si ha $\mathcal{A}(s,t)$ vera.
#
# Data una relazione $\mathcal{R}$:
#
# $$\mathcal{D}om(R)=\{a\in A\mid \text{s è in relazione tramite}\ \mathcal{R}\ \text{con almeno un elemento di}\ B\}\subseteq S$$
#
# $$\mathcal{C}od(R)=\{b\in B\mid \text{b è in relazione tramite}\ \mathcal{R}\ \text{con almeno un elemento di}\ A\}\subseteq T$$
#
# $$\mathcal{G}raf(R)=\{(a,b)\in A\times B\mid \mathcal{R}(a,b)\ \text{è vera}\}\subseteq A\times B$$
#
# ### Relazioni binarie
#
# **Definizione** Una relazione $\mathcal{R}$ tra $S$ e $S$ (cioè una proprietà che mette in relazione tra loro elementi di $S$), è detta **relazione binaria** in $S$. Sia $\mathcal{R}$ una relazione binaria; diremo:
# - $\mathcal{R}(x,y)$ è **riflessiva** se $\forall x\in S$ $\mathcal{R}(x,x)$ è vera
# - $\mathcal{R}(x,y)$ è **simmetrica** se $\forall x,y\in S$ $\mathcal{R}(x,y)$ vera $\implies \mathcal{R}(y,x)$ vera
# - $\mathcal{R}(x,y)$ è **antisimmetrica** se $\forall x,y\in S$ $\mathcal{R}(x,y)$ vera e $\mathcal{R}(y,x)$ vera $\implies x=y$
# - $\mathcal{R}(x,y)$ è **transitiva** se $\forall x,y,z\in S$ $\mathcal{R}(x,y)$ vera e $\mathcal{R}(y,z)$ vera $\implies \mathcal{R}(x,z)$
#
# ### Relazioni di equivalenza
#
# La relazione binaria $\mathcal{R}$ su $A$ si dice **relazione di equivalenza** se è riflessiva, simmetrica e transitiva. La relazione di equivalenza si indica con il simbolo $\sim$.
#
# ### Relazioni d'ordine
#
# **Definizione** La relazione binaria $\mathcal{R}$ su $A$ si dice **relazione d'ordine** se è riflessiva, antisimmetrica e transitiva. Alcuni esempi di relazione d'ordine sono $<$, $\leq$, $>$, $\geq$.
#
# **Definizione** Una relazione d'ordine si dice **totale** se
#
# $$\forall x,y\in A\ \text{si ha}\ \mathcal{R}(x,y)\ \text{oppure}\ \mathcal{R}(y,x)$$
#
# cioè, comunque si fissino due elementi di A, essi sono **confrontabili**. Altrimenti la relazione d'ordine è detta **parziale**.
#
# Indichiamo con $(\mathbb{R}, \leq)$ l'insieme ${R}$ ordinato con la relazione $\leq$.
# **Legge di tricotomia**: $\forall x,y\in \mathbb{R}$ vale solo una delle seguenti possibilità:
# - $x < y$
# - $x > y$
# - $x = y$
#
# # Massimo e minimo
#
# **Definizione** Sia $A \subset \mathbb{R}$ non vuoto. $m$ si dice **massimo** (risp. **minimo**) di $A$ se:
#
# - $m \in A$
#
# - $m \geq x\ \text{(risp. } m\leq x \text{)}\ \forall x\in A$
#
# Se $m$ esiste, usiamo la notazione
#
# $$m=\max A\ \text{(risp. } m=\min A \text{)}$$
#
# Il minimo e il massimo **se esistono sono unici**.
#
# # Maggiorante e minorante
#
# **Definizione** Sia $A \subset \mathbb{R}$ non vuoto. $m\in \mathbb{R}$ si dice **maggiorante** (risp. **minorante**) di $A$ se:
#
# $$m\geq x\ \text{(risp. } m\leq x \text{)}\ \forall x\in A$$
#
# Se $A$ possiede un maggiorante (risp. minorante), allora **ne possiede infiniti**.
# Il massimo di A è un maggiorante. Il minimo di A è un maggiorante.
#
# # Insieme superiormente (inferiormente) limitato
#
# **Definizione** Un insieme $A\subset \mathbb{R}$ non vuoto che ammette maggiorante (risp. minorante) si dice **superiormente limitato** (risp. **inferiormente limitato**). Un insieme superiormente e inferiormente limitato si dice insieme limitato.
#
# # Estremo superiore ed estremo inferiore
#
# **Definizione** Sia $A\subset \mathbb{R}$ un insieme superiormente limitato. Il minimo dei maggioranti si dice **estremo superiore** di $A$ e si indica con $\sup A$:
#
# $$\sup A=\min\{y\in \mathbb{R}\mid y\geq x, \forall x\in A\}$$
#
# **Definizione** Sia $A\subset \mathbb{R}$ un insieme inferiormente limitato. Il massimo dei minoranti si dice **estremo inferiore** di $A$ e si indica con $\inf A$:
#
# $$\inf A=\max\{y\in \mathbb{R}\mid y\leq x, \forall x\in A\}$$
#
# **Teorema** $(\mathbb{R}, \leq)$ è un **insieme totalmente ordinato e completo**, cioè $\forall A\in \mathbb{R}$ inferiormente limitato, l'insieme $M$ dei suoi minoranti ha massimo.
#
# **Proposizione** Ogni sottoinsieme di $\mathbb{R}$ superiormente limitato (risp. inferiormente limitato) ammette estremo superiore (risp. estremo inferiore).
#
# **Definizione** Sia $A\subseteq \mathbb{R}$:
# - se $A$ non possiede maggioranti, diremo che $A$ è un insieme **non superiormente limitato**
#
# $$\sup A=+\infty$$
#
# - se $A$ non possiede minoranti, diremo che $A$ è un insieme **non inferiormente limitato**
#
# $$\inf A=-\infty$$
#
# - se $A$ è limitato sia inferiormente che superiormente, diremo che $A$ è limitato.
#
# **Proposizione** Ogni sottoinsieme di ${R}$ ammette estremo superiore e inferiore (finiti o non finiti)
#
# # Insiemi $\mathbb{N}, \mathbb{Z}, \mathbb{Q}, \mathbb{R}$
#
# ## Intervalli
#
# **Definizione** Siano $a,b\in\mathbb{R}$
# - Intervallo limitato e chiuso
#
# $[a,b]=\{x\in\mathbb{R}\mid a\leq x\leq b\}$
#
# - Intervallo superiormente non limitato e chiuso
#
# $[a,+\infty[=\{x\in\mathbb{R}\mid x\geq a\}$
#
# - Intervallo inferiormente non limitato e chiuso
#
# $]-\infty,b]=\{x\in\mathbb{R}\mid x\leq b\}$
#
# - Intervallo limitato e aperto
#
# $]a,b[=\{x\in\mathbb{R}\mid a< x a\}$
#
# - Intervallo non inferiormente limitato e aperto
#
# $]-\infty,b[=\{x\in\mathbb{R}\mid x< b\}$
#
# - Intervallo chiuso a sinistra e aperto a destra
#
# $[a,b[=\{x\in\mathbb{R}\mid a\leq x< b\}$
#
# - Intervallo chiuso a destra e aperto a sinistra
#
# $]a,b]=\{x\in\mathbb{R}\mid a< x\leq b\}$
#
# ## Proprietà degli insiemi
#
# **Proprietà di densità** $\mathbb{Q}$ è denso in $\mathbb{R}$, ovvero
#
#
$\forall x\in \mathbb{R}\ \forall\epsilon >0\ \ \exists q\in \mathbb{Q}$ tale che $\left |x-q\right |<\epsilon$
#
# **Definizione** Sia $A\subseteq \mathbb{R}$. Diremo che $A$ è un **insieme finito** se esiste $k\in\mathbb{N}$ e $f:\{1,2,...,k\}\xrightarrow[su]{1-1} A$.
#
# Il numero degli elementi k dell'insieme è detto **cardinalità**
#
# $$card(A)=\#A=k$$
#
# **Definizione** Sia $A\subseteq\mathbb{R}$. Diremo che $A$ è **infinito numerabile** se esiste $f:\mathbb{N}\xrightarrow[su]{1-1}A$
#
# **Teorema** $\mathbb{Z}$ e $\mathbb{Q}$ sono insiemi infiniti numerabili.
#
# **Dimostrazione** ($\mathbb{Z}$ è infinito numerabile) È possibile costruire la funzione $f:\mathbb{N}\xrightarrow[su]{1-1}\mathbb{Z}$
#
# $$f=\begin{cases}
# -\frac{n}{2} & \text{ if } n\ è\ pari \\
# \frac{n+1}{2} & \text{ if } n\ è\ dispari
# \end{cases}$$
#
# **Teorema** (di Cantor) L'insieme $[0,1]$ non è numerabile.
#
# **Dimostrazione** Supponiamo per assurdo che possiamo formare una lista in cui contiamo tutti gli elementi di $[0,1]$:
#
# $$x_1=0.a_11a_12a_13a_14...$$
# $$x_2=0.a_21a_22a_23a_24...$$
# $$x_2=0.a_31a_32a_33a_34...$$
#
# Adesso possiamo costruire un numero
# $$b=0.b_1b_2b_3b_4...$$
# tale che
# $$b_k\neq a_kk,\ b_k\in \{1,2,3,4,5,6,7,8\},\ k\geq 1$$
#
# Siccome ogni k-esima cifra di $b$ è diversa dalla k-esima cifra di $x_k$ per costruzione, e avendo escluso la possibilità che $b$ sia la rappresentazione equivalente di ciascun $x_k$, poiché $b$ non può terminare con infiniti 0 o 9, allora b non è nella lista e siamo arrivati ad un assurdo.
#
# **Teorema** $\mathbb{R}$ è non numerabile, come anche l'insieme dei numeri irrazionali $\mathbb{R}\setminus\mathbb{Q}$.
#
# **Definizione** Un insieme $A\subset\mathbb{R}$ dotato di minimo e tale che $x\in A\implies x+1\in A$ è detto **induttivo**
#
# **Proposizione** L'insieme $\mathbb{N}$ dei numeri naturali possiede minimo, è superiormente non limitato ed è il più piccolo insieme induttivo.
#
# # Funzioni
#
# **Definizione** Una **funzione** dall'insieme $A$ all'insieme $B$ è una relazione di $A\times B$ tale che:
# - $\mathcal{D}om(f)=A$
# - $\forall x\in A\ \exists! y\in B$ tale che "y è in relazione con x tramite $f$, cioè $y=fx$
#
# e si indica con $f:A\rightarrow B$
#
# $$\mathcal{G}raf(f)=\{(x,y),\ x\in \mathcal{D}om(A),\ y=f(x)\}=\{(x,f(x)),\ x\in A\}$$
#
# ## Iniettività e suriettività
#
# **Definizione** Siano $A$ e $B$ insiemi e $f: A\rightarrow B$ una funzione
# - Diremo che $f$ è **iniettiva** (1-1) se
#
# $\forall x_1,x_2\in A$ con $x_1\neq x_2$ si ha $f(x_1)\neq f(x_2)$,
#
# - Diremo che $f$ è **suriettiva** (su) se
#
# $\forall y\in B\ \exists x\in A$ tale che $y=f(x)$
#
# - Diremo che $f$ è **biiettiva** (o **biunivoca**) se è sia iniettiva che suriettiva, ovvero
#
# $\forall y\in B\ \exists! x\in A$ tale che $y=f(x)$
#
# ## Immagine e controimmagine tramite $f$
#
# **Definizione** Siano $A,B,C\subset R$, $f:A\rightarrow B$ e $C\subset B$.
#
# L'**insieme immagine** di A tramite $f$ è l'insieme dei valori della funzione $f(x)\in B$
#
# $$f(A)=\mathcal{I}m(f)=\{y\in \mathbb{B}\mid \exists x\in A\ e\ y=f(x)\}$$
#
# L'**insieme controimmagine** di C tramite $f$ è l'insieme dei valori di x tali che $f(x)\in C$
#
# $$f^{-1}(C)=\{x\in A\mid f(x)\in C\}$$
#
# ## Funzione composta
#
# **Definizione** Siano $f:A\rightarrow B$ e $g:B\rightarrow C$ funzioni. La funzione $h:x\in A\rightarrow g(f(x))\in C$ si chiama **funzione composta** di $g$ e $f$ e si indica con $g\circ f$.
#
# **Osservazione** $f(A)\subseteq \mathcal{D}om(B)$
#
# ## Funzione inversa
#
# **Definizione** Sia $f:A\xrightarrow[su]{1-1} B$. Definiamo la **funzione inversa** di $f$, $f^{-1}:B\xrightarrow[su]{1-1} A$, l'unica funzione che verifica le proprietà:
#
# $$\forall x\in A: f^{-1}(f(x))=x$$
# $$\forall y\in B: f(f^{-1}(x))=y$$
#
# ## Funzioni monotone
#
# **Definizione** Sia $A\subseteq\mathbb{R}$. $f:A\rightarrow\mathbb{R}$ è:
# - (monotona) **crescente** se $\forall x_1,x_2\in A$ con $x_1f(x_2)$
#
# **Teorema** Sia $A\subseteq\mathbb{R}$ e $f:A\rightarrow\mathbb{R}$ strettamente monotona. Allora
#
# 1. $f$ è iniettiva da $A$ in $\mathbb{R}$
#
# 2. $\exists f^{-1}:f(A)\xrightarrow[su]{1-1}A$ strettamente monotona nello stesso verso
#
# **Teorema** (monotonia delle funzioni composte) Siano $A,B,C\subset\mathbb{R}$ e $f:A\rightarrow B$ e $g:B\rightarrow C$ funzioni monotone. Allora $g\circ f$ è monotona. In particolare:
# - se $f$ e $g$ sono entrambe crescenti o decrescenti, allora $g\circ f$ è crescente
# - se $f$ è crescente e $g$ decrescente o viceversa, allora $g\circ f$ è decrescente
#
# ## Funzioni limitate
#
# **Definizione** $f:A\rightarrow\mathbb{R}$ si dice **superiormente limitata** su A (risp. **inferiormente limitata**) se
#
# $f(A)=\{y\in\mathbb{R}\mid\exists x\in A\ \text{t.c}\ f(x)=y\}$ è superiormente limitato (risp. inferiormente limitato)
#
# o equivalentemente
#
# $$f(x)\leq m\ \text{(risp. }f(x)\geq m\text{)},\ \forall x\in A$$
#
# Una funzione limitata superiormente e inferiormente è detta **limitata**.
#
# **Definizione** Sia $f:A\rightarrow\mathbb{R}$. Diciamo che $f$ ha massimo se l'insieme $f(A)$ ha massimo, cioè
#
# $$\exists x_0\in A\ \text{tale che}\ f(x)\leq f(x_0),\ \forall x\in A$$
#
# Diremo che f$(x_0)$ è il massimo per A e si scrive
#
# $$\max_{x\in A}f(x)=f(x_0)$$
#
# e $x_0$ è un **punto di massimo**
#
# **Definizione** Sia $f:A\rightarrow\mathbb{R}$. Diciamo che $f$ ha minimo se l'insieme $f(A)$ ha minimo, cioè
#
# $$\exists x_0\in A\ \text{tale che}\ f(x)\geq f(x_0),\ \forall x\in A$$
#
# Diremo che f$(x_0)$ è il minimo per A e si scrive
#
# $$\min_{x\in A}f(x)=f(x_0)$$
#
# e $x_0$ è un **punto di minimo**
#
# **Definizione** Sia $f:A\rightarrow\mathbb{R}$. Chiamiamo **estremo superiore** di $f$ l'estremo superiore di $f(A)$ e si scrive
#
# $\sup_{A}f(x)=\sup f(A)\in\mathbb{R}$ oppure $\sup_{A}f(x)=+\infty$
#
# **Definizione** Sia $f:A\rightarrow\mathbb{R}$. Chiamiamo **estremo inferiore** di $f$ l'estremo inferiore di $f(A)$ e si scrive
#
# $\inf_{A}f(x)=\inf f(A)\in\mathbb{R}$ oppure $\inf_{A}f(x)=-\infty$
#
# # Limiti
#
# **Definizione** Un **intorno aperto** di $x_o\in\mathbb{R}$ è un intervallo aperto del tipo $]x_0-\delta,x_0+\delta[$ con $\delta>0$
#
# **Definizione** Sia $A\subseteq\mathbb{R}$ con $x_0\in\mathbb{R}$. Diremo che $x_0$ è un **punto di accumulazione** per $A$ se
#
# $$\forall\delta>0\ (]x_0-\delta,x_0+\delta[\setminus \{x_0\})\cap A\neq\emptyset$$.
#
# Ovvero per ogni intorno $]x_0-\delta,x_0+\delta[$ esistono punti $x\in A$ distinti da $x_0$ nell'intersezione di $A$ con l'intorno $]x_0-\delta,x_0+\delta[$.
#
# **Osservazione** Se $x_0$ è un punto di accumulazione per $A$, allora $\forall\delta>0\ (]x_0-\delta,x_0+\delta[\setminus \{x_0\})\cap A$ contiene infiniti punti.
#
# **Dimostrazione** Supponiamo per assurdo che
#
# $$\forall\overline\delta>0\ (]x_0-\delta,x_0+\delta[\setminus \{x_0\})\cap A=\{y_1,y_2,y_3,...,y_n\}$$
#
# Prendo $\delta_k=\left | y_k-x_0\right |$ con $k=0,1,2,...,n$.
#
# Prendo $0<\delta<\min\{\delta_1,\delta_2,...,\delta_n\}$.
#
# Allora $(]x_0-\delta,x_0+\delta[\setminus \{x_0\})\cap A\neq\emptyset$
#
# **Teorema** (di Bolzano-Weierstrass) Un insieme $A\subset\mathbb{R}$ infinito e limitato ha almeno un punto di accumulazione.
#
# ## Limiti per $x\rightarrow x_0$
#
# **Definizione** (limite convergente) Sia $A\subset\mathbb{R}$, $f:A\rightarrow\mathbb{R}$, $x_0$ punto di accumulazione per $A$ e $l\in\mathbb{R}$. Diciamo che per $x\rightarrow x_0\ f(x)$ converge a $l$ e scriviamo:
#
# $$\lim_{x\rightarrow x_0}{f(x)}=l\ \text{se}$$
#
# $$\forall\epsilon>0\ \exists\delta>0:\ \forall x\in A,\ x\neq x_0\ \left |x-x_0\right |<\delta\implies \left |f(x)-l\right |<\epsilon$$
#
# **Definizione** (limite divergente) Sia $A\subset\mathbb{R}$, $f:A\rightarrow\mathbb{R}$ e $x_0$ punto di accumulazione per $A$. Diciamo che per $x\rightarrow x_0\ f(x)$ diverge positivamente (risp. diverge negativamente) e scriviamo:
#
# $$\lim_{x\rightarrow x_0}{f(x)}=+\infty\ \text{(risp.}\ \lim_{x\rightarrow x_0}{f(x)}=-\infty \text{) se}$$
#
# $$\forall\epsilon>0\ \exists\delta>0:\ \forall x\in A,\ x\neq x_0\ f(x)>\epsilon\ \text{(risp.}\ f(x)<-\epsilon \text{)}$$
#
# **Osservazione** Se $\lim_{x\rightarrow x_0}{f(x)}=+\infty\ \text{(risp.}\ -\infty\text{)}$ allora significa che $f$ è non superiormente limitata (risp. non inferiormente limitata) nel suo codominio.
#
# ## Limiti per $x\rightarrow\pm\infty$
#
# **Definizione** Diciamo che $x_0=+\infty$ (risp. $-\infty$) è un punto di accumulazione per $A$, insieme non limitato superiormente (risp. non limitato inferiormente) se $\forall\delta>0\ A\cap ]\delta,+\infty[\neq\emptyset$ (risp. $A\cap ]-\infty,\delta[\neq\emptyset$).
#
# **Definizione** (limite convergente) Sia $A\subset\mathbb{R}$ non superiormente limitato (risp. non inferiormente limitato), $f:A\rightarrow B$ e $l\in\mathbb{R}$. Diciamo che per $x\rightarrow +\infty$ (risp. $-\infty$) $f(x)$ converge a $l$ e scriviamo:
#
# $$\lim_{x\rightarrow +\infty}{f(x)}=l\ \text{(risp.}\ \lim_{x\rightarrow -\infty}{f(x)}=l\text{)}\ se$$
#
# $$\forall\epsilon>0\ \exists\delta>0:\ \forall x\in A,\ x>\delta\ \text{(risp.}\ x<-\delta\text{)}\ \left |f(x)-l\right |<\epsilon$$
#
# **Definizione** (limite divergente) Sia $A\subset\mathbb{R}$ non superiormente limitato (risp. non inferiormente limitato), $f:A\rightarrow\mathbb{R}$. Diciamo che per $x\rightarrow\pm\infty$ $f(x)$ diverge positivamente (risp. diverge negativamente) a $l$ e scriviamo:
#
# $$\lim_{x\rightarrow\pm\infty}{f(x)}=+\infty\ \text{(risp.}\ \lim_{x\rightarrow -\infty}{f(x)}=-\infty\text{)}\ se$$
#
# $$\forall\epsilon>0\ \exists\delta>0:\ \forall x\in A,\ x>\delta\ \text{(risp.}\ x<-\delta\text{)}\ f(x)>\epsilon\ \text{(risp.}\ f(x)<-\epsilon\text{)}$$
#
# ## Limite destro e limite sinistro
#
# **Definizione** Siano $f:A\rightarrow\mathbb{R}$, $A\subset\mathbb{R}$ e $x_0\in\mathbb{R}$ punto di accumulazione per $A\cap]x_0,+\infty[$ (risp. $A\cap]-\infty,x_0[$). Diciamo che $f$ ha limite destro (risp. limite sinistro) $l\in\overline{\mathbb{R}}$ per $x\rightarrow x_0^{+}$ (risp. $x\rightarrow x_0^{-}$) se $l$ è il limite per $x\rightarrow x_0$ di $f$ ristretta a $A\cap]x_0,+\infty[$ (risp. $A\cap]-\infty,x_0[$) e scriviamo:
#
# $$\lim_{x\rightarrow x_0^{+}}{f(x)}=l\ \text{(risp.}\ \lim_{x\rightarrow x_0^{-}}{f(x)}=l\text{)}$$
#
# ## Teoremi e proprietà dei limiti
#
# **Osservazione** Se $x_0$ è punto di accumulazione per $A$ allora $\forall\overline\delta>0$ $x_0$ è punto di accumulazione per $A_0=A\cap ]x_0-\overline\delta,x_0+\overline\delta[$.
#
# **Teorema** (località del limite) Sia $f:A\rightarrow\mathbb{R}$, $x_0\in\overline{\mathbb{R}}$ punto di accumulazione per $A$ e $l\in\overline{\mathbb{R}}$. Sia $\overline\delta>0$ e $A_0=A\cap ]x_0-\overline\delta,x_0+\overline\delta[$. Allora $x_0$ è un punto di accumulazione per $A_0$ e
#
# $$\lim_{x\rightarrow x_0}{f\mid_A(x)}=l \iff \lim_{x\rightarrow x_0}{f\mid_{A_0}(x)}=l$$
#
# **Teorema** (unicità del limite) Sia $f:A\rightarrow\mathbb{R}$ e $x_0$ punto di accumulazione per $A$. Allora il limite $\displaystyle \lim_{x\rightarrow x_0}{f(x)}$ se esiste è unico.
#
# **Dimostrazione** Supponiamo per assurdo che esistano due limiti $l_1$ e $l_2$ distinti, ovvero $l_1\neq l_2$. Dimostriamo $l_1=l_2$. Per la definizione di limite sia ha che $\forall\epsilon>0\ \left|f(x)-l_1\right|<\epsilon$ e $\left|f(x)-l_2\right|<\epsilon$. Sommando i membri delle disuguaglianze si ottiene
#
# $$\left|f(x)-l_1\right|+\left|f(x)-l_2\right| < 2\epsilon$$
#
# Siccome $\left|f(x)-l_1\right|=\left|l_1-f(x)\right|$, per la disuguaglianza triangolare si ha
#
# $$\left|l_1-l_2\right|<\left|f(x)-l_1\right|+\left|f(x)-l_2\right| < 2\epsilon$$
#
# Da cui $\left|l_1-l_2\right| < 2\epsilon$ e, per l'aribtrarietà di $\epsilon$, $\left|l_1-l_2\right|=0$ e quindi $l_1=l_2$.
#
# **Teorema** (locale limitatezza di f) Sia $f:A\rightarrow\mathbb{R}$, $x_0$ punto di accumulazione per $A$, $l\in\mathbb{R}$ e $\displaystyle \lim_{x\rightarrow x_0}{f(x)}=l$. Allora $\exists\delta>0$ tale che f ristretta all'insieme $A\cap ]x_0-\delta, x_0+\delta[$ è una funzione limitata.
#
# **Osservazione** In particolare se $f(x)$ è non superiormente o non inferiormente limitata, allora $\lim_{x\rightarrow x_0}{f(x)}$ o non esiste, o se esiste non può essere finito, ovvero $l\notin\mathbb{R}$.
#
# **Teorema** Sia $f:A\rightarrow\mathbb{R}$, $x_0$ punto di accumulazione per $A\cap ]-\infty, x_0[$ e $A\cap ]x_0,+\infty[$, $l\in\overline{\mathbb{R}}$. Allora
#
# $$\displaystyle\lim_{x\rightarrow x_0}{f(x)}=l \iff \lim_{x\rightarrow x_0^+}{f(x)}=\lim_{x\rightarrow x_0^-}{f(x)}=l$$
#
# **Osservazione** Se $\displaystyle \lim_{x\rightarrow x_0^+}{f(x)}\neq\lim_{x\rightarrow x_0^-}{f(x)}$ oppure uno dei due limiti (destro/sinistro) non esiste allora $\nexists\lim_{x\rightarrow x_0}{f(x)}$.
#
# **Teorema** (limiti di funzioni monotone) Sia $f:A\rightarrow\mathbb{R}$ una funzione monotona crescente. Sia $x_0\in]a,b[$. Allora
#
# 1. $\displaystyle\exists\lim_{x\rightarrow x_0^+}{f(x)}=\inf_{x\in ]x_0,b]}{f(x)}$
#
# 2. $\displaystyle\exists\lim_{x\rightarrow x_0^-}{f(x)}=\sup_{x\in[a,x_0[}{f(x)}$
#
# 3. $\displaystyle\exists\lim_{x\rightarrow a^+}{f(x)}=\inf_{x\in]a,b]}{f(x)}$
#
# 4. $\displaystyle\exists\lim_{x\rightarrow b^-}{f(x)}=\sup_{x\in[a,b[}{f(x)}$
#
# **Teorema** Siano $f,g:A\rightarrow\mathbb{R}$ e $x_0\in\mathbb{R}$ punto di accumulazione per $A$ (oppure $x_0=+\infty$ e $A$ non superiormente limitato, oppure $x_0=-\infty$ e $A$ non inferiormente limitato), $l,m\in\overline{\mathbb{R}}$. Supponiamo che $\displaystyle\lim_{x\rightarrow x_0}{f(x)}=l$ e $\displaystyle\lim_{x\rightarrow x_0}{g(x)}=m$. Allora:
#
# 1. se $f(x)\leq g(x)\ \forall x\in A$ si ha $l\leq m$
#
# 2. se $l0$ tale che $f(x)0$ tale che $g(x)\neq 0\ \forall x\in A\cap]x_0-\delta,x_0+\delta[,\ x\neq x_0$
#
# 4. Se $m\neq 0$ allora la funzione $\frac{f}{g}$ ha limite $\frac{l}{m}$ per $x\rightarrow x_0$, cioè $\displaystyle\lim_{x\rightarrow x_0}{\frac{f(x)}{g(x)}}=\frac{l}{m}$
#
# 5. Se $c\in\mathbb{R}$ è una costante, allora $\displaystyle\lim_{x\rightarrow x_0}{[c\cdot f(x)]}=c\cdot l$.
#
# **Definizione** $f:A\rightarrow\mathbb{R}$ con $A\subset\mathbb{R}$ è **infinitesimo** $(x\rightarrow x_0)$ se
#
# $$\lim_{x\rightarrow x_0}{f(x)}=0$$
#
# $f$ è **infinito** $(x\rightarrow x_0)$ se
#
# $$\lim_{x\rightarrow x_0}{\left|f(x)\right|}=+\infty$$
#
# **Teorema** (proprietà algebriche degli infinitesimi) Siano $A\subseteq\mathbb{R}$, $f,g:A\rightarrow\mathbb{R}$, $x_0$ punto di accumulazione per $A$ (oppure $x_0=+\infty$ e $A$ non superiormente limitato, oppure $x_0=-\infty$ e $A$ non inferiormente limitato) e $\displaystyle\lim_{x\rightarrow x_0}{f(x)}=0$. Allora:
#
# 1. Se $\exists M>0$ tale che $\left|g(x)\right|0$ tale che $g(x)\geq M,\ \forall x\in A$, allora $\displaystyle\lim_{x\rightarrow x_0}{[f(x)\cdot g(x)]}=+\infty$
#
# 3. Se $\exists M\in\mathbb{R},\ M<0$ tale che $g(x)\leq M,\ \forall x\in A$, allora $\displaystyle\lim_{x\rightarrow x_0}{[f(x)\cdot g(x)]}=-\infty$
#
# 4. $\displaystyle\lim_{x\rightarrow x_0}{\frac{1}{f(x)}}=0$.
#
# Analogamente per $\displaystyle\lim_{x\rightarrow x_0}{f(x)}=-\infty$:
#
# 1. Se $\exists M\in\mathbb{R}$ tale che $g(x)\leq M,\ \forall x\in A$, allora $\displaystyle\lim_{x\rightarrow x_0}{[f(x)+g(x)]}=-\infty$
#
# 2. Se $\exists M\in\mathbb{R},\ M>0$ tale che $g(x)\geq M,\ \forall x\in A$, allora $\displaystyle\lim_{x\rightarrow x_0}{[f(x)\cdot g(x)]}=-\infty$
#
# 3. Se $\exists M\in\mathbb{R},\ M<0$ tale che $g(x)\leq M,\ \forall x\in A$, allora $\displaystyle\lim_{x\rightarrow x_0}{[f(x)\cdot g(x)]}=+\infty$
#
# 4. $\displaystyle\lim_{x\rightarrow x_0}{\frac{1}{f(x)}}=0$.
#
# ## Simboli di Landau
#
# **Definizione** (o-piccolo) $f$ si dice **o-piccolo di 1**, $(x\rightarrow x_0)$, e si scrive
#
# $$f(x) = o(1),\ (x\rightarrow x_0),\ \ \ \ se \lim_{x\rightarrow x_0}{f(x)}=0$$
#
# $f$ si dice **o-piccolo di $\bf g$**, $(x\rightarrow x_0)$, e si scrive
#
# $$f(x) = o(g(x)),\ (x\rightarrow x_0),\ \ \ \ se \lim_{x\rightarrow x_0}{\frac{f(x)}{g(x)}}=0$$
#
# Se $f(x) = o(g(x)),\ (x\rightarrow x_0)$, $f$ si dice **trascurabile** rispetto a g, $(x\rightarrow x_0)$.
#
# **Definizione** (equivalenza) $f$ si dice **equivalente** a $g$, $(x\rightarrow x_0)$, e si scrive
#
# $$f(x)\approx g(x),\ (x\rightarrow x_0),\ \ \ \ se \lim_{x\rightarrow x_0}{\frac{f(x)}{g(x)}}=1$$
#
# **Teorema** Siano $f,g:A\rightarrow\mathbb{R}$.
#
# $$f(x)\approx g(x),\ (x\rightarrow x_0)\iff f(x)=g(x)+o(g(x)),\ (x\rightarrow x_0)$$
#
# **Teorema** Se $f_1\approx f_2$ e $g_1\approx g_2$, $(x\rightarrow x_0)$, allora
#
# $$f_1g_1\approx f_2g_2,\ (x\rightarrow x_0);\ \ \frac{f_1}{g_1}\approx\frac{f_2}{g_2},\ (x\rightarrow x_0)$$
#
# **Teorema** (principio di sostituzione)
#
# $$\lim_{x\rightarrow x_0}{\frac{f+o(f)}{g+o(g)}}=\lim_{x\rightarrow x_0}{\frac{f}{g}}$$
#
# **Proposizione** Siano $f,g,h:A\rightarrow\mathbb{R}$. Se $l+m\neq 0$ e
#
# $$\left.\begin{matrix}f(x)\approx lh(x),\ (x\rightarrow x_0)\\g(x)\approx mh(x),\ (x\rightarrow x_0)\end{matrix}\right\}\implies [f(x)+g(x)]\approx (l+m)h(x),\ (x\rightarrow x_0)$$
#
# ## Funzioni continue
#
# **Definizione** Siano $A\subseteq\mathbb{R}$, $f:A\rightarrow\mathbb{R}$. Diremo che $f$ è continua in $x_0\in A$ se
#
# $$\forall\epsilon>0\ \exists\delta>0:\left|f(x)-f(x_0)\right|<\epsilon\ \forall x\in A\cap]x_0-\delta, x_0+\delta[$$
#
# 1. Se $x_0$ è un punto isolato, quindi non di accumulazione, allora $f$ è banalmente continua in $x_0$
#
# 2. Se $x_0$ è un punto di accumulazione, allora la definizione è equivalente a
#
# $$f\ è\ continua\iff \lim_{x\rightarrow x_0}{f(x)}=f(x_0)$$
#
# **Definizione** $f:A\rightarrow\mathbb{R}$, $A\subset\mathbb{R}$ è una funzione continua su $A$ se $f$ è continua in tutti i punti di $A$.
#
# **Teorema** (continuità della funzione composta) Siano $A,B\subseteq\mathbb{R}$, $f:A\rightarrow B$, $g:B\rightarrow\mathbb{R}$. Se $f$ è continua in $x_0\in A$ e $g$ è continua in $y_0=f(x_0)$, allora $f\circ g:A\rightarrow\mathbb{R}$ è continua in $x_0$.
#
# **Teorema** (permanenza del segno) Se $f:A\rightarrow\mathbb{R}$ è continua in $x_0\in A$ e $f(x_0)>0$ (risp. $f(x_0)<0$) allora
#
# $$\exists\delta>0:\ f(x)>0\ \text{(risp. }f(x)< 0 \text{)}\ \forall x\in A\cap]x_0-\delta,x_0+\delta[$$
#
# **Teorema** (di Weierstrass) Sia $f:[a,b]\rightarrow\mathbb{R}$ continua in $[a,b]$. Allora $\displaystyle\exists\max_{[a,b]}f$ e $\displaystyle\exists\min_{[a,b]}f$.
#
# Il teorema è valido anche per $\displaystyle{A=\bigcup_{i=1}^k{[a_i,b_i]}}$ ed è valido in generale se $A$ è un insieme limitato e chiuso.
#
# **Teorema** (degli zeri) Sia $f:[a,b]\rightarrow\mathbb{R}$ continua in $[a,b]$ e tale che $f(a)< 0< f(b)$. Allora $\exists c\in ]a,b[$ tale che $f(c)=0$.
#
# **Teorema** (dei valori intermedi) Sia $f:[a,b]\rightarrow\mathbb{R}$ continua in $[a,b]$. Allora $f$ assume tutti i valori compresi tra $f(a)$ e $f(b)$.
#
# $$\displaystyle [f(a),f(b)]=\{y\in\mathbb{R}\mid\exists x\in A,\ y=f(x)\}=\mathcal{I}m_{[a,b]}(f)$$
#
# **Teorema** (di Bolzano) Siano $I\subset\mathbb{R}$ intervallo e $f:I\rightarrow\mathbb{R}$ continua in $I$. Allora $f(I)=\mathcal{I}m(f)$ è un intervallo.
#
# **Teorema** (funzioni monotone e continuità) Siano $I\subset\mathbb{R}$ intervallo e $f:I\rightarrow\mathbb{R}$ monotona. Allora $f\ è\ continua\iff f(I)\ è\ un\ intervallo$.
#
# **Teorema** (continuità funzione inversa) Siano $I\subset\mathbb{R}$ intervallo e $f:I\rightarrow\mathbb{R}$ continua e strettamente monotona in $I$. Allora $f^{-1}:f(I)\rightarrow I$ è strettamente monotona e continua nell'intervallo $f(I)$.
#
# **Dimostrazione** Per il teorema di Bolzano $f(I)$ è un intervallo perché $f:I\rightarrow\mathbb{R}$ è continua.
#
# $f$ è strettamente monotona quindi $\exists\ f^{-1}:f(I)\xrightarrow[su]{1-1} I$.
#
# Per il teorema precedente $f^{-1}$ è continua perché $I$ è un intervallo.
#
# **Corollario** (di Bolzano-Weierstrass) Se $f:[a,b]\rightarrow\mathbb{R}$ continua in $[a,b]$ allora $\displaystyle f([a,b])=[\min_{[a,b]}f,\max_{[a,b]}f]$.
#
# # Derivazione
#
# **Definizione** Sia $f:[a,b]\rightarrow\mathbb{R}$, $x_0\in [a,b]$. Chiamiamo **rapporto incrementale** di $f$ rispetto a $x_0$
#
# $$R(x)=\frac{f(x)-f(x_0)}{x-x_0},\ \ \ \ R:[a,b]\setminus\{x_0\}\rightarrow\mathbb{R}$$
#
# **Definizione** Siano $f:A\rightarrow\mathbb{R}$ e $x_0\in A$. Posto
#
# $$f'(x_0)=\frac{\mathrm{d} f}{\mathrm{d} x}(x_0)=\lim_{x\rightarrow x_0}{\frac{f(x)-f(x_0)}{x-x_0}},\ \ \ \ \frac{\mathrm{d} f}{\mathrm{d} x}(x_0)\in\overline{\mathbb{R}}$$
#
# Se $\frac{\mathrm{d} f}{\mathrm{d} x}(x_0)\in\mathbb{R}$ si dice che $f$ è derivabile in $x_0$.
#
# **Osservazione** Sia $f:[a,b]\rightarrow\mathbb{R}$.
#
# $$\mathcal{D}om(f') = \{x\in [a,b]\mid\exists\ f'(x)\in\mathbb{R}\}$$
#
# **Teorema** Sia $f:[a,b]\rightarrow\mathbb{R}$ derivabile in $x_0\in\mathbb{R}$. Allora $f(x)$ è continua in $x_0$.
#
# **Dimostrazione** $\displaystyle\lim_{x\rightarrow x_0}{f(x)}=f(x_0)\iff\lim_{x\rightarrow x_0}{[f(x)-f(x_0)]}=0$
#
# $$\lim_{x\rightarrow x_0}{[f(x)-f(x_0)]}=\lim_{x\rightarrow x_0}{\frac{f(x)-f(x_0)}{x-x_0}(x-x_0)}=f'(x_0)\lim_{x\rightarrow x_0}{(x-x_0)}=0$$
#
# **Definizione** Sia $f:A\rightarrow\mathbb{R}$ e $x_0\in A$. Supponiamo che $x_0$ sia punto di accumulazione per $A\cap]x_0,+\infty[$ e $A\cap]-\infty,x_0[$. Chiameremo **derivata destra** di $f(x_0)$, se esiste, il limite destro del rapporto incrementale:
#
# $$f'_{+}(x_0)=\lim_{x\rightarrow x_0^+}{\frac{f(x)-f(x_0)}{x-x_0}}$$
#
# Analogamente chiamaremo **derivata sinistra**, se esiste, il limite sinistro del rapporto incrementale:
#
# $$f'_{-}(x_0)=\lim_{x\rightarrow x_0^-}{\frac{f(x)-f(x_0)}{x-x_0}}$$
#
# **Definizione** Sia $f$ una funzione continua in $x_0$. Se esistono finite (o una finita e una infinita), ma distinte, le derivata destra e sinistra, allora si dice che $f$ ha un **punto angoloso** in $x_0$.
#
# **Definizione** Sia $f$ una funzione continua in $x_0$. Se esistono infinite e di segno opposto le derivate destra e sinistra, allora si dice che $f$ ha una **cuspide** in $x_0$.
#
# **Definizione** Sia $f$ una funzione continua in $x_0$. Se $\left|f(x)\right|=+\infty$ allora si dice che $f$ ha un **punto di flesso a tangente verticale** in $x_0$.
#
# ## Regole di derivazione
#
# **Teorema** (linearità della funzione derivata) Siano $f,g:[a,b]\rightarrow\mathbb{R}$ derivabili in $x_0\in [a,b]$ e $\lambda,\mu\in\mathbb{R}$. Allora $\lambda f+\mu g$ è derivabile in $x_0$ e la derivata è:
#
# $$\frac{\mathrm{d}}{\mathrm{d} x}[\lambda f+\mu g] (x_0)=\lambda f'(x)+\mu g'(x)$$
#
# **Dimostrazione**
#
# $$\lim_{x\rightarrow x_0}{\frac{\lambda f(x)+\mu g(x) - [\lambda f(x_0)+\mu g(x_0)]}{x-x_0}} = $$
#
# $$= \lim_{x\rightarrow x_0}{\left[\frac{\lambda f(x)-\lambda f(x_0)}{x-x_0} + \frac{\mu g(x)-\mu g(x_0)}{x-x_0}\right]} = $$
#
# $$= \lim_{x\rightarrow x_0}{\left[\lambda\frac{f(x)-f(x_0)}{x-x_0} + \mu\frac{g(x)-g(x_0)}{x-x_0}\right]} = $$
#
# $$= \lambda f'(x)+\mu g'(x)$$
#
# **Teorema** (Regola di Leibniz) Siano $f,g:[a,b]\rightarrow\mathbb{R}$ derivabili in $x_0\in [a,b]$. Allora la funzione $f\cdot g$ è derivabile in $x_0$ e:
#
# $$\frac{\mathrm{d}}{\mathrm{d} x}(f\cdot g)(x_0) = f'(x_0)g(x_0)+f(x_0)g'(x_0)$$
#
# **Dimostrazione**
#
# $$\lim_{x\rightarrow x_0}{\frac{f(x)g(x)-f(x_0)g(x_0)}{x-x_0}}=$$
#
# $$=\lim_{x\rightarrow x_0}{\frac{f(x)g(x)-f(x_0)g(x_0)+f(x_0)g(x)-f(x_0)g(x)}{x-x_0}}=$$
#
# $$=\lim_{x\rightarrow x_0}{\left(g(x)\frac{f(x)-f(x_0)}{x-x_0} + f(x)\frac{g(x)-g(x_0)}{x-x_0}\right)}=$$
#
# $$=\lim_{x\rightarrow x_0}{\left(g(x)f'(x_0)+f(x_0)g'(x_0)\right)}=$$
#
# $$=g(x_0)f'(x_0)+f(x_0)g'(x_0)$$
#
# **Teorema** (funzione reciproca) Siano $f,g:[a,b]\rightarrow\mathbb{R}$ derivabili in $x_0\in [a,b]$ e $f(x_0)\neq 0$. Allora $\exists\frac{1}{f}:]x_0-\delta,x_0+\delta[\cap[a,b]\rightarrow\mathbb{R}$ derivabile in $x_0$ e:
#
# $$\frac{\mathrm{d}}{\mathrm{d} x}(\frac{1}{f})(x_0)=-\frac{f'(x_0)}{f^2(x_0)}$$
#
# **Dimostrazione**
#
# $$\lim_{x\rightarrow x_0}{\frac{\frac{1}{f(x)}-\frac{1}{f(x_0)}}{x-x_0}}=\lim_{x\rightarrow x_0}{\frac{f(x_0)-f(x)}{f(x)f(x_0)(x-x_0)}}=\lim_{x\rightarrow x_0}{-\frac{f(x)-f(x_0)}{f(x)f(x_0)(x-x_0)}}=-\frac{1}{f^2(x_0)}f'(x)$$
#
# **Corollario** (rapporto di funzioni) Siano $f,g:[a,b]\rightarrow\mathbb{R}$ derivabili in $x_0\in [a,b]$ e $g(x_0)\neq 0$. Allora la funzione $\frac{f}{g}:]x_0-\delta,x_0+\delta[\cap[a,b]\rightarrow\mathbb{R}$ derivabile in $x_0$ e:
#
# $$\frac{\mathrm{d}}{\mathrm{d} x}(\frac{f}{g})(x_0)=\frac{f'(x_0)g(x_0)-f(x_0)g'(x_0)}{g^2(x_0)}$$
#
# **Dimostrazione**
#
# $$\frac{\mathrm{d}}{\mathrm{d} x}\frac{f}{g}(x_0)=\frac{\mathrm{d}}{\mathrm{d} x}\left[f\cdot\frac{1}{g}\right] (x_0) = $$
#
# $$= f'(x_0)\frac{1}{g}(x_0)+f(x_0)\frac{\mathrm{d}}{\mathrm{d} x}\left(\frac{1}{g}\right)(x_0) = $$
#
# $$= \frac{f'(x_0)}{g(x_0)}-\frac{f(x_0)g'(x_0)}{g^2(x_0)} = $$
#
# $$= \frac{f'(x_0)g(x_0)-f(x_0)g'(x_0)}{g^2(x_0)}$$
#
# **Teorema** (funzione composta) Supponiamo $I,J\in\mathbb{R}$ intervalli, $x_0\in I$, $f:I\rightarrow J$ derivabile in $x_0$ e $g:J\rightarrow\mathbb{R}$ derivabile in $y_0=f(x_0)\in J$. Allora la funzione composta $g\circ f:I\rightarrow\mathbb{R}$ è derivabile in $x_0$ e:
#
# $$\frac{\mathrm{d}}{\mathrm{d} x}(g\circ f)(x_0)=\frac{\mathrm{d} g}{\mathrm{d} y}(f(x_0))\frac{\mathrm{d} f}{\mathrm{d} x}(x_0)$$
#
# **Teorema** (funzione inversa) Sia $I\subseteq\mathbb{R}$ intervallo e $f:I\xrightarrow[su]{1-1}\mathbb{R}$ strettamente monotona e continua (quindi $\exists\ f^{-1}:f(I)\xrightarrow[su]{1-1}I$ strettamente monotona e continua). Se $\exists\ f'(x_0)\neq 0$ allora:
#
# $$(f^{-1})'(y_0)=\frac{1}{\frac{\mathrm{d} f}{\mathrm{d} x}(f^{-1}(y_0))}$$
#
# **Dimostrazione** Il limite del rapporto incrementale è:
#
# $$\lim_{y\rightarrow y_0}{\frac{f^{-1}(y)-f^{-1}(y_0)}{y-y_0}}$$
#
# Siccome $f^{-1}$ è la funzione inversa, allora $f^{-1}(y)=x$, $f^{-1}(y_0)=x_0$, $y=f(x)$ e $y_0=f(x_0)$. Inoltre sappiamo che $f^{-1}$ risulta continua su $J$ e si può effettuare il cambiamento di variabile, quindi
#
# $$[y\rightarrow y_0]\implies[f^{-1}(y)\rightarrow f^{-1}(y_0)]=[x\rightarrow x_0]$$
#
# Allora abbiamo:
#
# $$\lim_{x\rightarrow x_0}{\frac{x-x_0}{f(x)-f(x_0)}}=\frac{1}{f'(x_0)}=\frac{1}{f'(f^{-1}(y_0))}$$
#
# **Teorema** (di Lagrange) Sia $f:[a,b]\rightarrow\mathbb{R}$ continua in $[a,b]$ e derivabile in $]a,b[$. Allora $\exists c\in ]a,b[$ tale che
#
# $$f'(c)=\frac{f(b)-f(a)}{b-a}$$
#
# **Teorema** (di Rolle) Sia $f:[a,b]\rightarrow\mathbb{R}$ continua in $[a,b]$ e derivabile in $]a,b[$. Se $f(a)=f(b)$ allora necessariamente $\exists c\in ]a,b[$ tale che:
#
# $$f'(c)=0$$
#
# **Dimostrazione** Per il teorema di Weierstrass, siccome $f:[a,b]\rightarrow\mathbb{R}$ continua in $[a,b]$, $\exists\min_{[a,b]}f$ e $\exists\max_{[a,b]}f$.
#
# 1. Se $\displaystyle\min_{[a,b]}f=\max_{[a,b]}f$ allora $f$ è costante e quindi $f'(x)=0\ \forall x\in [a,b]$
#
# 2. Se $\displaystyle\min_{[a,b]}f\neq\max_{[a,b]}f$ allora almeno uno è raggiunto in $c\in ]a,b[$. Supponiamo per semplicità $\displaystyle c=\min_{[a,b]}f$ e calcoliamo il limite destro e sinistro del rapporto incrementale:
#
# $$\left.\begin{matrix}\lim_{x\rightarrow c^+}\frac{f(x)-f(c)}{x-c}\geq 0\\\\\lim_{x\rightarrow c^-}\frac{f(x)-f(c)}{x-c}\leq 0\end{matrix}\right\}\implies f'(c)=0$$
#
# Con un ragionamento analogo si dimostra anche il caso in cui $\displaystyle c=\max_{[a,b]}$.
#
# **Teorema** (di Fermat) Sia $f:]a,b[\rightarrow\mathbb{R}$. Se $c\in]a,b[$ è un punto di massimo o di minimo per $f$ e $\exists f'(c)$ allora necessariamente $f'(c)=0$.
#
# **Dimostrazione** È sufficiente studiare il segno del rapporto incrementale quando $x\rightarrow c^+$ e $x\rightarrow c^-$. SUpponiamo quindi che $c$ sia un punto di minimo.
#
# $$\left.\begin{matrix}\lim_{x\rightarrow c^+}\frac{f(x)-f(c)}{x-c}\geq 0\\\\\lim_{x\rightarrow c^-}\frac{f(x)-f(c)}{x-c}\leq 0\end{matrix}\right\}\implies f'(c)=0$$
#
# Con un ragionamento analogo si dimostra anche il caso in cui $c$ sia un punto di massimo.
#
# **Teorema** (di De l'Hôpital) Siano $f,g:[a,b]\rightarrow\mathbb{R}$ derivabili in ]a,b[. Se
#
# 1. $\displaystyle\lim_{x\rightarrow a^+}{f(x)}=0=\lim_{x\rightarrow a^+}{g(x)}$
#
# 2. $g'(x)$ ha segno costante $\forall x\in ]a,b[$ (è sufficiente che non cambi di segno in un insieme con punti di accumulazione)
#
# 3. $\displaystyle\exists\lim_{x\rightarrow a^+}{\frac{f'(x)}{g'(x)}}=l\in\overline{\mathbb{R}}$
#
# Allora
#
# $$\exists\lim_{x\rightarrow a^+}{\frac{f(x)}{g(x)}}=l$$
#
# **Teorema** (di De l'Hôpital) Siano $f,g:[a,b]\rightarrow\mathbb{R}$ derivabili in ]a,b[. Se
#
# 1. $\displaystyle\lim_{x\rightarrow a^+}{\left|f(x)\right|}=+\infty=\lim_{x\rightarrow a^+}{\left|g(x)\right|}$
#
# 2. $g'(x)$ ha segno costante $\forall x\in ]a,b[$ (è sufficiente che non cambi di segno in un insieme con punti di accumulazione)
#
# 3. $\displaystyle\exists\lim_{x\rightarrow a^+}{\frac{f'(x)}{g'(x)}}=l\in\overline{\mathbb{R}}$
#
# Allora
#
# $$\exists\lim_{x\rightarrow a^+}{\frac{f(x)}{g(x)}}=l$$
#
# **Corollario** Sia $f:[a,b]\rightarrow\mathbb{R}$ continua in $[a,b]$ e derivabile in $]a,b[$. Se $\displaystyle\exists\lim_{x\rightarrow a^+}{f'(x)}=l\in\overline{\mathbb{R}}$ allora $\displaystyle\exists\ f'(a)=l$
#
# **Dimostrazione**
#
# $$f'(a)=\lim_{x\rightarrow a^+}{\frac{f(x)-f(a)}{x-a}}=\lim_{x\rightarrow a^+}{f'(a)}=l$$
#
# **Definizione** Siano $f:I\rightarrow\mathbb{R}$, $I$ intervallo e $f'$ la derivata di $f$. Chiamiamo $I'$ l'insieme dei punti di $I$ in cui esiste $f'$
#
# $$I'=\{x\in I\mid\exists\ f'(x)\in\mathbb{R}\}$$
#
# Possiamo ora definire la **derivata seconda** di $f$, ovvero la derivata di $f':I'\rightarrow\mathbb{R}$, in $x_0$, se esiste,
#
# $$f''(x_0)=\lim_{x\rightarrow x_0}{\frac{f'(x)-f'(x_0)}{x-x_0}}$$
#
# Più in generale, se $f,f',f'',...f^{(k+1)}:I\rightarrow\mathbb{R}$ e $x_0\in I$ possiamo definire la derivata k-esima di $f$ in $x_0$
#
# $$f^{k}(x_0)=\lim_{x\rightarrow x_0}{\frac{f^{(k-1)}(x)-f^{(k-1)}(x_0)}{x-x_0}}$$
#
# **Definizione** Definiamo la **classe di una funzione** da $I\subset\mathbb{R}$ intervallo a $\mathbb{R}$ di ordine k come l'insieme delle funzioni di variabile reale derivabili con continuità k volte, e scriviamo:
#
# $$\mathcal{C}^{(k)}(I,\mathbb{R})=\{f:I\rightarrow\mathbb{R}\mid f\ continua\ in\ I\}$$
#
# **Osservazione** $\mathcal{C}^{(\infty)}(I,\mathbb{R})\subsetneqq ... \subsetneqq\mathcal{C}^{(1)}(I,\mathbb{R})\subsetneqq\mathcal{C}^{(0)}(I,\mathbb{R})$
#
# # Polinomi di Taylor
#
# **Definizione** Sia $f:I\rightarrow\mathbb{R}$, $I$ intervallo, derivabile $n$ volte in $x_0\in I$. Chiamiamo **polinomio di Taylor di $\bf f$** di ordine $n$ e punto iniziale $x_0$ il polinomio
#
# $$T_n(x)=f(x_0)+f'(x)(x-x_0)+\frac{f''(x_0)}{2!}(x-x_0)^2+...+\frac{f^{n}(x_0)}{n!}(x-x_0)^n=\sum_{k=0}^{n}\frac{f^{(k)}(x_0)}{k!}(x-x_0)^k$$
#
# **Teorema** (formula di Taylor con resto di Peano) Sia $f:I\rightarrow\mathbb{R}$, $I$ intervallo, derivabile $n$ volte in $x_0\in I$. Allora
#
# $$f(x)=\left[\sum_{k=0}^{n}\frac{f^{(k)}(x_0)}{k!}(x-x_0)^k\right]+o((x-x_0)^k)\ \ \ \ (x\rightarrow x_0)$$
#
# **Dimostrazione**
#
# $n=1$ $$f'(x_0)=\lim_{x\rightarrow x_0}{\frac{f(x)-f(x_0)}{x-x_0}}\iff f(x)=f(x_0)+f'(x_0)(x-x_0)+o(x-x_0)\ \ \ \ (x\rightarrow x_0)$$
#
# $n=2$ Vogliamo dimostrare che
#
# $$f(x)=f(x_0)+f'(x_0)(x-x_0)+\frac{f''(x_0)}{2!}(x-x_0)^2+o((x-x_0)^2)\ \ \ \ (x\rightarrow x_0)$$
#
# Quindi:
#
# $$f(x)-f(x_0)-f'(x_0)(x-x_0)-\frac{f''(x_0)}{2!}(x-x_0)^2=o((x-x_0)^2)\ \ \ \ (x\rightarrow x_0\iff$$
#
# $$\lim_{x\rightarrow x_0}{\frac{f(x)-f(x_0)-f'(x_0)(x-x_0)-\frac{f''(x_0)}{2!}(x-x_0)^2}{(x-x_0)^2}}=0\iff$$
#
# $$\lim_{x\rightarrow x_0}{\left[\frac{f(x)-f(x_0)-f'(x_0)(x-x_0)}{(x-x_0)^2}-\frac{f''(x_0)}{2}\right]}=0$$
#
# Applicando De l'Hôpital:
#
# $$\lim_{x\rightarrow x_0}{\frac{f(x)-f(x_0)-f'(x_0)(x-x_0)}{(x-x_0)^2}}\overset{H}{=}\lim_{x\rightarrow x_0}{\frac{f'(x)-f'(x_0)}{2(x-x_0)}}=\frac{f''(x_0)}{2}$$
#
# Analogamente, applicando De l'Hopital $n-1$ volte, si può dimostrare in generale.
#
# **Teorema** (formula di Taylor con resto di Lagrange) Siano $f\in\mathcal{C}^{(n+1)}(I,\mathbb{R})$, $x,x_0\in I$. Allora $\exists c\in I$ compreso tra $x_0$ e $x$ tale che:
#
# $$f(x)=\sum_{k=0}^{n}{\frac{f^{(k)}(x_0)}{k!}(x-x_0)^k} + f^{(n+1)}(c)\frac{(x-x_0)^{n+1}}{(n+1)!}$$
#
# ## Proprietà del polinomio di Taylor
#
# **Proposizione** Sia $f\in\mathcal{C}^{(n)}(I,\mathbb{R})$.
#
# 1. Il polinomio di Taylor di $f$ di punto iniziale $x_0$ e grado minore o uguale a $n$ è l'unico polinomio di grado $\leq n$ per il quale vale
#
# $$T_{n}^{k}(x_0)=f^{(k)}(x_0)$$
#
# 2. Derivando il polinomio di Taylor di ordine $n$ di $f$ si ottiene il polinomio di Taylor di grado $n-1$ di $f$
#
# $$\frac{\mathrm{d}}{\mathrm{d} x}T_n[f] (x)=T_{n-1}[f'] (x)$$
#
# **Proposizione** Se $f(x)=q_n(x)+o((x-x_0)^n),\ \ \ \ (x\rightarrow x_0)$, ove $q_n(x)$ è un polinomio di grado al più $n$, allora necessariamente
#
# $$q_n(x)=T_{n,x_0}(x)$$
#
# ove $T_{n,x_0}(x)$ è il polinomio di Taylor di $f$ di ordine $n$ e punto iniziale $x_0$.
#
# ## Formule di Taylor delle funzioni elementari
#
# **Esponenziale** La funzione esponenziale ha derivate di ordine comunque elevato; scelto come punto iniziale $x_0=0$, la sua formula di Taylor, di ordine $n$, si scrive come
#
# $$\mathrm{exp}(x)=\sum_{k=0}^{n}{\frac{x^k}{k!}}+o(x^n),\ \ \ \ (x\rightarrow 0)$$
#
# infatti
#
# $$D^{(k)}\mathrm{exp}(x)=\mathrm{exp}(x)$$
#
# Quindi il polinomio di Taylor è
#
# $$T_{n,0}(x)=\sum_{k=0}^{n}{\frac{x^k}{k!}}$$
#
# **Coseno** La funzione coseno è pari e ha derivate di ordine comunque elevato; scelto come punto iniziale $x_0=0$, la sua formula di Taylor, di ordine $2n$, si scrive come
#
# $$\cos(x)=\sum_{k=0}^{n}{\frac{(-1)^kx^{2k}}{(2k)!}}+o(x^{2n+1}),\ \ \ \ (x\rightarrow 0)$$
#
# infatti
#
# $$D^{(k)}\cos(x)=\left\{\begin{matrix}0 & se\ k\ dispari\\ (-1)^k & se\ k\ pari\end{matrix}\right.$$
#
# Quindi il polinomio di Taylor è
#
# $$T_{n,0}(x)=\sum_{k=0}^{n}{\frac{(-1)^kx^{2k}}{(2k)!}}$$
#
# **Seno** La funzione seno è dispari e ha derivate di ordine comunque elevato; scelto come punto iniziale $x_0=0$, la sua formula di Taylor, di ordine $2n+1$, si scrive come
#
# $$\sin(x)=\sum_{k=0}^{n}{\frac{(-1)^kx^{2k+1}}{(2k+1)!}}+o(x^{(2n+2)}),\ \ \ \ (x\rightarrow 0)$$
#
# infatti
#
# $$D^{(k)}\sin(x)=\left\{\begin{matrix}0 & se\ k\ pari\\ (-1)^k & se\ k\ dispari\end{matrix}\right.$$
#
# Quindi il polinomio di Taylor è
#
# $$T_{n,0}(x)=\sum_{k=0}^{n}{\frac{(-1)^kx^{2k+1}}{(2k+1)!}}$$
#
# **Coseno iperbolico** La funzione coseno iperbolico è pari e ha derivate di ordine comunque elevato; scelto come punto iniziale $x_0=0$, la sua formula di Taylor, di ordine $2n$, si scrive come
#
# $$\cosh(x)=\sum_{k=0}^{n}{\frac{x^{2k}}{(2k)!}}+o(x^{2n+1}),\ \ \ \ (x\rightarrow 0)$$
#
# infatti
#
# $$D^{(k)}\cosh(x)=\left\{\begin{matrix}0 & se\ k\ dispari\\ 1 & se\ k\ pari\end{matrix}\right.$$
#
# Quindi il polinomio di Taylor è
#
# $$T_{n,0}(x)=\sum_{k=0}^{n}{\frac{x^{2k}}{(2k)!}}$$
#
# **Seno iperbolico** La funzione seno iperbolico è dispari e ha derivate di ordine comunque elevato; scelto come punto iniziale $x_0=0$, la sua formula di Taylor, di ordine $2n+1$, si scrive come
#
# $$\sinh(x)=\sum_{k=0}^{n}{\frac{x^{2k+1}}{(2k+1)!}}+o(x^{(2n+2)}),\ \ \ \ (x\rightarrow 0)$$
#
# infatti
#
# $$D^{(k)}\sinh(x)=\left\{\begin{matrix}0 & se\ k\ pari\\ 1 & se\ k\ dispari\end{matrix}\right.$$
#
# Quindi il polinomio di Taylor è
#
# $$T_{n,0}(x)=\sum_{k=0}^{n}{\frac{x^{2k}}{(2k)!}}$$
#
# **$\bf{\ln(1+x)}$** La funzione $\ln(1+x)$ ha derivate di ordine comunque elevato; scelto come punto iniziale $x_0=0$, la sua formula di Taylor, di ordine $n$, si scrive come
#
# $$\ln(1+x)=\sum_{k=1}^{n}{\frac{(-1)^{k-1}x^k}{k}}+o(x^{n}),\ \ \ \ (x\rightarrow 0)$$
#
# infatti
#
# $$D^{(k)}\ln(1+x)=\frac{(-1)^{k-1}(k-1)!}{(1+x)^k},\ \ k\geq 1$$
#
# da cui deriva
#
# $$D^{(k)}\ln(1+x)\left|_{x=0}\right.=(-1)^{k-1}(k-1)!,\ \ k\geq 1$$
#
# Quindi il polinomio di Taylor è
#
# $$T_{n,0}(x)=\sum_{k=1}^{n}{\frac{(-1)^{k-1}x^k}{k}}$$
#
# **$\bf{(1+x)^\alpha}$** La funzione $(1+x)^\alpha$, $x>-1$, $\alpha\in\mathbb{R}$ ha derivate di ordine comunque elevato; scelto come punto iniziale $x_0=0$, la sua formula di Taylor, di ordine $n$, si scrive come
#
# $$(1+x)^\alpha=\sum_{k=0}^{n}\binom{\alpha}{k}x^k+o(x^{n}),\ \ \ \ (x\rightarrow 0)$$
#
# posto
#
# $$\binom{\alpha}{k}=\frac{\alpha(\alpha-1)...(\alpha-k+1)}{k!},\ \ \binom{\alpha}{0}=1$$
#
# infatti
#
# $$D^{(k)}(1+x)^\alpha=\alpha(\alpha-1)...(\alpha-k+1)(1+x)^{\alpha-k}$$
#
# Quindi il polinomio di Taylor è
#
# $$T_{n,0}(x)=\sum_{k=1}^{n}\binom{\alpha}{k}x^k$$
#
# **$\bf{(1+x)^{-1}}$** La funzione $(1+x)^{-1}$, $x\neq -1$, ha derivate di ordine comunque elevato; scelto come punto iniziale $x_0=0$, la sua formula di Taylor, di ordine $n$, si ottiene da quella precedente, con $\alpha=-1$, ed è
#
# $$(1+x)^{-1}=\sum_{k=0}^{n}(-1)^kx^k+o(x^{n}),\ \ \ \ (x\rightarrow 0)$$
#
# infatti
#
# $$\binom{-1}{k}=\frac{(-1)(-1-1)(-1-2)...(-1-k+1)}{k!}=\frac{(-1)^k(1\cdot 2\cdot 3\cdot ... \cdot k)}{k!}=(-1)^k$$
#
# Quindi il polinomio di Taylor è
#
# $$T_{n,0}(x)=\sum_{k=1}^{n}(-1)^kx^k$$
#
# **$\bf{(1+x^2)^{-1}}$** La funzione $(1+x^2)^{-1}$ ha derivate di ordine comunque elevato; scelto come punto iniziale $x_0=0$, la sua formula di Taylor, di ordine $2n$, si ottiene da quella precedente, sostituendo $x$ con $x^2$, ed è
#
# $$(1+x^2)^{-1}=\sum_{k=0}^{n}(-1)^kx^{2k}+o(x^{2n}),\ \ \ \ (x\rightarrow 0)$$
#
# Quindi il polinomio di Taylor è
#
# $$T_{n,0}(x)=\sum_{k=1}^{n}(-1)^kx^{2k}$$
#
# **$\bf{(1-x)^{-1}}$** La funzione $(1-x)^{-1}$, $x\neq -1$, ha derivate di ordine comunque elevato; scelto come punto iniziale $x_0=0$, la sua formula di Taylor, di ordine $n$, si ottiene da qualle precedente, sostituendo $x$ con $-x$, ed è
#
# $$(1-x)^{-1}=\sum_{k=0}^{n}x^k+o(x^{n}),\ \ \ \ (x\rightarrow 0)$$
#
# Quindi il polinomio di Taylor è
#
# $$T_{n,0}(x)=\sum_{k=1}^{n}x^k$$
#
# **$\bf{(1-x^2)^{-1}}$** La funzione $(1-x^2)^{-1}$, $x\neq\pm 1$, ha derivate di ordine comunque elevato; scelto come punto iniziale $x_0=0$, la sua formula di Taylor, di ordine $2n$, si ottiene da qualle precedente, sostituendo $x$ con $x^2$, ed è
#
# $$(1-x^2)^{-1}=\sum_{k=0}^{n}x^{2k}+o(x^{2n}),\ \ \ \ (x\rightarrow 0)$$
#
# Quindi il polinomio di Taylor è
#
# $$T_{n,0}(x)=\sum_{k=1}^{n}x^{2k}$$
#
# # Studio qualitativo del grafico di una funzione
#
# ## Comportamento asintotico
#
# **Definizione** Siano $f,g:]a, +\infty[\rightarrow\mathbb{R}$ diremo che $g(x)$ è asintotica a $f(x)$ (equivalentemente, $f(x)$ ha per asintoto $g(x)$) quando $(x\rightarrow \pm\infty)$ se:
#
# $$f(x)=g(x)+o(1),\ \ \ \ (x\rightarrow \pm\infty)$$
#
# **Definizione** (asintoto obliquo) Diremo che $f(x)$ ha asintoto obliquo $g(x)=ax+b\ (x\rightarrow\pm\infty)$ se esistono $a\neq 0$ e $b\in\mathbb{R}$ tali che
#
# $$f(x)=ax+b+o(1),\ \ \ \ (x\rightarrow\pm\infty)\iff\left\{\begin{matrix}\lim_{x\rightarrow\pm\infty}{[f(x)-ax]}=b\\\\\lim_{x\rightarrow\pm\infty}{\frac{f(x)}{x}}=a\end{matrix}\right.$$
#
# **Definizione** Diremo che $f(x)$ ha asintoto verticale da destra (risp. da sinistra) $(x\rightarrow a^+)$ se
#
# $$\lim_{x\rightarrow a^+}{f(x)}=\pm\infty\ \text{(risp.}\ \lim_{x\rightarrow a^-}{f(x)}=\pm\infty\text{)}$$
#
# **Definizione** Diremo che $f(x)$ ha asintoto orizzontale $y=c\ (x\rightarrow\pm\infty)$ se
#
# $$\lim_{x\rightarrow\pm\infty}{f(x)}=c$$
#
# ## Monotonia
#
# **Teorema** (funzioni monotone e derivata prima) Supponiamo $I\subseteq\mathbb{R}$ intervallo e $f:I\rightarrow\mathbb{R}$ derivabile in $I$. Allora:
#
# 1. $f$ è debolmente crescente in $I\iff f'(x)\geq 0\ \forall x\in I$
#
# 2. $f$ è debolmente decrescente in $I\iff f'(x)\leq 0\ \forall x\in I$
#
# 3. Se $f'(x)>0\ \forall x\in I$ allora $f$ è strettamente crescente in $I$
#
# 4. Se $f'(x)<0\ \forall x\in I$ allora $f$ è strettamente decrescente in $I$
#
# **Dimostrazione** (1)
#
# ($\implies$) Scriviamo i limiti destro e sinistro del rapporto incrementale di $f(x)$
#
# $$\lim_{x\rightarrow x^+}{\frac{f(x)-f(x_0)}{x-x_0}}\geq 0$$
#
# $$\lim_{x\rightarrow x^-}{\frac{f(x)-f(x_0)}{x-x_0}}\geq 0$$
#
# ($\impliedby$) Per il teorema di Lagrange sappiamo che $\exists c\in ]x,x_0[$ tale che $f(x)-f(x_0)=f'(c)(x-x_0)$. Per ipotesi $f'(c)\geq 0\ \forall x\in ]x,x_0[$.
#
# $$x< x_0\implies x-x_0< 0\implies f(x)-f(x_0)\leq 0\implies f(x)\leq f(x_0)$$
#
# $$x> x_0\implies x-x_0> 0\implies f(x)-f(x_0)\geq 0\implies f(x)\geq f(x_0)$$
#
# Quindi la funzione è debolmente crescente.
#
# **Teorema** Siano $I$ intervallo e $f:I\rightarrow\mathbb{R}$ derivabile in $I$. Allora $f$ è strettamente crescente (risp. strettamente decrescente) se e solo se $f'(x)\geq 0$ (risp. $f'(x)\leq 0$) $\forall x\in I$ e l'insieme $E=\{x\in I\mid f'(x)=0\}\subseteq I$ non contiene intervalli aperti.
#
# **Teorema** Sia $f:I\rightarrow\mathbb{R}$ derivabile $2n+1$ volte in $x_0\in I$ e tale che $f'(x_0)=f''(x_0)=...=f^{2n}(x_0)=0$. Se
#
# - $f^{2n+1}>0$ allora $x_0$ è un punto di crescenza, ovvero $f$ è strettamente crescente
# - $f^{2n+1}<0$ allora $x_0$ è un punto di decrescenza, ovvero $f$ è strettamente decrescente
#
# **Dimostrazione** La dimostrazione è un'applicazione della formula di Taylor di punto iniziale $x_0$ con resto di Peano. Supponiamo per semplicità che $f^{2n+1}>0$ (il caso $f^{2n+1}<0$ è analogo):
#
# $$f(x)-f(x_0)=\frac{f^{2n+1}(x_0)}{(2n+1)!}(x-x_0)^{2n+1}(1+o(1))$$
#
# allora il membro di destra è positivo se $x>x_0$, mentre è negativo se $x0$ tale che $f$ è strettamente crescente in $\forall x\in ]x_0-\delta,x_0+\delta[$
#
# ## Punti di massimo e minimo locale
#
# **Definizione** Sia $A\subseteq\mathbb{R}$, $f:A\rightarrow\mathbb{R}$. Diremo che $x_0\in A$ è un punto di **minimo locale** (risp. di **massimo locale**) (o relativo) se $\exists\delta>0$ tale che
#
# $$f(x)\geq f(x_0)\ \text{(risp.)}\ f(x)\geq f(x_0)\ \text{)}\ \forall x\in A\cap ]x_0-\delta,x_0+\delta[$$
#
# **Teorema** (di Fermat) Sia $f:]a,b[\rightarrow\mathbb{R}$. Se $x_0\in ]a,b[$ è un punto di massimo (o minimo) locale e $\exists f'(x_0)$ allora $f'(x_0)=0$
#
# **Dimostrazione** Supponiamo che $x_0$ sia un punto di minimo locale (la dimostrazione è analoga nel caso $x_0$ sia un punto di massimo locale)
#
# $$\left.\begin{matrix}\lim_{x\rightarrow x_0^+}{\frac{f(x)-f(x_0)}{x-x_0}}\geq 0\\\lim_{x\rightarrow x_0^-}{\frac{f(x)-f(x_0)}{x-x_0}}\end{matrix}\right\}\implies f'(x_0)=0$$
#
# **Definizione** Sia $f:I\rightarrow\mathbb{R}$ derivabile in $x_0\in I$. Diciamo che $x_0$ è un **punto stazionario o critico** se $f'(x)=0$.
#
# **Teorema** Sia $f:]a,b[\rightarrow\mathbb{R}$ derivabile in $]a,b[$. Se in $x_0\in]a,b[\ f'(x_0)=0$ e $\exists\delta>0$ tale che:
#
# 1. $f'(x_0)> 0\ \forall x\in ]x_0,x_0+\delta[$
#
# 2. $f'(x_0)< 0\ \forall x\in ]x_0-\delta,x_0[$
#
# Allora $x_0$ è un punto di minimo locale
#
# 3. $f'(x_0)< 0\ \forall x\in ]x_0,x_0+\delta[$
#
# 4. $f'(x_0)> 0\ \forall x\in ]x_0-\delta,x_0[$
#
# Allora $x_0$ è un punto di massimo locale
#
# **Teorema** Sia $f:]a,b[\rightarrow\mathbb{R}$, $x_0\in ]a,b[$ e supponiamo che $f$ sia continua in tutto $]a,b[$ e derivabile in $]a,b[\setminus\{x_0\}$. Se $\exists\delta>0$
#
# 1. $f'(x)>0\ \forall x\in]x_0-\delta,x_0[\cap]a,b[$ e $f'(x)<0\ \forall x\in]x_0,x_0+\delta[\cap]a,b[$ allora $x_0$ è un punto angoloso di massimo locale
#
# 2. $f'(x)<0\ \forall x\in]x_0-\delta,x_0[\cap]a,b[$ e $f'(x)>0\ \forall x\in]x_0,x_0+\delta[\cap]a,b[$ allora $x_0$ è un punto angoloso di minimo locale
#
# 3. $f'_{+}(x)=+\infty$ e $f'_{-}(x)=-\infty$ allora $x_0$ è una cuspide di minimo locale
#
# 4. $f'_{+}(x)=-\infty$ e $f'_{-}(x)=+\infty$ allora $x_0$ è una cuspide di massimo locale
#
# **Teorema** Sia $f:]a,b[\rightarrow\mathbb{R}$ derivabile $2n$ volte in $x_0$, con $n\geq 1$. Se $f'(x_0)=f''(x_0)=...=f^{2n-1}(x_0)=0$. Allora:
#
# 1. Se $f^{2n}(x_0)>0$ allora $x_0$ è un punto di minimo locale
#
# 2. Se $f^{2n}(x_0)< 0$ allora $x_0$ è un punto di massimo locale
#
# **Dimostrazione** La dimostrazione è un'applicazione della formula di Taylor di punto iniziale $x_0$ con resto di Peano:
#
# $$(1)\ \ f(x)-f(x_0)=\frac{f^{2n}(x_0)}{(2n)!}(x-x_0)^{2n}(1 + o(1))> 0$$
#
# $$(2)\ \ f(x)-f(x_0)=\frac{f^{2n}(x_0)}{(2n)!}(x-x_0)^{2n}(1 + o(1))< 0$$
#
# **Corollario** Sia $f:]a,b[\rightarrow\mathbb{R}$ derivabile 2 volte in $x_0$. Supponiamo $f'(x_0)=0$ allora:
#
# 1. Se $f''(x_0)>0$ allora $x_0$ è un punto di minimo locale
#
# 2. Se $f''(x_0)<0$ allora $x_0$ è un punto di massimo locale
#
# **Teorema** Sia $f:]a,b[\rightarrow\mathbb{R}$ derivabile 2 volte in $x_0$. ALlora:
#
# 1. Se $x_0$ è un punto di minimo locale allora $f'(x_0)=0$ e $f''(x_0)>0$
#
# 2. Se $x_0$ è un punto di massimo locale allora $f'(x_0)=0$ e $f''(x_0)<0$
#
# ## Convessità e concavità
#
# **Definizione** Sia $I\subset\mathbb{R}$ intervallo e $f:I\rightarrow\mathbb{R}$. Diciamo che $f$ è **convessa** in $I$ se:
#
# $$\forall x_1,x_2\in I\ e\ \forall\lambda\in]0,1[\ f(\lambda x_1+(1-\lambda)x_2)\leq \lambda f(x_1)+(1-\lambda)f(x_2)$$
#
# Diremo che $f$ è **strettamente convessa** se:
#
# $$\forall x_1,x_2\in I\ e\ \forall\lambda\in]0,1[\ f(\lambda x_1+(1-\lambda)x_2)< \lambda f(x_1)+(1-\lambda)f(x_2)$$
#
# **Dimostrazione** Una funzione è convessa se tutti i punti del grafico stanno sotto la retta che congiunge due punti qualsiasi di esso. Presi due punti $P_1(x_1,f(x_1))$ e $P_2(x_2,f(x_2))$, la retta che li congiunge è:
#
# $$y=f(x_1)+\frac{f(x_2)-f(x_1)}{x_2-x_1}(x-x_1)$$
#
# I punti del grafico compresi tra $P_1$ e $P_2$ sono i punti dell'intervallo $]x_1,x_2[$ e sono del tipo $x=\lambda x_1+(1-\lambda)x_2$. Andando a sostituire $x$ nell'equazione precedente
#
# $$y=f(x_1)+\frac{f(x_2)-f(x_1)}{x_2-x_1}(\lambda x_1+(1-\lambda)x_2-x_1)$$
#
# e svolgendo i calcoli
#
# $$y=f(x_1)+[f(x_2)-f(x_1)] (1-\lambda)=f(x_2)-\lambda f(x_2)+\lambda f(x_1)=\lambda f(x_1)+(1-\lambda)f(x_2)$$
#
# Quindi i punti interni all'intervallo $]x_1,x_2[$ hanno la forma
#
# $$P(\lambda x_1+(1-\lambda)x_2,\lambda f(x_1)+(1-\lambda)f(x_2))$$.
#
# **Definizione** Sia $I\subset\mathbb{R}$ intervallo e $f:I\rightarrow\mathbb{R}$. Diciamo che $f$ è **concava** in $I$ se:
#
# $$\forall x_1,x_2\in I\ e\ \forall\lambda\in]0,1[\ f(\lambda x_1+(1-\lambda)x_2)\geq \lambda f(x_1)+(1-\lambda)f(x_2)$$
#
# Diremo che $f$ è **strettamente concava** se:
#
# $$\forall x_1,x_2\in I\ e\ \forall\lambda\in]0,1[\ f(\lambda x_1+(1-\lambda)x_2)> \lambda f(x_1)+(1-\lambda)f(x_2)$$
#
# **Dimostrazione** Analoga a quella precedente
#
# **Teorema** Sia $f:[a,b]\rightarrow\mathbb{R}$ concava (o convessa) in $[a,b]$. Allora $f$ è continua in $]a,b[$.
#
# **Teorema** (convessità e rette tangenti) Sia $I\subseteq\mathbb{R}$ intervallo, $f:I\rightarrow\mathbb{R}$ derivabile in $I$. Allora:
#
# 1. $f$ è convessa in $I\iff \forall x,x_0\in I\ f(x)\geq f(x_0)+f'(x_0)(x-x_0)$
#
# 2. $f$ è concava in $I\iff \forall x,x_0\in I\ f(x)\leq f(x_0)+f'(x_0)(x-x_0)$
#
# 3. Se $\forall x,x_0\in I\ f(x)>f(x_0)+f'(x_0)(x-x_0)$ allora $f$ è strettamente convessa in I
#
# 4. Se $\forall x,x_0\in I\ f(x)0$ tale che $F(x)sign(x-x_0)$ ha segno costante in $]a,b[\cap]x_0-\delta,x_0+\delta[$
#
# **Teorema** Sia $f:]a,b[\rightarrow\mathbb{R}$ continua in $]a,b[$ e derivabile 2 volte in $x_0\in ]a,b[$. Se $x_0$ è un punto di flesso allora $f''(x_0)=0$.
#
# **Dimostrazione** Supponiamo per assurdo che $x_0$ sia un punto di flesso e $f''(x_0)\neq 0$. Utilizzando la formula di Taylor di punto iniziale $x_0$ con resto di Peano:
#
# $$f(x)=f(x_0)+f'(x_0)(x-x_0)+\frac{f''(x_0)}{2}(x-x0)^2+o((x-x_0)^2),\ \ \ \ (x\rightarrow x_0)$$
#
# $$F(x)=[f(x)-f(x_0)-f'(x_0)(x-x_0)]=\frac{f''(x_0)}{2}(x-x_0)^2[1+o(1)],\ \ \ \ (x\rightarrow x_0)$$
#
# Se $f''(x_0)\neq 0$ allora $x_0$ n
# on può essere un punto di flesso, in quanto $F(x)$ cambierebbe di segno.
#
# **Teorema** Sia $f:]a,b[\rightarrow\mathbb{R}$ continua in $]a,b[$ e derivabile $2n+1$ volte in $x_0\in]a,b[$. Se $f''(x_0)=...=f^{2n}(x_0)=0$ e $f^{2n+1}(x_0)\neq 0$ allora $x_0$ è un punto di flesso.
#
# **Dimostrazione** La dimostrazione è un'applicazione della formula di Taylor di punto iniziale $x_0$ con resto di Peano:
#
# $$f(x)-f(x_0)-f'(x_0)(x-x_0)=\frac{f^{2n+1}(x_0)}{(2n+1)!}(x-x_0)^{2n+1}[1+o(1)],\ \ \ \ (x\rightarrow x_0)$$
#
# $$F(x)sign(x-x_0)=\frac{f^{2n+1}(x_0)}{(2n+1)!}(x-x_0)^{2n+1}sign(x-x_0)[1+o(1)],\ \ \ \ (x\rightarrow x_0)$$
#
# 1. Supponiamo $f^{2n+1}(x_0)>0$, allora il membro di destra è sempre positivo
#
# 2. Supponiamo $f^{2n+1}(x_0)<0$, allora il membro di destra è sempre positivo
#
# Quindi $x_0$ è un punto di flesso.
#
# **Corollario** Se $f:]a,b[\rightarrow\mathbb{R}$ derivabile 3 volte e $f''(x_0)=0$ e $f'''(x_0)\neq 0$ allora $x_0$ è un punto di flesso.
#
# **Teorema** Sia $f:]a,b[\rightarrow\mathbb{R}$ derivabile in $]a,b[$. Se $x_0$ è un punto di minimo o massimo per $f'(x_0)$ allora è un punto di flesso per $f$.
#
# **Dimostrazione**
#
# $$F(x)=f(x)-f(x_0)-f'(x_0)(x-x_0)$$
#
# $$F'(x)=f'(x)-f'(x_0)$$
#
# Supponiamo $x_0$ punto di minimo per $f'$. Allora $F'(x)\geq 0\ \forall x\in]a,b[\cap]x_0-\delta,x_0+\delta[$. Da qui segue che $F(x)$ è monotona crescente in $]a,b[\cap]x_0-\delta,x_0+\delta[$. Essendo $F(x_0)=0$, allora $x_0$ è un punto di flesso.
#
# **Teorema** Sia $f:]a,b[\rightarrow\mathbb{R}$ derivabile 2 volte in $]a,b[$. Se in $x_0\in]a,b[\ f''(x_0)=0$ ed $\exists\delta>0$ tale che $f$ è concava in $]x_0, x_0+\delta[$ e convessa in $]x_0-\delta,x_0[$, o viceversa, allora $x_0$ è un punto di flesso.
#
# # Integrazione
#
# ## Primitive
#
# **Definizione** Sia $f:I\rightarrow\mathbb{R}$, $I$ intervallo. Chiamiamo $F:I\rightarrow\mathbb{R}$ **primitiva** di $f$ se
#
# $$\frac{\mathrm{d} F}{\mathrm{d} x}(x)=f(x)\ \forall x\in I$$
#
# **Dimostrazione**
#
# $$\frac{\mathrm{d}}{\mathrm{d} x}G(x)=\frac{\mathrm{d}}{\mathrm{d} x}F(x)=f(x)$$
#
# $$\frac{\mathrm{d}}{\mathrm{d} x}[G(x)-F(x)]=f(x)-f(x)=0$$
#
# **Teorema** (funzioni a derivata nulla) Sia $I$ intervallo, $f:I\rightarrow\mathbb{R}$ derivabile in $I$. Allora
#
# $$f'(x)=0\ \forall x\in I\iff\exists c\in\mathbb{R}\ \text{tale che}\ f(x)=c\ \forall x\in I$$
#
# **Dimostrazione**
#
# ($\implies$) L'implicazione verso sinistra è banale. Siccome $f(x)=c$:
#
# $$f'(x)=\lim_{x\rightarrow x_0}{\frac{f(x)-f(x_0)}{x-x_0}}=0$$
#
# ($\impliedby$) Usiamo il teorema di Lagrange:
#
# $$\exists c\in]x,x_0[\ \text{tale che}\ f(x)-f(x0)=f'(c)(x-x_0)\ \forall x,x_0\in I$$
#
# Siccome $f'(c)=0$, allora necessariamente $f(x)-f(x_0)=0$ e quindi $x=x_0$. Per l'arbitrarietà di $x,x_0$ possiamo concludere che $f$ è costante su tutto $I$.
#
# **Teorema** (caratterizzazione delle primitive di $f$ su un intervallo) Sia $I\subseteq\mathbb{R}$ intervallo, $f:I\rightarrow\mathbb{R}$. Allora:
#
# 1. se $F:I\rightarrow\mathbb{R}$ è una primitiva di $f$ allora $F(x)+c$, $c\in\mathbb{R}$ costante, è un'altra primitiva di $f$
#
# 2. se $F,G:I\rightarrow\mathbb{R}$ sono primitive di $f$, allora $\exists c\in\mathbb{R}$ costante tale che $G(x)=F(x)+c$
#
# ## Integrazione secondo Riemann
#
# **Definizione** Sia $f:[a,b]\rightarrow\mathbb{R}$ limitata in $[a,b]$. Definiamo **scomposizione $\bf\sigma$** dell'intervallo $[a,b]$ un sottoinsieme finito e ordinato di punti in $[a,b]$
#
# $$\sigma=\{a=x_0< x_1< x_2<...< x_n=b\}$$
#
# **Definizione** Siano $\sigma,\tau$ scomposizioni di $[a,b]$. $\sigma\cup\tau$ è l'**insieme unione** dei punti che stanno in $\sigma,\tau$. Tale scomposizione è più fine di $\sigma$ e $\tau$.
#
# **Definizione** Fissata la scomposizione $\sigma$ di $[a,b]$:
#
# 1. definiamo la **somma inferiore** di $f$ rispetto a $\sigma$ come
#
# $$s(f,\sigma)=(x_1-x_0)\inf_{[x_0,x_1]}f+...+(x_n-x_{n-1})\inf_{[x_{n-1},x_n]}f = \\
# = \sum_{i=1}^{n}{(x_i-x_{i-1})\inf_{[x_{i-1},x_i]}f}$$
#
# 2. definiamo la **somma superiore** di $f$ rispetto a $\sigma$ come
#
# $$S(f,\sigma)=(x_1-x_0)\sup_{[x_0,x_1]}f+...+(x_n-x_{n-1})\sup_{[x_{n-1},x_n]}f = \\
# = \sum_{i=1}^{n}{(x_i-x_{i-1})\sup_{[x_{i-1},x_i]}f}$$
#
# **Proposizione** Sia $f:[a,b]\rightarrow\mathbb{R}$ limitata. Sinao $\sigma,\tau$ scomposizioni di $[a,b]$.
#
# $$(b-a)\inf_{[a,b]}f\leq s(f,\sigma)\leq s(f,\sigma\cup\tau)\leq S(f,\sigma\cup\tau)\leq S(f,\sigma)\leq (b-a)\sup_{[a,b]}f$$
#
# **Dimostrazione** Siano $\sigma$ e $\tau=\sigma\cup{y}$:
#
# $$s(f,\sigma)=(x_1-x_0)\inf_{[x_0,x_1]}f+...+(x_k-x_{k-1})\inf_{[x_{k-1},x_k]}f+...+(x_n-x_{n-1})\inf_{[x_{n-1},x_n]}f$$
#
# $$s(f,\tau)=(x_1-x_0)\inf_{[x_0,x_1]}f+...+(y-x_{k-1})\inf_{[x_{k-1},y]}f+(x_k-y)\inf_{[y,x_k]}f+...+(x_n-x_{n-1})\inf_{[x_{n-1},x_n]}f$$
#
# Sottraendo:
#
# $$s(f,\tau)-s(f,\sigma)=(y-x_{k-1})\inf_{[x_{k-1},y]}f+(x_k-y)\inf_{[y,x_k]}f-(x_k-x_{k-1})\inf_{[x_{k-1},x_k]}f = $$
#
# $$= (y-x_{k-1})\inf_{[x_{k-1},y]}f+(x_k-y)\inf_{[y,x_k]}f-(x_k-y+y-x_{k-1})\inf_{[x_{k-1},x_k]}f = $$
#
# $$= (y-x_{k-1})\left[\inf_{[x_{k-1},y]}f-\inf_{[x_{k-1},x_k]}f\right]+(x_k-y)\left[\inf_{[y,x_k]}f-\inf_{[x_{k-1},x_k]}f\right]\geq 0$$
#
# Quindi
#
# $$s(f,\sigma)\leq s(f,\tau)$$
#
# Con un ragionamento analogo si dimostra
#
# $$S(f,\sigma)\geq S(f,\tau)$$
#
# **Definizione** Si definisce **integrale inferiore** di $f$ in $[a,b]$
#
# $$\underline{\int_{a}^{b}}{f(x)\mathrm{d}x}=\sup_{\sigma}s(f,\sigma)$$
#
# Si definisce **integrale superiore** di $f$ in $[a,b]$
#
# $$\overline{\int_{a}^{b}}{f(x)\mathrm{d}x}=\inf_{\sigma}S(f,\sigma)$$
#
# **Corollario** Sia $f:[a,b]\rightarrow\mathbb{R}$ limitata. Allora
#
# $$\underline{\int_{a}^{b}}{f(x)\mathrm{d}x}<+\infty\ \text{perché ha come maggiorante}\ (b-a)\sup_{[a,b]}f$$
#
# $$\overline{\int_{a}^{b}}{f(x)\mathrm{d}x}>-\infty\ \text{perché ha come minorante}\ (b-a)\inf_{[a,b]}f$$
#
# $$\underline{\int_{a}^{b}}{f(x)\mathrm{d}x}\leq\overline{\int_{a}^{b}}{f(x)\mathrm{d}x}$$
#
# **Definizione** (funzione integrabile secondo Riemann) Sia $f:[a,b]\rightarrow\mathbb{R}$ limitata. Diremo che $f$ è **integrabile secondo Riemann** se
#
# $$\underline{\int_{a}^{b}}{f(x)\mathrm{d}x}=\overline{\int_{a}^{b}}{f(x)\mathrm{d}x}$$
#
# e in tal caso chiamiamo **integrale** di $f$ in $[a,b]$
#
# $$\int_{a}^{b}{f(x)\mathrm{d}x}=\underline{\int_{a}^{b}}{f(x)\mathrm{d}x}=\overline{\int_{a}^{b}}{f(x)\mathrm{d}x}$$
#
# **Funzione di Dirichlet** La funzione di Dirichlet è così definita
#
# $$f:[0,1]\rightarrow\mathbb{R},\ \ \ \ f(x)=\left\{\begin{matrix} 1, & x\in[0,1]\cap\mathbb{Q} \\ 0, & x\in[0,1]\setminus\mathbb{Q}\end{matrix}\right.$$
#
# Presa una qualunque partizione $\sigma=\{0=x_0 1,\ \beta\in\mathbb{R}$. Allora le soluzioni dell'equazione $z^n=w$ sono
#
# $$\sqrt[n]{\alpha}\left[\cos\left(\frac{\beta+2\pi(k-1)}{n}\right)+i\sin\left(\frac{\beta+2\pi(k-1)}{n}\right)\right],\ \ \ \ k=1,...,n$$
#
# **Dimostrazione** Sia $w=\alpha\mathrm{exp}(i\beta)$, $z=|z|\mathrm{exp}(i\theta)$ e $z^n=w$ l'equazione.
#
# $$z^n=w \iff |z|^n\mathrm{exp}(in\theta)=\alpha\mathrm{exp}(i\beta) \iff $$
#
# $$\iff |z|^n[\cos(n\theta) + i\sin(n\theta)] = \alpha[\cos(\beta) + i\sin(\beta)] \iff $$
#
# $$\iff \left\{\begin{matrix}
# |z|^n=\alpha\\
# \cos(n\theta) = \cos(\beta)\\
# \sin(n\theta) = \sin(\beta)
# \end{matrix}\right.
# \iff
# \left\{\begin{matrix}
# |z|=\alpha^{\frac{1}{n}}\\
# n\theta = \beta + 2k\pi & , & k\in\mathbb{Z}
# \end{matrix}\right.$$
#
# Quindi si ha
#
# $$z^n=w \iff
# \left\{\begin{matrix}
# |z|=\sqrt[n]{\alpha}\\
# \theta = \frac{\beta + 2k\pi}{n} & , & k\in\mathbb{Z}
# \end{matrix}\right.$$
#
# Si può osservare che vi sono $n$ soluzioni complesse distinte per $k=0,...,n-1$.
#
# **Osservazione** Queste radici sono i vertici di un poligono regolare di $n$ lati inscritto nella circonferenza di raggio $\sqrt[n]{\alpha}$.
#
# # Equazioni differenziali ordinarie
#
# **Definizione** Siano $t, x_0,...,x_n$ variabili reali.
#
# $$x_n=F(t,x_0,x_1,...,x_{n-1})$$
#
# $$x_n=a_0(t)x_0+a_1(t)x_1+...+a_{n-1}(t)x_{n-1}+b(t)\ \text{con}\ a_0,...,b:I\rightarrow\mathbb{R}\ \text{continue, I intervallo}$$
#
# $$x_0\rightarrow y(t),x_1\rightarrow\frac{\mathrm{d}y}{\mathrm{dt}}(t),...,x_n\rightarrow\frac{\mathrm{d^n}y}{\mathrm{dt^n}}(t)$$
#
# $$\frac{\mathrm{d^n}y}{\mathrm{dt^n}}=F(t,y(t),...,\frac{\mathrm{d^{n-1}}y}{\mathrm{dt^{n-1}}})\ \text{con}\ t\in I$$
#
# Chiamo **soluzione classica** dell'equazione differenziale una funzione $\varphi\in\mathcal{C}^{(n)}(I_0,\mathbb{R})$ dove $I_0\subseteq I$ è un intervallo tale che
#
# $$\frac{\mathrm{d^n}\varphi}{\mathrm{dt^n}}=F(t,\varphi(t),...,\frac{\mathrm{d^{n-1}}\varphi}{\mathrm{dt^{n-1}}})\ \forall t\in I_0$$
#
# **Definizione** (Problema di Cauchy o alle condizioni iniziali)
#
# $$(P):\left\{\begin{matrix}
# \frac{\mathrm{d^n}y}{\mathrm{dt^n}}=F(t,y(t),...,\frac{\mathrm{d^{n-1}}y}{\mathrm{dt^{n-1}}}) & \text{con}\ t\in I \\
# y(t_0)=y_0 \\
# \vdots & y_0,...,y_{n-1}\in\mathbb{R}\\
# \frac{\mathrm{d^{n-1}}y}{\mathrm{dt^{n-1}}}=y_{n-1} &
# \end{matrix}\right.$$
#
# Chiamo soluzione classica di $(P)$ una funzione $\varphi\in\mathcal{C}^{(n)}(I_0,\mathbb{R})$ con $I_0\subseteq I$ tale che
#
# $$\frac{\mathrm{d^n}\varphi}{\mathrm{dt^n}}=F(t,\varphi(t),...,\frac{\mathrm{d^{n-1}}\varphi}{\mathrm{dt^{n-1}}})\ \forall t\in I_0$$
#
# $$\varphi(t_0)=y_0,\ \frac{\mathrm{d}\varphi}{\mathrm{dt}}(t_0)=y_1,...,\ \frac{\mathrm{d^{n-1}}\varphi}{\mathrm{dt^{n-1}}}(t_0)=y_{n-1}$$
#
# **Teorema** (Problema di Cauchy o alle condizioni iniziali) Dato
#
# $$(P):\left\{\begin{matrix}
# \frac{\mathrm{d^n}y}{\mathrm{dt^n}}=F(t,y(t),...,\frac{\mathrm{d^{n-1}}y}{\mathrm{dt^{n-1}}}) & \text{con}\ t\in I \\
# y(t_0)=\overline{y_0} \\
# \vdots & \overline{y_0},...,\overline{y_{n-1}}\in\mathbb{R}\\
# \frac{\mathrm{d^{n-1}}y}{\mathrm{dt^{n-1}}}(t_0)=\overline{y_{n-1}} &
# \end{matrix}\right.$$
#
# Allora esiste un'unica soluzione classica di $(P)$ $\varphi\in\mathcal{C}^{(n)}(I,\mathbb{R})$ tale che
#
# $$\frac{\mathrm{d^n}\varphi}{\mathrm{dt^n}}=a_0(t)\varphi(t)+a_1(t)\frac{\mathrm{d}\varphi}{\mathrm{dt}}(t)+...+a_{n-1}(t)\frac{\mathrm{d^{n-1}}\varphi}{\mathrm{dt^{n-1}}}(t)+b(t)\ \forall t\in I$$
#
# $$\varphi(t_0)=\overline{y_0},\ \frac{\mathrm{d}\varphi}{\mathrm{dt}}(t_0)=\overline{y_1},...,\ \frac{\mathrm{d^{n-1}}\varphi}{\mathrm{dt^{n-1}}}(t_0)=\overline{y_{n-1}}$$
#
# ## Equazioni differenziali del I ordine lineari
#
# **Teorema** (forma esplicita della soluzione) Siano $I\subseteq\mathbb{R}$ un intervallo, $a,b:I\rightarrow\mathbb{R}$ continue, $t_0\in I$, $y_0\in\mathbb{R}$.
#
# $$(P):\left\{\begin{matrix}
# \frac{\mathrm{d}y}{\mathrm{dt}}=a(t)y+b(t) \\
# y(t_0)=y_0
# \end{matrix}\right.$$
#
# Esiste un'unica soluzione $\varphi\in\mathcal{C}^{(1)}(I,\mathbb{R})$ e detta
#
# $$A(t)=\int_{t_0}^{t}{a(s)\mathrm{ds}}\ \text{(primitiva di}\ a(t)\ \text{tale che}\ A(t_0)=0\text{)}$$
#
# $$\varphi(t)=\mathrm{exp}(A(t))\left[y_0+\int_{t_0}^{t}{b(s)\mathrm{exp}(-A(s))\mathrm{ds}}\right]\ \forall t\in I$$
#
# $$\varphi(t_0)=y_0\mathrm{exp}(A(t_0))=y_0$$
#
# **Dimostrazione** Supponiamo che $\varphi(t)\in\mathcal{C}^{(1)}$ sia soluzione di $(P)$. Introduciamo la funzione
#
# $$w(t)=\mathrm{exp}(-A(t))\varphi(t)\in\mathcal{C}^{(1)}$$
#
# $w(t)$ e $\varphi(t)$ sono definite entrambe nello stesso dominio e $w(t_0)=y_0$ in quanto $\int_{t_0}^{t_0}{A(s)\mathrm{ds}}=0$. Calcoliamo $w'(t)$
#
# $$\frac{\mathrm{d}w}{\mathrm{dt}}(t)=\mathrm{exp}(-A(t))\frac{\mathrm{d}\varphi}{\mathrm{dt}}+a(t)\mathrm{exp}(-A(t))\varphi=[a(t)\varphi(t)+b(t)]\mathrm{exp}(-A(t))+a(t)\varphi\mathrm{exp}(-A(t))=b(t)\mathrm{exp}(-A(t))$$
#
# Abbiamo quindi ottenuto il problema di Cauchy
#
# $$(P):\left\{\begin{matrix}
# \frac{\mathrm{d}w}{\mathrm{dt}}(t)=b(t)\mathrm{exp}(-A(t)) \\
# w(t_0)=y_0
# \end{matrix}\right.$$
#
# Sappiamo per il teorema fondamentale del calcolo integrale che esiste un'unica funzione che soddisfa la prima equazione, ed è
#
# $$w(t)=y_0+\int_{t_0}^{t}{b(s)\mathrm{exp}(-A(s))\mathrm{ds}}$$
#
# Quindi
#
# $$\varphi(t)=\mathrm{exp}(A(t))(y_0+\int_{t_0}^{t}{b(s)\mathrm{exp}(-A(s))\mathrm{ds}})$$
#
# Svolgendo i calcoli si vede che $\varphi(t)$ verifica l'eqauzione, qualunque sia $y_0$. Era quindi lecita la supposizione iniziale.
#
# **Osservazione** Nel caso non lineare non esistono in generale metodi per determinare la soluzione
#
# ## Equazioni differenziali a variabili separabili del primo ordine
#
# **Teorema** (soluzioni in forma implicita) Siano $I,J\subseteq\mathbb{R}$ intervalli, $f\in\mathcal{C}(I,\mathbb{R})$, $g\in\mathcal{C}(J,\mathbb{R})$ tale che $g(y)\neq 0\ \forall y\in J$, $t_0\in I$, $y_0\in J$ e
#
# $$(P):\left\{\begin{matrix}
# \frac{\mathrm{d}y}{\mathrm{dt}}=\frac{f(t)}{g(y)} \\
# y(t_0)=y_0
# \end{matrix}\right.$$
#
# il problema di Cauchy.
#
# Allora $\exists\delta,\epsilon > 0$ e $\varphi\in\mathcal{C}^{(1)}(]t_0-\delta,t_0+\delta[\subseteq I,]y_0-\epsilon, y_0+\epsilon[\subseteq J)$, unica soluzione di $(P)$, cioè
#
# $$(P):\left\{\begin{matrix}
# \frac{\mathrm{d}\varphi}{\mathrm{dt}}=\frac{f(t)}{g(\varphi(t))} \\
# \varphi(t_0)=y_0
# \end{matrix}\right.$$
#
# La soluzione $\varphi$ è data in forma implicita da $G(\varphi(t))-F(t)=0$ con
#
# $$G(y)=\int_{y_0}^{y}{g(s)\mathrm{ds}}\ \text{e}\ F(t)=\int_{t_0}^{t}{f(\tau)\mathrm{\tau}}$$
#
# ## Equazioni differenziali di ordine n
#
# **Definizione** Siano $a_1,...,a_n,b\in\mathcal{C}(I,\mathbb{R})$, $I,\mathbb{R}$ intervallo. Definiamo **equazione differenziale lineare omogenea** di ordine n un'equazione differenziale del tipo
#
# $$\frac{\mathrm{d^n}y}{\mathrm{dt^n}}+a_1(t)\frac{\mathrm{d^{n-1}}y}{\mathrm{dt^{n-1}}}+...+a_n(t)y=0\ \ \ \ \ \text{(EDLO)}$$
#
# Definiamo **eqauzione differenziale lineare non omogenea** un'equazione differenziale del tipo
#
# $$\frac{\mathrm{d^n}y}{\mathrm{dt^n}}+a_1(t)\frac{\mathrm{d^{n-1}}y}{\mathrm{dt^{n-1}}}+...+a_n(t)y=b(t)\ \ \ \ \ \text{(EDLNO)}$$
#
# **Teorema** (esistenza e unicità locale della soluzione) Sia $F:I\times A\rightarrow\mathbb{R}\in\mathcal{C}^{(1)}$ ($A\subset\mathbb{R}^{n}$ aperto). Allora $\forall b_0\in I$, $\forall(\overline{y_1},...,\overline{y_n})\in A\ \exists\epsilon > 0$ tale che il problema di Cauchy
#
# $$(P):\left\{\begin{matrix}
# \frac{\mathrm{d^{n}}y}{\mathrm{dt^{n}}}=F(t,y,y',...,y^{(n-1)}) \\
# y(t_0)=\overline{y_1},...,y^{(n-1)}(t_0)=\overline{y_{n-1}}
# \end{matrix}\right.$$
#
# ha un unica soluzione $\varphi\in\mathcal{C}^{(n)}(]t_0-\epsilon,t_0+\epsilon[,\mathbb{R})$
#
# **Teorema** (esistenza e unicità globale della soluzione di un problema di Cauchy)
#
# Siano $a_1,...,a_n,b\in\mathcal{C}(I,\mathbb{R})$, $I\subseteq\mathbb{R}$ intervallo, e
#
# $$(P):\left\{\begin{matrix}
# \frac{\mathrm{d^n}y}{\mathrm{dt^n}}+a_1(t)\frac{\mathrm{d^{n-1}}y}{\mathrm{dt^{n-1}}}+...+a_n(t)y=b(t) & \text{con}\ t\in I \\
# y(t_0)=\overline{y_1} \\
# \vdots & \overline{y_1},...,\overline{y_{n-1}}\in\mathbb{R}\\
# \frac{\mathrm{d^{n-1}}y}{\mathrm{dt^{n-1}}}(t_0)=\overline{y_{n-1}} &
# \end{matrix}\right.$$
#
# Allora $(P)$ ha un unica soluzione $\varphi\in\mathcal{C}^{(n)}(I,\mathbb{R})$ tale che $\varphi(t_0)=\overline{y_1},...,\varphi^{(n-1)}(t_0)=\overline{y_{n-1}}$
#
# **Proposizione** (principio di sovrapposizione) Siano $a_1,...,a_n\in\mathcal{C}(I,\mathbb{R})$, $I\subseteq\mathbb{R}$ intervallo. Supponiamo che $\varphi_1,\varphi_2\in\mathcal{C}^{(n)}(I,\mathbb{R})$ siano soluzioni di una (EDLO). Allora
#
# $$\varphi_1+\varphi_2\ \text{e}\ c\varphi_1\ \forall c\in\mathbb{R}$$
#
# sono soluzioni di (EDLO).
#
# **Dimostrazione** Poniamo $\varphi(t)=\varphi_1(t)+\varphi_2(t)$
#
# $$\frac{\mathrm{d^n}\varphi}{\mathrm{dt^n}}+a_1(t)\frac{\mathrm{d^{n-1}}\varphi}{\mathrm{dt^{n-1}}}(t)+...+a_n(t)\varphi(t)=0\iff $$
#
# $$\iff \frac{\mathrm{d^n}\varphi_1}{\mathrm{dt^n}}+\frac{\mathrm{d^n}\varphi_2}{\mathrm{dt^n}}+a_1(t)\frac{\mathrm{d^{n-1}}\varphi_1}{\mathrm{dt^{n-1}}}(t)+a_1(t)\frac{\mathrm{d^{n-1}}\varphi_2}{\mathrm{dt^{n-1}}}(t)+...+a_n(t)\varphi_1(t)+a_n(t)\varphi_2(t)=0\iff $$
#
# $$\iff \frac{\mathrm{d^n}\varphi_1}{\mathrm{dt^n}}+a_1(t)\frac{\mathrm{d^{n-1}}\varphi_1}{\mathrm{dt^{n-1}}}(t)+...+a_n(t)\varphi_1(t)+\frac{\mathrm{d^n}\varphi_2}{\mathrm{dt^n}}+a_1(t)\frac{\mathrm{d^{n-1}}\varphi_2}{\mathrm{dt^{n-1}}}(t)+...+a_n(t)\varphi_2(t)=0$$
#
# Poniamo $\varphi(t)=c\varphi_1(t)$
#
# $$\frac{\mathrm{d^n}\varphi}{\mathrm{dt^n}}+a_1(t)\frac{\mathrm{d^{n-1}}\varphi}{\mathrm{dt^{n-1}}}(t)+...+a_n(t)\varphi(t)=0\iff $$
#
# $$\iff c\frac{\mathrm{d^n}\varphi_1}{\mathrm{dt^n}}+ca_1(t)\frac{\mathrm{d^{n-1}}\varphi_1}{\mathrm{dt^{n-1}}}(t)+...+ca_n(t)\varphi_1(t)=0\iff $$
#
# $$\iff c\left[\frac{\mathrm{d^n}\varphi}{\mathrm{dt^n}}+a_1(t)\frac{\mathrm{d^{n-1}}\varphi}{\mathrm{dt^{n-1}}}(t)+...+a_n(t)\varphi(t)\right]=0$$
#
# **Teorema** (integrale generale di (EDLO)) Siano $a_1,...,1_n\in\mathcal{C}(I,\mathbb{R})$, $I\subseteq\mathbb{R}$ intervallo e consideriamo una (EDLO). L'insieme delle soluzioni di (EDLO) forma uno spazio vettoriale di dimensione $n$.
#
# **Dimostrazione** Facciamo vedere che lo spazio vettoriale formato dalle soluzioni di (EDLO) ha dimensione $\geq n$.. Fissiamo $t_0\in I$ e consideriamo i problemi di Cauchy
#
# $$(P_1):\left\{\begin{matrix}
# \frac{\mathrm{d^n}y}{\mathrm{dt^n}}+...+a_n(t)y=0 \\
# y(t_0)=1 \\
# y'(t_0)=0 \\
# \vdots \\
# y^{(n-1)}(t_0)=0
# \end{matrix}\right.\ \ \
# (P_2):\left\{\begin{matrix}
# \frac{\mathrm{d^n}y}{\mathrm{dt^n}}+...+a_n(t)y=0 \\
# y(t_0)=0 \\
# y'(t_0)=1 \\
# \vdots \\
# y^{(n-1)}(t_0)=0
# \end{matrix}\right.\ \ \ ... \ \ \
# (P_n):\left\{\begin{matrix}
# \frac{\mathrm{d^n}y}{\mathrm{dt^n}}+...+a_n(t)y=0 \\
# y(t_0)=0 \\
# y'(t_0)=0 \\
# \vdots \\
# y^{(n-1)}(t_0)=1
# \end{matrix}\right.$$
#
# Siano $\varphi_1,...,\varphi_n$ soluzioni di $(P_1),...,(P_n)$, dimostriamo che sono linearmente indipendenti. Prendiamo
#
# $$\varphi(t)=c_1\varphi_1(t)+...+c_n\varphi_n(t)\equiv 0$$
# $$\varphi'(t)=c_1\varphi_1'(t)+...+c_n\varphi_n'(t)\equiv 0$$
# $$\vdots$$
# $$\varphi^{(n-1)}(t)=c_1\varphi^{(n-1)}_1(t)+...+c_n\varphi^{(n-1)}_n(t)\equiv 0$$
#
# Ciò significa
#
# $$\varphi(t_0)=c_1=0$$
# $$\varphi'(t_0)=c_2=0$$
# $$\vdots$$
# $$\varphi^{(n-1)}(t_0)=c_n=0$$
#
# Quindi le soluzioni sono linearmente indipendenti.
#
# Sia $w(t)\in\mathcal{C}^{(n)}(I,\mathbb{R})$ una soluzione di (EDLO) e verifichiamo che si può esprimere come combinazione lineare di $\varphi_1,...,\varphi_n$. Prendiamo quindi il generico problema di Cauchy
#
# $$(P_w):\left\{\begin{matrix}
# \frac{\mathrm{d^n}y}{\mathrm{dt^n}}+a_1(t)\frac{\mathrm{d^{n-1}}y}{\mathrm{dt^{n-1}}}+...+a_n(t)y=0 \\
# y(t_0)=w(t_0) \\
# y'(t_0)=w'(t_0) \\
# \vdots \\
# y^{(n-1)}(t_0)=w^{(n-1)}(t_0)
# \end{matrix}\right.$$
#
# e consideriamo la funzione
#
# $$\psi(t)=c_1\varphi_1(t)+...+c_n\varphi_n(t)$$
#
# e verifichiamo che per opportuni $c_1,...,c_n$ appropriati $\psi(t)=w(t)$. Sappiamo che $\psi(t)$ risolve l'equazione per il principio di sovrapposizione, quindi
#
# $$\psi(t_0)=c_1=w(t_0)$$
# $$\psi'(t_0)=c_2=w'(t_0)$$
# $$\vdots$$
# $$\psi^{(n-1)}=c_n=w^{(n-1)}(t_0)$$
#
# Quindi $\psi(t)=w(t_0)\varphi_1(t)+...+w^{(n-1)}(t_0)\varphi_n(t)$ è soluzione di (EDLO) e per unicità della soluzione
#
# $$w(t)=w(t_0)\varphi_1(t)+...+w^{(n-1)}(t_0)\varphi_n(t)$$
#
# **Definizione** Sia $\varphi(t)\in\mathcal{C}^{(n)}(I,\mathbb{R})$ una soluzione di (EDLO) e prendiamo
#
# $$\left\{\begin{matrix}
# w_1(t)=\varphi(t) \\
# w_2(t)=\varphi'(t) \\
# \vdots \\
# w^{(n-1)}(t)=\varphi^{(n-1)}(t)
# \end{matrix}\right.$$
#
# dove
#
# $$w'(t)=w_2(t),w''(t)=w_3(t),\ ...,\ w^{(n)}(t)=-a_n(t)w_1(t)+...+-a_1(t)w_n(t)$$
#
# Otteniamo così il sistema associato a (EDLO)
#
# $$\begin{bmatrix}
# \frac{\mathrm{d}w_1}{\mathrm{dt}}\\
# \frac{\mathrm{d}w_2}{\mathrm{dt}}\\
# \vdots \\
# \frac{\mathrm{d}w_n}{\mathrm{dt}}
# \end{bmatrix}=
# \begin{bmatrix}
# 0 & 1 & 0 & \dots & 0\\
# 0 & 0 & 1 & \dots & 0\\
# \vdots & \vdots & \vdots & \ddots & \vdots \\
# -a_n(t) & -a_{n-1}(t) & -a_{n-2}(t) & \dots & -a_1(t)
# \end{bmatrix}
# \begin{bmatrix}
# w_1(t)\\
# w_2(t)\\
# \vdots \\
# w_n(t)
# \end{bmatrix}$$
#
# Definiamo così il vettore soluzione di (EDLO)
#
# $$\begin{bmatrix}
# w_1(t) \\ w_2(t) \\ \dots \\ w_n(t)
# \end{bmatrix}=
# \begin{bmatrix}
# \varphi(t) \\ \varphi'(t) \\ \dots \\ \varphi^{(n-1)}(t)
# \end{bmatrix}$$
#
# **Definizione** (wronskiano delle soluzioni) Siano $\varphi_1,...,\varphi_n\in\mathcal{C}^{(n)}(I,\mathbb{R})$ soluzioni di (EDLO). Definiamo **wronskiano**
#
# $$W(t)=\mathrm{det}\begin{bmatrix}
# \varphi_1(t) & \varphi_2(t) & \dots & \varphi_n(t) \\
# \varphi'_1(t) & \varphi'_2(t) & \dots & \varphi'_n(t) \\
# \vdots & \vdots & \ddots & \vdots \\
# \varphi^{(n-1)}_1(t) & \varphi^{(n-1)}_2(t) & \dots & \varphi^{(n-1)}_n(t)
# \end{bmatrix}$$
#
# **Teorema** (del wronskiano) Siano (EDLO) con $a_1,...,a_n\in\mathcal{C}(I,\mathbb{R})$ e $\varphi_1,...,\varphi_n\in\mathcal{C}^{(n)}(I,\mathbb{R})$ soluzioni di (EDLO). Allora sono equivalenti le seguenti informazioni:
#
# 1. $\varphi_1(t),...,\varphi_n(t)$ sono soluzioni linearmente indipendenti di (EDLO)
# 2. $W(t)\neq 0\ \forall t\in I$
# 3. $\exists t_0\in I$ tale che $W(t_0)\neq 0$
#
# **Dimostrazione** $(3\implies2)\ (n=2)$
#
# Prendiamo l'(EDLO)
#
# $$y''+a_1(t)y'+a_2(t)y=0$$
#
# con soluzioni $\varphi_1,\varphi_2$.
#
# $$W(t)=\mathrm{det}\begin{bmatrix}
# \varphi_1 & \varphi_2 \\
# \varphi'_1 & \varphi'_2
# \end{bmatrix}=
# \varphi_1\varphi'_2-\varphi_2\varphi'_1$$
#
# Deriviamo il wronskiano
#
# $$W'(t)=\varphi'_1\varphi'_2+\varphi_1\varphi''_2-\varphi'_2\varphi_1-\varphi_2\varphi''_1= $$
#
# $$=\varphi_1\varphi''_2-\varphi_2\varphi''_1= $$
#
# $$=\varphi_1[-a_1(t)\varphi'_2-a_2(t)\varphi_2]-\varphi_2[-a_1(t)\varphi'_1-a_2(t)\varphi_1]= $$
#
# $$=-a_1(t)[\varphi_1\varphi'_2-\varphi_2\varphi'_1] = -a_1(t)W(t)$$
#
# Otteniamo quindi la seguente equazione differenziale lineare di primo ordine
#
# $$W'(t)=-a_1(t)W(t)$$
#
# Sappiamo che la soluzione è
#
# $$W(t)=W(t_0)\mathrm{exp}(-\int_{t_0}^{t}{a_1(s)\mathrm{ds}})$$
#
# Poiché l'esponenziale non si annulla mai si ha
#
# $$W(t_0)\neq 0 \implies W(t)\neq 0$$
#
# **Proposizione** Siano $a_1,...,a_n,b\in C(I,\mathbb{R}$. Siano $\psi_1,\psi_2\in\mathcal{C}^{(n)}(I,\mathbb{R})$ soluzioni di (EDLNO) e $\varphi\in\mathcal{C}^{(n)}(I,\mathbb{R})$ soluzione di (EDLO). Allora
#
# 1. $\psi_1-\psi_2$ è soluzione di (EDLO)
# 2. $\psi_1 + \varphi$ è soluzione di (EDLNO)
#
# **Dimostrazione** (1) Prendiamo $\varphi_1(t)=\psi_1(t)-\psi_2(t)$
#
# $$\varphi^{(n)}_1(t)+a_1(t)\varphi^{(n-1)}_1(t)+...+a_n(t)\varphi_1(t)= $$
#
# $$=\psi^{(n)}_1(t)-\psi^{(n)}_2(t)+a_1(t)[\psi^{(n-1)}_1(t)-\psi^{(n-1)}_2(t)]+...+a_n(t)[\psi_1(t)-\psi_2(t)]= $$
#
# $$=\psi^{(n)}_1(t)+a_1(t)\psi^{(n-1)}_1(t)+...+a_n(t)\psi_1(t)-\psi^{(n)}_2(t)+a_1(t)\psi^{(n-1)}_2(t)+...+a_n(t)\psi_2(t)=b(t)-b(t)=0$$
#
# (2) Prendiamo $\psi(t)=\psi_1(t)+\varphi(t)$
#
# $$\psi^{(n)}(t)+a_1(t)\psi^{(n-1)}(t)+...+a_n(t)\psi(t)= $$
#
# $$=\psi^{(n)}_1(t)+\varphi^{(n)}(t)+a_1(t)[\psi^{(n-1)}_1(t)+\varphi^{(n-1)}(t)]+...+a_n(t)[\psi_1(t)+\varphi(t)]= $$
#
# $$=\psi^{(n)}_1(t)+a_1(t)\psi^{(n-1)}_1(t)+...+a_n(t)\psi_1(t)+\varphi^{(n)}(t)+a_1(t)\varphi^{(n-1)}(t)+...+a_n(t)\varphi(t)=b(t)+0=b(t)$$
#
# **Teorema** Siano $\varphi_1,...,\varphi_n\in\mathcal{C}^{(n)}(I,\mathbb{R})$ soluzioni linearmente indipendenti di (EDLO) e $\psi_P\in\mathcal{C}^{(n)}(I,\mathbb{R})$ soluzione particolare di (EDLNO). Allora $\psi\in\mathcal{C}^{(n)}(I,\mathbb{R})$ è soluzione di (EDLNO) se e solo se
#
# $$\exists c_1,...,c_n\in\mathbb{R}\ \text{e}\ \psi(t)=\psi_P(t)+\sum_{i=1}^n{c_i\varphi_i(t)}$$
#
# **Dimostrazione** ($\implies$) Siano $c_1,...,c_n\in\mathbb{R}$
#
# $$\psi_P(t)+\sum_{i=1}^n{c_i\varphi_i(t)}\ \text{è soluzione di (EDLNO) per il punto (2) del teorema precedente}$$
#
# ($\impliedby$) Se $\psi(t)$ è soluzione di (EDLNO), allora $\psi(t)-\psi_P(t)$ è soluzione di (EDLO) per il punto (1) del teorema precedente. Ciò significa che $\psi(t)-\psi_P(t)$ è una combinazione lineare di $\varphi_1,...,\varphi_n$.
#
# ## Metodo generale per la ricerca di una soluzione particolare di (EDLNO) o metodo di variazione delle costanti o metodo di Lagrangia
#
# **Caso $n=2$** Siano
#
# $$y''+a_1(t)y'+a_2(t)y=b(t)\ \ \ \ \text{(EDLNO)}$$
#
#
# $$y''+a_1(t)y'+a_2(t)y=0\ \ \ \ \text{(EDLO)}$$
#
#
# $$psi(t)=c_1\varphi_1(t)+c_2\varphi_2(t)\ \ \ \ \text{soluzione di (EDLO)}$$
#
# con $\varphi_1,\varphi_2\in\mathcal{C}^{(n)}(I,\mathbb{R})$ soluzioni linearmente indipendenti di (EDLO).
#
# Dobbiamo trovare i termini $c_1(t),c_2(t)$ tali che $\psi(t)=c_1(t)\varphi_1(t)+c_2(t)\varphi_2(t)$ sia soluzione di (EDLNO). Imponiamo quindi che $\psi(t)$ sia soluzione di (EDLNO).
#
# $$\psi'=c_1\varphi'_1+c'_1\varphi_1+c_2\varphi'_2+c'_2\varphi_2$$
#
# Impongo $c'_1\varphi_1+c'_2\varphi_2=0$
#
# $$\psi'=c_1\varphi'_1+c_2\varphi'_2$$
#
# $$\psi''=c'_1\varphi'_1+c_1\varphi''_1+c'_2\varphi'_2+c_2\varphi''_2$$
#
# Inseriamo $\psi,\psi',\psi''$ in (EDLNO).
#
# $$c'_1\varphi'_1+c_1\varphi''_1+c'_2\varphi'_2+c_2\varphi''_2+a_1(t)[c_1\varphi'_1+c_2\varphi'_2]+a_2[c_1\varphi_1+c_2\varphi_2]=b(t) \iff $$
#
# $$\iff c_1(t)[\varphi''_1+a_1(t)\varphi'_1+a_2(t)\varphi_1]+c_2(t)[\varphi''_2+a_1(t)\varphi'_2+a_2(t)\varphi_2]+c'_1\varphi'_1+c'_2\varphi'_2=b(t) \iff $$
#
# $$\iff c'_1\varphi'_1+c'_2\varphi'_2=b(t)$$
#
# Abbiamo ottenuto dunque il seguente sistema con incognite $c_1,c_2$
#
# $$\left\{\begin{matrix}
# c'_1(t)\varphi_1(t)+c'_2(t)\varphi_2(t)=0 \\
# \\
# c'_1(t)\varphi'_1(t)+c'_2(t)\varphi'_2(t)=b(t)
# \end{matrix}\right.$$
#
# Risolvibile con la regola di Cramer (il determinante è il wronskiano $W(t)\neq 0$ delle soluzioni $\varphi_1,\varphi_2$ linearmente indipendenti).
#
#
# $$c'_1(t)=\frac{
# \begin{vmatrix}
# \ 0 & \varphi_2(t)\ \\
# \\
# \ b(t) & \varphi'_2(t)\
# \end{vmatrix}
# }{W(t)}=-\frac{b(t)\varphi_2(t)}{W(t)},
# \ \ \ \
# c'_2(t)=\frac{
# \begin{vmatrix}
# \ \varphi_1(t) & 0\ \\
# \\
# \ \varphi'_1(t) & b(t)\
# \end{vmatrix}
# }{W(t)}=\frac{b(t)\varphi_1(t)}{W(t)}$$
#
# Quindi
#
# $$c_1(t)=-\int_{t_0}^{t}{\frac{b(s)\varphi_2(s)}{W(s)}\mathrm{ds}},
# \ \ \ \
# c_2(t)=\int_{t_0}^{t}{\frac{b(s)\varphi_1(s)}{W(s)}\mathrm{ds}}$$
#
# Ricavati $c_1$ e $c_2$ si ottiene
#
# $$\psi(t)=\int_{t_0}^{t}{\frac{b(s)[\varphi_1(s)\varphi_2(t)-\varphi_2(s)\varphi_1(t)]}{W(s)}\mathrm{ds}}$$
#
# **Osservazione** $\varphi_1(s)\varphi_2(t)-\varphi_2(s)\varphi_1(t)$ è detto nucleo integrale.
#
# ## Equazioni differenziali lineari omogenee a coefficienti costanti di ordine n
#
# **Definizione** Siano $a_1,...,a_n\in\mathbb{R}$. Definiamo **equazione differenziale lineare omogenea a coefficienti costanti** di ordine n un'equazione differenziale del tipo
#
# $$y^{(n)}+a_1y^{(n-1)}+...+a_ny=0\ \ \ \ \text{(EDLOCC)}$$
#
# ### Ricerca di soluzioni di tipo esponenziale per EDLOCC
#
# Vogliamo cercare soluzioni del tipo $y(t)=\mathrm{exp}(\lambda t)$ con $\lambda$ numero complesso. Andando a sostiuire la soluzione nell'(EDLOCC) otteniamo
#
# $$\mathrm{exp}(\lambda t)[\lambda^n+a_1\lambda^{n-1}+...+a_{n-1}\lambda+a_n]=0$$
#
# Posto
#
# $$P(\lambda)=\lambda^n+a_1\lambda^{n-1}+...+a_{n-1}\lambda+a_n$$
#
# polinomio caratteristico dell'(EDLOCC), possiamo distinguere due casi
#
# 1. $P(\lambda)$ ha $n$ radici $\lambda_1,...\lambda_n\in\mathbb{C}$ distinte. Allora le funzioni
#
#
# $$\psi_1(t)=\mathrm{exp}(\lambda_1 t),\ ...\ ,\ \psi_n(t)=\mathrm{exp}(\lambda_n t)$$
#
# sono soluzioni linearmente indipendenti della (EDLOCC). L'integrale generale sarà
#
# $$y(t)=c_1\mathrm{exp}(\lambda_1 t)+...+c_n\mathrm{exp}(\lambda_n t)$$
#
# 2. $P(\lambda)$ ha $m0$ se $\forall t\in\mathbb{R}$ si ha
#
# $$f(t)=f(T+t)$$
#
# **Proprietà** Se $T,S>0$ sono periodi, allora
# 1. $T+S$ è periodo
# 2. $nT$ è periodo (con $n\in\mathbb{Z}$)
#
# **Definizione** Se $f(t)$ non è costante, esiste il periodo minimo $T_f$ positivo tale che $f(t+T_f)=f(t)\ \forall t\in\mathbb{R}$ e se $S$ è periodo allora $S=nT_f,\ n\in\mathbb{Z}$. Tale periodo è chiamato **periodo fondamentale**.
#
# **Teorema** Siano $f(t)$ e $g(t)$ funzioni periodiche di periodo fondamentale rispettivamente $T_f$ e $S_f$. La funzione
#
# $$h(t)=f(t)+g(t)$$
#
# è periodica di periodo fondamentale $P_f=mcm(T_f,S_f)$ se e solo se $\frac{T_f}{S_f}\in\mathbb{Q}$