Fondamenti di automatica/Sistemi lineari tempoinvarianti: differenze tra le versioni

Wikibooks, manuali e libri di testo liberi.
Contenuto cancellato Contenuto aggiunto
Nessun oggetto della modifica
 
BimBot (discussione | contributi)
m Bot: Sostituzione automatica (-\x24(.*?)\x24 +<math>\1</math>); cosmetic changes
Riga 3: Riga 3:
\vedilibro{rif:k}{25, sezione 2-3: Differential equations}
\vedilibro{rif:k}{25, sezione 2-3: Differential equations}
Trattiamo solo sistemi modellizzabili con equazioni differenziali lineari a coefficenti costanti
Trattiamo solo sistemi modellizzabili con equazioni differenziali lineari a coefficenti costanti
\vedilibro{rif:a2}{34, sezione 2.4: Equazioni differenziali lineari di ordine $n$};
\vedilibro{rif:a2}{34, sezione 2.4: Equazioni differenziali lineari di ordine <math>n</math>};


In generale un sistema lineare tempoinvariante SISO rappresentato con equazioni diffrenziali avrà uno stato interno descritto da equazioni del tipo
In generale un sistema lineare tempoinvariante SISO rappresentato con equazioni diffrenziali avrà uno stato interno descritto da equazioni del tipo
<math>
<math>
x^{(n)}(t) + a_{n-1}x^{(n-1)}(t) + \cdots + a_{1}x'(t) + a_{0}x(t) = b u(t)
x^{(n)}(t) + a_{n-1}x^{(n-1)}(t) + \cdots + a_{1}x'(t) + a_{0}x(t) = b u(t)
</math>
</math>
dove $x(t)$ è la funzione di stato,
dove <math>x(t)</math> è la funzione di stato,
i coefficenti $a_{0..n}$ sono numeri reali e
i coefficenti <math>a_{0..n}</math> sono numeri reali e
$u(t)$ è la funzione di ingresso
<math>u(t)</math> è la funzione di ingresso
L'uscita del sistema è data in generale come funzione lineare dello stato e dell'ingresso
L'uscita del sistema è data in generale come funzione lineare dello stato e dell'ingresso
<math>
<math>
Riga 23: Riga 23:


La soluzione generale dell'equazione sarà composta da
La soluzione generale dell'equazione sarà composta da
una componente data dalla soluzione dell'equazione omogenea associata (dove $u(t) = 0$)
una componente data dalla soluzione dell'equazione omogenea associata (dove <math>u(t) = 0</math>)
più una componente detta soluzione particolare che sarà dello stesso tipo di $u(t)$
più una componente detta soluzione particolare che sarà dello stesso tipo di <math>u(t)</math>


Per ottenere una soluzione unica,
Per ottenere una soluzione unica,
è necessario conoscere tante condizioni ($n$) su $x(t)$ o sulle sue derivate pari al grado dell'equazione
è necessario conoscere tante condizioni (<math>n</math>) su <math>x(t)</math> o sulle sue derivate pari al grado dell'equazione


====Sistemi di equazioni differenziali====
==== Sistemi di equazioni differenziali ====
\`E possibile scomporre sempre una o più equazioni differenziali in un sistema di equazioni differenziali del primo ordine
\`E possibile scomporre sempre una o più equazioni differenziali in un sistema di equazioni differenziali del primo ordine
\vedilibro{rif:k}{26, sezione 2-3-3: First-order differential equations}
\vedilibro{rif:k}{26, sezione 2-3-3: First-order differential equations}
Riga 36: Riga 36:
x'(t) = ax(t) + bu(t)
x'(t) = ax(t) + bu(t)
</math>
</math>
dove $a$ e $b$ sono scalari reali
dove <math>a</math> e <math>b</math> sono scalari reali
che ha soluzione
che ha soluzione
\vedilibro{rif:a2}{108, sezione 3.16: Sistemi lineari non omogenei a coefficenti costanti}
\vedilibro{rif:a2}{108, sezione 3.16: Sistemi lineari non omogenei a coefficenti costanti}
Riga 43: Riga 43:
</math>
</math>


===Diagramma analogico===
=== Diagramma analogico ===
\`E possibile rappresentare un sistema in una forma a blocchi detta
\`E possibile rappresentare un sistema in una forma a blocchi detta
\emph{diagramma analogico}
\emph{diagramma analogico}
Riga 50: Riga 50:
\begin{itemize}
\begin{itemize}
\item
\item
Amplificatore con guadagno $k$: $G(s)=k$
Amplificatore con guadagno <math>k</math>: <math>G(s)=k</math>
\item
\item
Integratore $G(s) = 1/s$
Integratore <math>G(s) = 1/s</math>
\item
\item
Sommatore
Sommatore
Riga 61: Riga 61:
<math>
<math>
x^{(n)}(t) = -a_{n-1}x^{(n-1)}(t) - \cdots -a_{1}x'(t) -a_{0}x(t) +
x^{(n)}(t) = -a_{n-1}x^{(n-1)}(t) - \cdots -a_{1}x'(t) -a_{0}x(t) +
b_{n}u^{(n)}(t) + \cdots + b_{1}u'(t) + b_{0}u(t)
b_{n}u^{(n)}(t) + \cdots + b_{1}u'(t) + b_{0}u(t)
</math>
</math>
è possibile utilizzare un sommatore per ottenere $x^{(n)}(t)$,
è possibile utilizzare un sommatore per ottenere <math>x^{(n)}(t)</math>,
$n$ integratori in serie per ottenere $x^{(n-1 \cdots 1)}$ e $x(t)$,
<math>n</math> integratori in serie per ottenere <math>x^{(n-1 \cdots 1)}</math> e <math>x(t)</math>,
dei guadagni $a_{n-1} \cdots a_{0}$ e $b_{n} \cdots b_{0}$ per ottenere i termini a secondo membro dell'equazione;
dei guadagni <math>a_{n-1} \cdots a_{0}</math> e <math>b_{n} \cdots b_{0}</math> per ottenere i termini a secondo membro dell'equazione;
si porta nel sommatore le uscite degli integratori moltiplicate per i relativi coefficenti
si porta nel sommatore le uscite degli integratori moltiplicate per i relativi coefficenti
e si manda l'ingresso $u(t)$ nel sommatore
e si manda l'ingresso <math>u(t)</math> nel sommatore
(anch'esso moltiplicato per i suoi coefficenti)
(anch'esso moltiplicato per i suoi coefficenti)


Riga 74: Riga 74:
Un sistema rappresentato in questo modo, portato in variabili di stato, viene ad essere espresso in forma canonica di controllabilità.
Un sistema rappresentato in questo modo, portato in variabili di stato, viene ad essere espresso in forma canonica di controllabilità.
Per ricavare rapidamente il diagramma dall'equazione differenziale,
Per ricavare rapidamente il diagramma dall'equazione differenziale,
si esprimono le derivate $f^{(i)}(t)$ con $s^{i}f(t)$,
si esprimono le derivate <math>f^{(i)}(t)</math> con <math>s^{i}f(t)</math>,
quindi si divide per $s$ più volte per portarle tutte a denominatore,
quindi si divide per <math>s</math> più volte per portarle tutte a denominatore,
si raccoglie $1/s$ e
si raccoglie <math>1/s</math> e
si ottiene un equazione che rappresenta la struttura del circuito
si ottiene un equazione che rappresenta la struttura del circuito




===Variabili di stato===
=== Variabili di stato ===
Un sistema MIMO lineare tempoinvariante si descrive facilmente utilizzando le matrici
Un sistema MIMO lineare tempoinvariante si descrive facilmente utilizzando le matrici


Un sistema può essere descritto da un'equazione differenziale
Un sistema può essere descritto da un'equazione differenziale
o da un sistema di equazioni differenziali
o da un sistema di equazioni differenziali
in cui le funzioni incognite $x_{1}(t) \cdots x_{n_{x}}(t)$ sono dette \emph{variabili di stato} e sono
in cui le funzioni incognite <math>x_{1}(t) \cdots x_{n_{x}}(t)</math> sono dette \emph{variabili di stato} e sono
il minimo numero di variabili tali che la conoscenza di queste ad un istante $t_{0}$ è sufficente a determinarelo stato del sistema per ogni istante successivo
il minimo numero di variabili tali che la conoscenza di queste ad un istante <math>t_{0}</math> è sufficente a determinarelo stato del sistema per ogni istante successivo


i valori $x_{1}(t_{0}) \cdots x_{n_{x}}(t_{0})$ rappresentano le \emph{condizioni iniziali del sistema}
i valori <math>x_{1}(t_{0}) \cdots x_{n_{x}}(t_{0})</math> rappresentano le \emph{condizioni iniziali del sistema}


Un sistema lineare può essere espresso utilizzando le matrici
Un sistema lineare può essere espresso utilizzando le matrici
Riga 99: Riga 99:
\right.
\right.
</math>
</math>
dove le matrici $A,B,C,D$ sono tali che
dove le matrici <math>A,B,C,D</math> sono tali che
$A \in \Re^{n_{x} \times n_{x}}$,
<math>A \in \Re^{n_{x} \times n_{x}}</math>,
$B \in \Re^{n_{x} \times n_{u}}$,
<math>B \in \Re^{n_{x} \times n_{u}}</math>,
$C \in \Re^{n_{y} \times n_{x}}$,
<math>C \in \Re^{n_{y} \times n_{x}}</math>,
$D \in \Re^{n_{y} \times n_{u}}$;
<math>D \in \Re^{n_{y} \times n_{u}}</math>;
la matrice $A$ è detta \emph{matrice di stato}
la matrice <math>A</math> è detta \emph{matrice di stato}


Lo stato in funzione del tempo (o movimento dello stato)
Lo stato in funzione del tempo (o movimento dello stato)
Riga 113: Riga 113:
x(t) = e^{A(t-t_{0})} x(t_{0}) + \int _{t_{0}} ^{t} e^{A(t-k)} B u(k) dk
x(t) = e^{A(t-t_{0})} x(t_{0}) + \int _{t_{0}} ^{t} e^{A(t-k)} B u(k) dk
</math>
</math>
dove $\Phi = e^{A(t-t_{0})}$ è la \emph{matrice di transizione dello stato}
dove <math>\Phi = e^{A(t-t_{0})}</math> è la \emph{matrice di transizione dello stato}
di un sistema lineare
di un sistema lineare


Riga 129: Riga 129:
quando l'ingresso è costante
quando l'ingresso è costante


Se la matrice $A$ è invertibile allora lo stato di equilibrio è unico e corrisponde allo stato e all'uscita
Se la matrice <math>A</math> è invertibile allora lo stato di equilibrio è unico e corrisponde allo stato e all'uscita
<math>
<math>
\left\{ \begin{array}{l}
\left\{ \begin{array}{l}
Riga 136: Riga 136:
\end{array} \right.
\end{array} \right.
</math>
</math>
la matrice $D - CA^{-1}B$ rappresenta il \emph{guadagno statico del sistema}
la matrice <math>D - CA^{-1}B</math> rappresenta il \emph{guadagno statico del sistema}
\vedilibro{rif:b}{70}
\vedilibro{rif:b}{70}
che nel caso di sistemi SISO si indica con $\rho$
che nel caso di sistemi SISO si indica con <math>\rho</math>
e costituisce il rapporto tra l'uscita e l'ingresso quanto tutte le variabili del sistema, ingresso e stato, sono costanti
e costituisce il rapporto tra l'uscita e l'ingresso quanto tutte le variabili del sistema, ingresso e stato, sono costanti


====Soluzione del sistema in variabili di stato====
==== Soluzione del sistema in variabili di stato ====
L'unico passo non banale nella soluzione di un sistema in variabili di stato
L'unico passo non banale nella soluzione di un sistema in variabili di stato
consiste nella valutazione della matrice di transizione dello stato
consiste nella valutazione della matrice di transizione dello stato
$\Phi = e^{A(t-t_{0})}$
<math>\Phi = e^{A(t-t_{0})}</math>
\vedilibro{rif:c}{485, Computation of state transition matrix}
\vedilibro{rif:c}{485, Computation of state transition matrix}
che è possibile risolvere utilizzando la trasformata di Laplace o portando la matrice $A$ in forma diagonale
che è possibile risolvere utilizzando la trasformata di Laplace o portando la matrice <math>A</math> in forma diagonale


Se consideriamo il sistema a ingresso nullo $x'(t) = Ax(t)$
Se consideriamo il sistema a ingresso nullo <math>x'(t) = Ax(t)</math>
e trasformiamo entrambi i membri,
e trasformiamo entrambi i membri,
si ottiene $s X(s) - x(t_{0}) = A X(s)$,
si ottiene <math>s X(s) - x(t_{0}) = A X(s)</math>,
ovvero $X(s) = (sI-A)^{-1} x(t_{0})$;
ovvero <math>X(s) = (sI-A)^{-1} x(t_{0})</math>;
e quindi antitrasformando si trova che
e quindi antitrasformando si trova che
<math>
<math>
Riga 164: Riga 164:
</math>
</math>


Utilizzando le trasformazioni lineari e portando la matrice di stato in forma diagonale o a blocchi di Jordan, la valutazione di $e^{A(t-t_{0})}$ è più semplice
Utilizzando le trasformazioni lineari e portando la matrice di stato in forma diagonale o a blocchi di Jordan, la valutazione di <math>e^{A(t-t_{0})}</math> è più semplice


====Matrici====
==== Matrici ====
Alcuni richiami sulle matrici \dots
Alcuni richiami sulle matrici \dots
\vedilibro{rif:k}{245, sezione 5-7: Characteristic equation, eigenvalues, eigenvectors}
\vedilibro{rif:k}{245, sezione 5-7: Characteristic equation, eigenvalues, eigenvectors}
\vedilibro{rif:r}{Richiami di algebra lineare: autovalori e Autovettori}
\vedilibro{rif:r}{Richiami di algebra lineare: autovalori e Autovettori}


gli \emph{autovalori} di una matrice $A$ sono le radici $\lambda_{i}$ dell'equazione
gli \emph{autovalori} di una matrice <math>A</math> sono le radici <math>\lambda_{i}</math> dell'equazione
<math>
<math>
| \lambda I - A | = 0
| \lambda I - A | = 0
Riga 177: Riga 177:
radici multiple corrispondono ad autovalori con molteplicità algebrica maggiore di uno
radici multiple corrispondono ad autovalori con molteplicità algebrica maggiore di uno


ad ogni autovalore $\lambda_{i}$ corrisponde un \emph{autovettore} $v_{i}$ tale che
ad ogni autovalore <math>\lambda_{i}</math> corrisponde un \emph{autovettore} <math>v_{i}</math> tale che
<math>
<math>
(\lambda_{i} - A)v_{i} = 0
(\lambda_{i} - A)v_{i} = 0
</math>
</math>
per ogni autovalore di molteplicità algebrica $n>1$ esistono $n-1$ autovettori generalizzati che si determinano ripetendo $n-1$ volte il l'equazione precedente sostituendo a 0 l'opposto dell'ultimo autovettore trovato.
per ogni autovalore di molteplicità algebrica <math>n>1</math> esistono <math>n-1</math> autovettori generalizzati che si determinano ripetendo <math>n-1</math> volte il l'equazione precedente sostituendo a 0 l'opposto dell'ultimo autovettore trovato.
<math>
<math>
(\lambda_{i} - A)v_{i} = -v_{i-1}
(\lambda_{i} - A)v_{i} = -v_{i-1}
Riga 188: Riga 188:
Si dice \emph{molteplicità geometrica} di un autovalore il numero di autovettori linearmente indipendenti ad esso associati
Si dice \emph{molteplicità geometrica} di un autovalore il numero di autovettori linearmente indipendenti ad esso associati
% !!!!!!!!!!!!!!!!
% !!!!!!!!!!!!!!!!
corrispondenti alla dimensione del nullo di A ($N(A)$) (?)
corrispondenti alla dimensione del nullo di A (<math>N(A)</math>) (?)


Il \emph{rango di una matrice} $r\{A\}$ è pari al numero di righe linearmente indipendenti,
Il \emph{rango di una matrice} <math>r\{A\}</math> è pari al numero di righe linearmente indipendenti,
valgono le seguenti proprietà:
valgono le seguenti proprietà:
\vedilibro{rif:r}{6, Richiami di algebra lineare: Rango, operatori lineari, trasformazioni}
\vedilibro{rif:r}{6, Richiami di algebra lineare: Rango, operatori lineari, trasformazioni}
\begin{itemize}
\begin{itemize}
\item
\item
$r\{A\}$ è uguale al numero di colonne o righe linearmente indipendenti
<math>r\{A\}</math> è uguale al numero di colonne o righe linearmente indipendenti
\item
\item
$r\{A\}$ è uguale al rango della matrice trasposta di $A$: $r\{A\} = r\{A^{T}\}$
<math>r\{A\}</math> è uguale al rango della matrice trasposta di <math>A</math>: <math>r\{A\} = r\{A^{T}\}</math>
\item
\item
$r\{A\}$ è minore del numero di colonne e del numero di righe della matrice
<math>r\{A\}</math> è minore del numero di colonne e del numero di righe della matrice
\item
\item
se la matrice è quadrata ($A \in M^{n \times n}$) e il suo rango è massimo ($r\{A\} = n$), allora è invertibile
se la matrice è quadrata (<math>A \in M^{n \times n}</math>) e il suo rango è massimo (<math>r\{A\} = n</math>), allora è invertibile
\item
\item
il rango è inveriante rispetto a pre o post moltiplicazioni per matrici non singolari (come le matrici in una similitudine)
il rango è inveriante rispetto a pre o post moltiplicazioni per matrici non singolari (come le matrici in una similitudine)
Riga 209: Riga 209:




====Cambiamento di coordinate====
==== Cambiamento di coordinate ====
Le matrici $A$,$B$,$C$,$D$
Le matrici <math>A</math>,<math>B</math>,<math>C</math>,<math>D</math>
(matrici rappresentative del sistema)
(matrici rappresentative del sistema)
rappresentano una trasformazione lineare (similitudine) dallo spazio di $x$ e $u$ a quello di $x'$
rappresentano una trasformazione lineare (similitudine) dallo spazio di <math>x</math> e <math>u</math> a quello di <math>x'</math>
\vedilibro{rif:ag}{125, Capitolo 4: Trasformazioni lineari e matrici}
\vedilibro{rif:ag}{125, Capitolo 4: Trasformazioni lineari e matrici}
\vedilibro{rif:r}{Richiami di algebra lineare: Rango, operatori lineari, trasformazioni}
\vedilibro{rif:r}{Richiami di algebra lineare: Rango, operatori lineari, trasformazioni}
Riga 221: Riga 221:
\vedilibro{rif:b}{61, sezione 3.2.2: Rappresentazioni equivalenti}
\vedilibro{rif:b}{61, sezione 3.2.2: Rappresentazioni equivalenti}


Applicando una trasformazione $M$ al sistema
Applicando una trasformazione <math>M</math> al sistema
\vedilibro{rif:c}{472}
\vedilibro{rif:c}{472}
si ottiene
si ottiene
Riga 232: Riga 232:
\right.
\right.
</math>
</math>
dove $M$ è una matrice quadrata e $x_{M}(t)$ è un nuovo vettore di stato tale che $x(t) = Mx_{M}(t)$
dove <math>M</math> è una matrice quadrata e <math>x_{M}(t)</math> è un nuovo vettore di stato tale che <math>x(t) = Mx_{M}(t)</math>


Una matrice quadrata $M$ rappresenta la stessa trasformazione lineare di una matrice $M'=T^{-1}MT$ se $T$ non è singolare
Una matrice quadrata <math>M</math> rappresenta la stessa trasformazione lineare di una matrice <math>M'=T^{-1}MT</math> se <math>T</math> non è singolare
\vedilibro{rif:ag}{210, Sezione 6-9: Matrici simili} ,
\vedilibro{rif:ag}{210, Sezione 6-9: Matrici simili} ,
due matrici simili hanno stesso polinomio caratteristico e stessi autovalori
due matrici simili hanno stesso polinomio caratteristico e stessi autovalori


\`E possibile scegliere $M$ in modo da rendere $M^{-1}AM$ in una forma che consenta di effettuare meglio calcoli,
\`E possibile scegliere <math>M</math> in modo da rendere <math>M^{-1}AM</math> in una forma che consenta di effettuare meglio calcoli,
\vedilibro{rif:ag}{224, sezione 7.9: Diagonalizzazione di matrici Hermitiane o anti-Hermitiane}
\vedilibro{rif:ag}{224, sezione 7.9: Diagonalizzazione di matrici Hermitiane o anti-Hermitiane}
diagonale
diagonale
\vedilibro{rif:b}{63, sezione 3.2.3: Matrice della dinamica diagonalizzabile}
\vedilibro{rif:b}{63, sezione 3.2.3: Matrice della dinamica diagonalizzabile}
(si indica con $\Lambda$)
(si indica con <math>\Lambda</math>)
o in forma di Jordan
o in forma di Jordan
\vedilibro{rif:b}{65, sezione 3.2.3: Matrice della dinamica diagonalizzabile}
\vedilibro{rif:b}{65, sezione 3.2.3: Matrice della dinamica diagonalizzabile}
(<math>J</math>)
($J$)


La matrice $\Lambda$ è diagonale e gli elementi sulla diagonale sono gli autovalori di $A$
La matrice <math>\Lambda</math> è diagonale e gli elementi sulla diagonale sono gli autovalori di <math>A</math>


La matrice a blocchi di Jordan è diagonale,
La matrice a blocchi di Jordan è diagonale,
tranne degli 1 al di sopra degli elementi della diagonale
tranne degli 1 al di sopra degli elementi della diagonale
(che corrispondono ad autovettori linearmente dipendenti),
(che corrispondono ad autovettori linearmente dipendenti),
e gli elementi sulla diagonale sono gli autovalori di $A$
e gli elementi sulla diagonale sono gli autovalori di <math>A</math>
e gli $1$ sulla diagonale superiore sono in corrispondenza degli autovettori generalizzati che sono linearmente dipendenti (???)
e gli <math>1</math> sulla diagonale superiore sono in corrispondenza degli autovettori generalizzati che sono linearmente dipendenti (???)


Per portare una matrice in forma diagonale o di Jordan si usa la trasformazione
Per portare una matrice in forma diagonale o di Jordan si usa la trasformazione
Riga 259: Riga 259:
T_{diag} = [ v_{1} , v_{2} , \cdots , v_{n}]
T_{diag} = [ v_{1} , v_{2} , \cdots , v_{n}]
</math>
</math>
dove $v_{1 \cdots n}$ sono gli autovettori (intesi come vettori-colonna) della matrice
dove <math>v_{1 \cdots n}</math> sono gli autovettori (intesi come vettori-colonna) della matrice
(si può costruire $T$ anche con gli autovettori sinistri messi per righe)
(si può costruire <math>T</math> anche con gli autovettori sinistri messi per righe)


====Esponenziale di una matrice====
==== Esponenziale di una matrice ====
Per ogni matrice quadrata $A \in \Re^{n \times n}$ e ogni scalare $t \geq 0$ è definita la \emph{matrice esponenziale}
Per ogni matrice quadrata <math>A \in \Re^{n \times n}</math> e ogni scalare <math>t \geq 0</math> è definita la \emph{matrice esponenziale}
\vedilibro{rif:b}{591, appendice A.5: Esponenziale}
\vedilibro{rif:b}{591, appendice A.5: Esponenziale}


Riga 273: Riga 273:
Per il \emph{teorema di Cayley-Hamilton}
Per il \emph{teorema di Cayley-Hamilton}
\vedilibro{rif:a2}{98, sezione 3.11: Il teorema di Cayley-Hamilton},
\vedilibro{rif:a2}{98, sezione 3.11: Il teorema di Cayley-Hamilton},
qualunque matrice quadrata $A$ soddisfa la sua equazione caratteristica
qualunque matrice quadrata <math>A</math> soddisfa la sua equazione caratteristica
(il suo polinomio caratteristico eguagliato a zero)
(il suo polinomio caratteristico eguagliato a zero)
<math>
<math>
Riga 279: Riga 279:
</math>
</math>
e quindi la serie necessaria per il calcolo dell'esponenziale si riduce ad una somma finita,
e quindi la serie necessaria per il calcolo dell'esponenziale si riduce ad una somma finita,
in quanto tutte le potenze da $A^{n}$ in poi possono essere espresse come combinazione lineare di $A^{0} \cdots A^{n-1}$
in quanto tutte le potenze da <math>A^{n}</math> in poi possono essere espresse come combinazione lineare di <math>A^{0} \cdots A^{n-1}</math>
<math>
<math>
e^{At} = h_{0}(t)I + h_{1}(t)At + h_{2}(t)\frac{A^{2}t^{2}}{2!} + \cdots
e^{At} = h_{0}(t)I + h_{1}(t)At + h_{2}(t)\frac{A^{2}t^{2}}{2!} + \cdots
+ h_{n-1}(t)\frac{A^{n-1}t^{n-1}}{(n-1)!}
+ h_{n-1}(t)\frac{A^{n-1}t^{n-1}}{(n-1)!}
</math>
</math>
dove i coefficenti $h_{0}(t) \cdots h_{n-1}(t)$ si possono ricavare utilizzando il \emph{determinante di Vandermonte}
dove i coefficenti <math>h_{0}(t) \cdots h_{n-1}(t)</math> si possono ricavare utilizzando il \emph{determinante di Vandermonte}
<math>
<math>
\left( \begin{array}{ccccc}
\left( \begin{array}{ccccc}
1 & \lambda_{1} & \lambda_{1}^{2} & \cdots & \lambda_{1}^{n-1} \\
1 & \lambda_{1} & \lambda_{1}^{2} & \cdots & \lambda_{1}^{n-1} \\
1 & \lambda_{2} & \lambda_{2}^{2} & \cdots & \lambda_{2}^{n-1} \\
1 & \lambda_{2} & \lambda_{2}^{2} & \cdots & \lambda_{2}^{n-1} \\
1 & \lambda_{3} & \lambda_{3}^{2} & \cdots & \lambda_{3}^{n-1} \\
1 & \lambda_{3} & \lambda_{3}^{2} & \cdots & \lambda_{3}^{n-1} \\
\vdots & \vdots & \vdots & \vdots & \vdots \\
\vdots & \vdots & \vdots & \vdots & \vdots \\
1 & \lambda_{n} & \lambda_{n}^{2} & \cdots & \lambda_{n}^{n-1} \\
1 & \lambda_{n} & \lambda_{n}^{2} & \cdots & \lambda_{n}^{n-1} \\
\end{array} \right)
\end{array} \right)
\left[ \begin{array}{c}
\left[ \begin{array}{c}
Riga 303: Riga 303:
\left[ \begin{array}{c}
\left[ \begin{array}{c}
e^{\lambda_{1}t} \\
e^{\lambda_{1}t} \\
e^{\lambda_{2}t} \\
e^{\lambda_{2}t} \\
e^{\lambda_{3}t} \\
e^{\lambda_{3}t} \\
\vdots \\
\vdots \\
e^{\lambda_{n}t} \\
e^{\lambda_{n}t} \\
\end{array} \right]
\end{array} \right]
</math>
</math>
Riga 316: Riga 316:


Oppure se la matrice è in forma diagonale e
Oppure se la matrice è in forma diagonale e
$\lambda_{1} \cdots \lambda_{n}$
<math>\lambda_{1} \cdots \lambda_{n}</math>
sono i suoi autovalori (e quindi gli elementi della diagonale principale)
sono i suoi autovalori (e quindi gli elementi della diagonale principale)
allora
allora
Riga 337: Riga 337:
\begin{array}{ccccc}
\begin{array}{ccccc}
\eLt & t\eLt & \frac{t^{2}}{2!} \eLt & \cdots & \frac{t^{k-1}}{(k-1)!} \eLt \\
\eLt & t\eLt & \frac{t^{2}}{2!} \eLt & \cdots & \frac{t^{k-1}}{(k-1)!} \eLt \\
0 & \eLt & t\eLt & \cdots & \frac{t^{k-2}}{(k-2)!} \eLt \\
0 & \eLt & t\eLt & \cdots & \frac{t^{k-2}}{(k-2)!} \eLt \\
0 & 0 & \eLt & & \\
0 & 0 & \eLt & & \\
\vdots & \vdots & \vdots & \ddots & \vdots \\
\vdots & \vdots & \vdots & \ddots & \vdots \\
0 & 0 & 0 & 0 & \eLt \\
0 & 0 & 0 & 0 & \eLt \\
\end{array} \right)
\end{array} \right)
</math>
</math>


====Forma canonica di controllo====
==== Forma canonica di controllo ====
Dato un sistema in variabili di stato di definisce \emph{forma canonica di controllo}
Dato un sistema in variabili di stato di definisce \emph{forma canonica di controllo}
\vedilibro{rif:b}{125, sezione 4.5.1: Forma canonica di raggiungibilità}
\vedilibro{rif:b}{125, sezione 4.5.1: Forma canonica di raggiungibilità}
il sistema simile al sistema dato $x' = Ax + Bu$ in cui
il sistema simile al sistema dato <math>x' = Ax + Bu</math> in cui
<math>
<math>
A =
A =
Riga 373: Riga 373:
</math>
</math>


Dove si suppone che $n_{z} = n_{p}$ (eventualmente si aggiungono coefficenti nulli)
Dove si suppone che <math>n_{z} = n_{p}</math> (eventualmente si aggiungono coefficenti nulli)


Questa forma è tale che per qualunque valore di $a_{0..n}$ il sistema risulta controllabile;
Questa forma è tale che per qualunque valore di <math>a_{0..n}</math> il sistema risulta controllabile;
può essere ricavata direttamente dal diagramma analogico applicato all'equazione differenziale che descrive il sistema (????)
può essere ricavata direttamente dal diagramma analogico applicato all'equazione differenziale che descrive il sistema (????)


====Forma canonica di osservabilità====
==== Forma canonica di osservabilità ====
Dato un sistema in variabili di stato di definisce \emph{forma canonica di osservabilità}
Dato un sistema in variabili di stato di definisce \emph{forma canonica di osservabilità}
\vedilibro{rif:b}{125, sezione 4.5.2: Forma canonica di osservabilità}
\vedilibro{rif:b}{125, sezione 4.5.2: Forma canonica di osservabilità}
il sistema simile al sistema dato $x' = Ax + Bu$ in cui
il sistema simile al sistema dato <math>x' = Ax + Bu</math> in cui
<math>
<math>
A =
A =
Riga 404: Riga 404:
</math>
</math>


Dove si suppone che $n_{z} = n_{p}$ (eventualmente si aggiungono coefficenti nulli)
Dove si suppone che <math>n_{z} = n_{p}</math> (eventualmente si aggiungono coefficenti nulli)


Questa forma è tale che per qualunque valore di $a_{0..n}$ il sistema risulta osservabile
Questa forma è tale che per qualunque valore di <math>a_{0..n}</math> il sistema risulta osservabile




===Funzione di trasferimento===
=== Funzione di trasferimento ===
La \emph{funzione di trasferimento ingresso-uscita} $G(s)$ di un sistema lineare SISO
La \emph{funzione di trasferimento ingresso-uscita} <math>G(s)</math> di un sistema lineare SISO
\vedilibro{rif:k}{78, sezione 3-2: Impulse response and transfer function of linear systems}
\vedilibro{rif:k}{78, sezione 3-2: Impulse response and transfer function of linear systems}
\vedilibro{rif:b}{99, capitolo 4: Funzione di trasferimento}
\vedilibro{rif:b}{99, capitolo 4: Funzione di trasferimento}
Riga 417: Riga 417:
Y(s) = G(s) U(s)
Y(s) = G(s) U(s)
</math>
</math>
dove $U(s)$ e $Y(s)$ rappresentano la trasformata di Laplace dell'ingresso $u(t)$ e dell'uscita $y(t)$;
dove <math>U(s)</math> e <math>Y(s)</math> rappresentano la trasformata di Laplace dell'ingresso <math>u(t)</math> e dell'uscita <math>y(t)</math>;
è in generale esprimibile da un rapporto di polinomi in $s$, ma sono possibili varie forme
è in generale esprimibile da un rapporto di polinomi in <math>s</math>, ma sono possibili varie forme
\vedilibro{rif:b}{106, sezione 4.3: Rappresentazioni e parametri della funzione di trasferimento}
\vedilibro{rif:b}{106, sezione 4.3: Rappresentazioni e parametri della funzione di trasferimento}


Riga 446: Riga 446:
\begin{itemize}
\begin{itemize}
\item
\item
$p_{1}, p_{2}, \ldots, p_{n_{p}}$ sono detti \emph{poli} della funzione di trasferimento;
<math>p_{1}, p_{2}, \ldots, p_{n_{p}}</math> sono detti \emph{poli} della funzione di trasferimento;
\item
\item
$z_{1}, z_{2}, \ldots, z_{n_{z}}$ sono gli \emph{zeri};
<math>z_{1}, z_{2}, \ldots, z_{n_{z}}</math> sono gli \emph{zeri};
\item
\item
$n_{p}$ è il numero dei poli e $n_{z}$ il numero degli zeri
<math>n_{p}</math> è il numero dei poli e <math>n_{z}</math> il numero degli zeri
\item
\item
$T$ e $\tau$ sono gli inversi dei poli e degli zeri non nulli (detti anche \emph{costanti di tempo}) $T_{i} = 1/p_{i}$ e $\tau_{i} = 1/z_{i}$
<math>T</math> e <math>\tau</math> sono gli inversi dei poli e degli zeri non nulli (detti anche \emph{costanti di tempo}) <math>T_{i} = 1/p_{i}</math> e <math>\tau_{i} = 1/z_{i}</math>
\item
\item
$g$ è il \emph{grado del sistema}, il numero di poli nulli
<math>g</math> è il \emph{grado del sistema}, il numero di poli nulli
\item
\item
$\rho$ rappresenta qui il \emph{guadagno generalizzato}
<math>\rho</math> rappresenta qui il \emph{guadagno generalizzato}
\vedilibro{rif:b}{70, sezione 3.2.5: Equilibrio}
\vedilibro{rif:b}{70, sezione 3.2.5: Equilibrio}
\vedilibro{rif:b}{106, sezione 4.3.1: Guadagno}
\vedilibro{rif:b}{106, sezione 4.3.1: Guadagno}
Riga 468: Riga 468:


Il denominatore della funzione di trasferimento
Il denominatore della funzione di trasferimento
$s^{n_{p}} + a_{n_{p}-1}s^{n_{p}-1} + \cdots + a_{1}s + a_{0}$ rappresenta il polinomio caratteristico del sistema;
<math>s^{n_{p}} + a_{n_{p}-1}s^{n_{p}-1} + \cdots + a_{1}s + a_{0}</math> rappresenta il polinomio caratteristico del sistema;


Gli zeri di un sistema rappresentano gli ingressi $e^{z_{1 \cdots n_{z}}t}$ per cui il sistema ha uscita nulla,
Gli zeri di un sistema rappresentano gli ingressi <math>e^{z_{1 \cdots n_{z}}t}</math> per cui il sistema ha uscita nulla,
questa è detta \emph{proprietà bloccante degli zeri}
questa è detta \emph{proprietà bloccante degli zeri}
\vedilibro{rif:b}{155, sezione 6.2.2: Proprietà bloccante degli zeri}
\vedilibro{rif:b}{155, sezione 6.2.2: Proprietà bloccante degli zeri}


Poiché i coefficenti $a_{n_{p}} \cdots a_{0}$ e $b_{n_{z}} \cdots b_{0}$ sono reali,
Poiché i coefficenti <math>a_{n_{p}} \cdots a_{0}</math> e <math>b_{n_{z}} \cdots b_{0}</math> sono reali,
i poli e gli zeri di un sistema
i poli e gli zeri di un sistema
(che sono considerati talvolta le radici dei polinomi a numeratore e a denominatore della funzione di trasferimento, talvolta i loro opposti)
(che sono considerati talvolta le radici dei polinomi a numeratore e a denominatore della funzione di trasferimento, talvolta i loro opposti)
Riga 482: Riga 482:
\vedilibro{rif:k}{568}
\vedilibro{rif:k}{568}
se non ha poli o zeri negativi (instabili) o immaginari puri (eccetto siano nulli);
se non ha poli o zeri negativi (instabili) o immaginari puri (eccetto siano nulli);
in questo caso la variazione di fase totale tra la pulsazione nulla e infinita è $(n_{p} - n_{z})\pi/2$,
in questo caso la variazione di fase totale tra la pulsazione nulla e infinita è <math>(n_{p} - n_{z})\pi/2</math>,
il valore della funzione di trasferimento non è mai zero o infinito per pulsazioni limitate non nulle
il valore della funzione di trasferimento non è mai zero o infinito per pulsazioni limitate non nulle


Riga 490: Riga 490:
\vedilibro{rif:b}{102, sezione 4.2.4: Cancellazioni e stabilità}
\vedilibro{rif:b}{102, sezione 4.2.4: Cancellazioni e stabilità}


====La trasformata di Laplace====
==== La trasformata di Laplace ====
\`E definita per funzioni reali $f(t)$ la \emph{trasformata di laplace}
\`E definita per funzioni reali <math>f(t)</math> la \emph{trasformata di laplace}
\vedilibro{rif:b}{598, appendice B.3: Trasformata di Laplace}
\vedilibro{rif:b}{598, appendice B.3: Trasformata di Laplace}
\vedilibro{rif:k}{28, sezione 2-4: Laplace Transform}
\vedilibro{rif:k}{28, sezione 2-4: Laplace Transform}
\LaplaceTrasf{\cdot}
\LaplaceTrasf{\cdot}
come funzione della variabile complessa $s = \sigma + j \omega$ secondo la formula
come funzione della variabile complessa <math>s = \sigma + j \omega</math> secondo la formula
<math>
<math>
F(s) = \int _{0^{-}} ^{+\infty} f(t) e ^{-st} dt
F(s) = \int _{0^{-}} ^{+\infty} f(t) e ^{-st} dt
</math>
</math>


$f(t)$ deve essere definita almeno per $t \geq 0$
<math>f(t)</math> deve essere definita almeno per <math>t \geq 0</math>


il minimo valore di $s$, indicato con $\sigma_{0}$ per cui la trasformata esiste è detta ascissa di convergenza.
il minimo valore di <math>s</math>, indicato con <math>\sigma_{0}</math> per cui la trasformata esiste è detta ascissa di convergenza.


L'operazione trasforma una funzione in un altro spazio
L'operazione trasforma una funzione in un altro spazio
\vedilibro{rif:r}{Richiami di geometria: Vettori - Spazi vettoriali}
\vedilibro{rif:r}{Richiami di geometria: Vettori - Spazi vettoriali}
le cui basi sono le funzioni $e^{st}$ ovvero
le cui basi sono le funzioni <math>e^{st}</math> ovvero
$e^{\sigma + j \omega} = e^{\sigma} (\cos{j \omega} + j \sin{\omega} )$
<math>e^{\sigma + j \omega} = e^{\sigma} (\cos{j \omega} + j \sin{\omega} )</math>
\vedilibro{rif:r}{Richiami di numeri complessi}
\vedilibro{rif:r}{Richiami di numeri complessi}
; sono quindi trasformabili tutte le funzioni che possono essere espresse come somma di funzioni sinusoidali esponenzialmente smorzate, che includono le funzioni esponenziali semplici, lineari e sinusoidali
; sono quindi trasformabili tutte le funzioni che possono essere espresse come somma di funzioni sinusoidali esponenzialmente smorzate, che includono le funzioni esponenziali semplici, lineari e sinusoidali
Riga 518: Riga 518:
F(s) e ^{st} ds
F(s) e ^{st} ds
</math>
</math>
dove $\sigma_{1}$ è un qualsiasi valore maggiore di $\sigma_{0}$
dove <math>\sigma_{1}</math> è un qualsiasi valore maggiore di <math>\sigma_{0}</math>




\subsubsection{Teorema del valore finale}
\subsubsection{Teorema del valore finale}
Se $f(t)$ ha trasformata $F(s)$ razionale (o anche solo se esiste il limite a primo membro) con grado del denominatore maggiore del grado del numeratore e poli negativi o nulli, allora
Se <math>f(t)</math> ha trasformata <math>F(s)</math> razionale (o anche solo se esiste il limite a primo membro) con grado del denominatore maggiore del grado del numeratore e poli negativi o nulli, allora
\vedilibro{rif:b}{603}
\vedilibro{rif:b}{603}
<math>
<math>
Riga 528: Riga 528:
</math>
</math>


=====Teorema del valore iniziale=====
===== Teorema del valore iniziale =====
Se $f(t)$ ha trasformata $F(s)$ razionale (o anche solo se $f(0^{+})$ esiste) con grado del denominatore maggiore del grado del numeratore, allora
Se <math>f(t)</math> ha trasformata <math>F(s)</math> razionale (o anche solo se <math>f(0^{+})</math> esiste) con grado del denominatore maggiore del grado del numeratore, allora
\vedilibro{rif:b}{603}
\vedilibro{rif:b}{603}
<math>
<math>
f(0^{+}) = \lim_{s \rightarrow \infty} sF(s)
f(0^{+}) = \lim_{s \rightarrow \infty} sF(s)
</math>
</math>
$\sigma_{0}$ deve essere minore di 0 altrimenti $F(s)$ non è definita in 0 e il teorema non è applicabile
<math>\sigma_{0}</math> deve essere minore di 0 altrimenti <math>F(s)</math> non è definita in 0 e il teorema non è applicabile




===Risposta impulsiva===
=== Risposta impulsiva ===
La risposta impulsiva di un sistema è definita come l'uscita $g_{i}(t)$ del sistema quando si ha in ingresso una delta di Dirac $u(t) = \delta(t)$ su un singolo ingresso $u_{i}$
La risposta impulsiva di un sistema è definita come l'uscita <math>g_{i}(t)</math> del sistema quando si ha in ingresso una delta di Dirac <math>u(t) = \delta(t)</math> su un singolo ingresso <math>u_{i}</math>
\vedilibro{rif:b}{68, sezione 3.2.4: Risposta all'impulso e movimento forzato};
\vedilibro{rif:b}{68, sezione 3.2.4: Risposta all'impulso e movimento forzato};
si definnisce
si definnisce
Riga 550: Riga 550:
</math>
</math>


Si definisce anche la \emph{risposta al gradino} $g_{gr}(t)$,
Si definisce anche la \emph{risposta al gradino} <math>g_{gr}(t)</math>,
la cui derivata è la risposta impulsiva,
la cui derivata è la risposta impulsiva,
come la risposta del sistema ad un ingresso a gradino unitario
come la risposta del sistema ad un ingresso a gradino unitario
Riga 556: Riga 556:
g_{gr-i}(t) = C\int_{t_{0}}^{t}e^{At -\tau}B_{i}d\tau = C A^{-1}\big(e^{At} - I\big)B_{i}
g_{gr-i}(t) = C\int_{t_{0}}^{t}e^{At -\tau}B_{i}d\tau = C A^{-1}\big(e^{At} - I\big)B_{i}
</math>
</math>
dove $\int_{0}^{t}e^{A\tau}d\tau = A^{-1}(e^{At} - I)$ per analogia con gli scalari
dove <math>\int_{0}^{t}e^{A\tau}d\tau = A^{-1}(e^{At} - I)</math> per analogia con gli scalari




===Risposta in frequenza===
=== Risposta in frequenza ===
Se si restringe la funzione di trasferimento di un sistema sui valori di $s$ immaginari puri positivi, si ottiene
Se si restringe la funzione di trasferimento di un sistema sui valori di <math>s</math> immaginari puri positivi, si ottiene
la \emph{risposta in frequenza del sistema} $G(j\omega)$
la \emph{risposta in frequenza del sistema} <math>G(j\omega)</math>
\vedilibro{rif:b}{154, capitolo 6: Risposta in frequenza}
\vedilibro{rif:b}{154, capitolo 6: Risposta in frequenza}
che rappresenta l'uscita del sistema quando ha in ingresso una sinusoide
che rappresenta l'uscita del sistema quando ha in ingresso una sinusoide


Essa è definita per tutti i valori della pulsazione $\omega$ positivi che non siano poli immaginari puri di $G(s)$
Essa è definita per tutti i valori della pulsazione <math>\omega</math> positivi che non siano poli immaginari puri di <math>G(s)</math>


Quindi se $u(t) = \sin \omega t$, allora si ha che
Quindi se <math>u(t) = \sin \omega t</math>, allora si ha che
<math>
<math>
y(t) = |G(j\omega)| \sin (\omega t + \angle G(j\omega) )
y(t) = |G(j\omega)| \sin (\omega t + \angle G(j\omega) )
</math>
</math>


La risposta in frequenza è una funzione a immagine complessa $\Im \rightarrow \Comp$;
La risposta in frequenza è una funzione a immagine complessa <math>\Im \rightarrow \Comp</math>;
il modulo della risposta in frequenza rappresenta la variazione del modulo dell'uscita in funzione della pulsazione dell'ingresso;
il modulo della risposta in frequenza rappresenta la variazione del modulo dell'uscita in funzione della pulsazione dell'ingresso;
la fase della risposta in frequenza rappresenta la variazione della fase dell'uscita in funzione della pulsazione dell'ingresso
la fase della risposta in frequenza rappresenta la variazione della fase dell'uscita in funzione della pulsazione dell'ingresso
Riga 615: Riga 615:
se si vuole valutare la risposta in frequenza per pulsazioni lontane dai poli e dagli zeri,
se si vuole valutare la risposta in frequenza per pulsazioni lontane dai poli e dagli zeri,
è possibile trascurare poli e zeri a pulsazioni elevate
è possibile trascurare poli e zeri a pulsazioni elevate
(tali che $1 + \tau j\omega \approx 1$)
(tali che <math>1 + \tau j\omega \approx 1</math>)
e semplificare l'espressione di poli e zeri a pulsazioni inferiori
e semplificare l'espressione di poli e zeri a pulsazioni inferiori
(tali che $1 << \tau j\omega$)
(tali che <math>1 << \tau j\omega</math>)
ottenendo la risposta in frequenza semplificata
ottenendo la risposta in frequenza semplificata
<math>
<math>
Riga 628: Riga 628:
(T_{L-g}j\omega) }
(T_{L-g}j\omega) }
</math>
</math>
che è valida per pulsazioni $1/\tau_{l}, 1/T_{L} << \omega << 1/\tau_{l+1}, 1/T_{L+1}$;
che è valida per pulsazioni <math>1/\tau_{l}, 1/T_{L} << \omega << 1/\tau_{l+1}, 1/T_{L+1}</math>;


Se si vuole valutare il modulo a frequenze maggiori di un numero pari di poli e zeri ($l = L + g$);
Se si vuole valutare il modulo a frequenze maggiori di un numero pari di poli e zeri (<math>l = L + g</math>);
ovvero in corrispondenza di un tratto a guadagno costante,
ovvero in corrispondenza di un tratto a guadagno costante,
è possibile semplificare anche $\omega$ dall'espressione della risposta in ampiezza,
è possibile semplificare anche <math>\omega</math> dall'espressione della risposta in ampiezza,
ottenendo la forma ulteriormente semplificata
ottenendo la forma ulteriormente semplificata
<math>
<math>
Riga 641: Riga 641:




====La trasformata di Fourier====
==== La trasformata di Fourier ====
La \emph{trasformata di Fourier} $\FourierTrasf{f(t)}$
La \emph{trasformata di Fourier} <math>\FourierTrasf{f(t)}</math>
\vedilibro{rif:b}{617, appendice B.5: Trasformata di Fourier}
\vedilibro{rif:b}{617, appendice B.5: Trasformata di Fourier}
è definita come la trasformata di laplace per funzioni reali $f(t)$ ma prendendo come base le funzioni sinusoidali
è definita come la trasformata di laplace per funzioni reali <math>f(t)</math> ma prendendo come base le funzioni sinusoidali
<math>
<math>
F(j\omega) = \int _{-\infty} ^{+\infty} f(t) e ^{-j\omega t} dt
F(j\omega) = \int _{-\infty} ^{+\infty} f(t) e ^{-j\omega t} dt
</math>
</math>
l'operazione inversa $\invFourierTrasf{F(j\omega)}$ è
l'operazione inversa <math>\invFourierTrasf{F(j\omega)}</math> è
<math>
<math>
f(t) = \frac{1}{2\pi} \int_{-\infty}^{+\infty} F(j\omega) e^{j\omega t} d\omega
f(t) = \frac{1}{2\pi} \int_{-\infty}^{+\infty} F(j\omega) e^{j\omega t} d\omega
Riga 654: Riga 654:




===Passaggio tra le varie rappresentazioni===
=== Passaggio tra le varie rappresentazioni ===
\vedilibro{rif:b}{129, figura 4.16: Rappresentazioni dei sistemi dinamici e relazioni corrispondenti}
\vedilibro{rif:b}{129, figura 4.16: Rappresentazioni dei sistemi dinamici e relazioni corrispondenti}


Riga 670: Riga 670:
Se si considera il sistema espresso in variabili di stato in forma canonica
Se si considera il sistema espresso in variabili di stato in forma canonica
e si applica la trasformata di Laplace a entrambi i membri delle due equazioni,
e si applica la trasformata di Laplace a entrambi i membri delle due equazioni,
con alcuni passaggi (poiché $det\{(sI-A)\})$ non è identicamente nullo per ogni $s$) si ottiene:
con alcuni passaggi (poiché <math>det\{(sI-A)\})</math> non è identicamente nullo per ogni <math>s</math>) si ottiene:
\vedilibro{rif:b}{99, sezione 4.2.1: Definizione e proprietà della FdT}
\vedilibro{rif:b}{99, sezione 4.2.1: Definizione e proprietà della FdT}
<math>
<math>
Riga 686: Riga 686:
</math>
</math>
in questo caso, poiché il sistema in variabili di stato è in generale MIMO,
in questo caso, poiché il sistema in variabili di stato è in generale MIMO,
la funzione di trasferimento è una matrice con termini che sono funzioni razionali fratte con al denominatore il polinomio caratteristico della matrice $A$
la funzione di trasferimento è una matrice con termini che sono funzioni razionali fratte con al denominatore il polinomio caratteristico della matrice <math>A</math>


Conoscendo le matrici $B, C, D$ è possibile ricavare dalla funzione di trasferimento ingresso-uscita anche
Conoscendo le matrici <math>B, C, D</math> è possibile ricavare dalla funzione di trasferimento ingresso-uscita anche
la \emph{funzione di trasferimento ingresso-stato}
la \emph{funzione di trasferimento ingresso-stato}


Riga 695: Riga 695:


====Dalle variabili di stato alla risposta impulsiva}
====Dalle variabili di stato alla risposta impulsiva}
Conoscendo le matrici rappresentative del sistema $A, B, C, D$,
Conoscendo le matrici rappresentative del sistema <math>A, B, C, D</math>,
la risposta impulsiva
la risposta impulsiva
\vedilibro{rif:b}{68, sezione 3.2.4: Risposta all'impulso e movimento forzato}
\vedilibro{rif:b}{68, sezione 3.2.4: Risposta all'impulso e movimento forzato}

Versione delle 12:22, 13 giu 2006

Descrizione con equazioni differenziali

Si può creare un modello matematico di molti sistemi per mezzo delle equazioni differenziali \vedilibro{rif:k}{25, sezione 2-3: Differential equations} Trattiamo solo sistemi modellizzabili con equazioni differenziali lineari a coefficenti costanti \vedilibro{rif:a2}{34, sezione 2.4: Equazioni differenziali lineari di ordine };

In generale un sistema lineare tempoinvariante SISO rappresentato con equazioni diffrenziali avrà uno stato interno descritto da equazioni del tipo dove è la funzione di stato, i coefficenti sono numeri reali e è la funzione di ingresso L'uscita del sistema è data in generale come funzione lineare dello stato e dell'ingresso

Il polinomio caratteristico dell'equazione è

La soluzione generale dell'equazione sarà composta da una componente data dalla soluzione dell'equazione omogenea associata (dove ) più una componente detta soluzione particolare che sarà dello stesso tipo di

Per ottenere una soluzione unica, è necessario conoscere tante condizioni () su o sulle sue derivate pari al grado dell'equazione

Sistemi di equazioni differenziali

\`E possibile scomporre sempre una o più equazioni differenziali in un sistema di equazioni differenziali del primo ordine \vedilibro{rif:k}{26, sezione 2-3-3: First-order differential equations} del tipo dove e sono scalari reali che ha soluzione \vedilibro{rif:a2}{108, sezione 3.16: Sistemi lineari non omogenei a coefficenti costanti}

Diagramma analogico

\`E possibile rappresentare un sistema in una forma a blocchi detta \emph{diagramma analogico} \vedilibro{rif:c}{462, figura 12.7} utilizzando blocchi che rappresentano sistemi semplici: \begin{itemize} \item Amplificatore con guadagno : \item Integratore \item Sommatore \end{itemize} Esistono due (???) strutture standard

Se si considera l'equazione differenziale che descrive il sistema espressa come è possibile utilizzare un sommatore per ottenere , integratori in serie per ottenere e , dei guadagni e per ottenere i termini a secondo membro dell'equazione; si porta nel sommatore le uscite degli integratori moltiplicate per i relativi coefficenti e si manda l'ingresso nel sommatore (anch'esso moltiplicato per i suoi coefficenti)

L'uscita del sistema si ottiene sommando le uscite degli integratori, appositamente moltiplicate

Un sistema rappresentato in questo modo, portato in variabili di stato, viene ad essere espresso in forma canonica di controllabilità. Per ricavare rapidamente il diagramma dall'equazione differenziale, si esprimono le derivate con , quindi si divide per più volte per portarle tutte a denominatore, si raccoglie e si ottiene un equazione che rappresenta la struttura del circuito


Variabili di stato

Un sistema MIMO lineare tempoinvariante si descrive facilmente utilizzando le matrici

Un sistema può essere descritto da un'equazione differenziale o da un sistema di equazioni differenziali in cui le funzioni incognite sono dette \emph{variabili di stato} e sono il minimo numero di variabili tali che la conoscenza di queste ad un istante è sufficente a determinarelo stato del sistema per ogni istante successivo

i valori rappresentano le \emph{condizioni iniziali del sistema}

Un sistema lineare può essere espresso utilizzando le matrici dove le matrici sono tali che , , , ; la matrice è detta \emph{matrice di stato}

Lo stato in funzione del tempo (o movimento dello stato) \vedilibro{rif:b}{60, sezione 3.2.1: Formula di Lagrange} \vedilibro{rif:c}{481, sezione 12.5: Solutions of state equations} è in generale dove è la \emph{matrice di transizione dello stato} di un sistema lineare

L'uscita del sistema è

Gli stati di equilibrio di un sistema lineare in variabili di stato \vedilibro{rif:b}{70, sezione 3.2.5: Equilibrio} sono le soluzioni dell'equazione quando l'ingresso è costante

Se la matrice è invertibile allora lo stato di equilibrio è unico e corrisponde allo stato e all'uscita la matrice rappresenta il \emph{guadagno statico del sistema} \vedilibro{rif:b}{70} che nel caso di sistemi SISO si indica con e costituisce il rapporto tra l'uscita e l'ingresso quanto tutte le variabili del sistema, ingresso e stato, sono costanti

Soluzione del sistema in variabili di stato

L'unico passo non banale nella soluzione di un sistema in variabili di stato consiste nella valutazione della matrice di transizione dello stato \vedilibro{rif:c}{485, Computation of state transition matrix} che è possibile risolvere utilizzando la trasformata di Laplace o portando la matrice in forma diagonale

Se consideriamo il sistema a ingresso nullo

e trasformiamo entrambi i membri, 

si ottiene , ovvero ; e quindi antitrasformando si trova che Errore del parser (funzione sconosciuta '\invLaplaceTrasf'): {\displaystyle x(t) = \invLaplaceTrasf{(sI-A)^{-1}} x(t_{0}) } Se consideriamo il sistema con ingresso non nullo, con lo stesso metodo, otteniamo Errore del parser (funzione sconosciuta '\invLaplaceTrasf'): {\displaystyle x(t) = \invLaplaceTrasf{(sI-A)^{-1}} x(t_{0}) + \invLaplaceTrasf{ (sI-A)^{-1} B U(s) } }

Utilizzando le trasformazioni lineari e portando la matrice di stato in forma diagonale o a blocchi di Jordan, la valutazione di è più semplice

Matrici

Alcuni richiami sulle matrici \dots \vedilibro{rif:k}{245, sezione 5-7: Characteristic equation, eigenvalues, eigenvectors} \vedilibro{rif:r}{Richiami di algebra lineare: autovalori e Autovettori}

gli \emph{autovalori} di una matrice sono le radici dell'equazione radici multiple corrispondono ad autovalori con molteplicità algebrica maggiore di uno

ad ogni autovalore corrisponde un \emph{autovettore} tale che per ogni autovalore di molteplicità algebrica esistono autovettori generalizzati che si determinano ripetendo volte il l'equazione precedente sostituendo a 0 l'opposto dell'ultimo autovettore trovato.

Si dice \emph{molteplicità geometrica} di un autovalore il numero di autovettori linearmente indipendenti ad esso associati % !!!!!!!!!!!!!!!! corrispondenti alla dimensione del nullo di A () (?)

Il \emph{rango di una matrice} è pari al numero di righe linearmente indipendenti, valgono le seguenti proprietà: \vedilibro{rif:r}{6, Richiami di algebra lineare: Rango, operatori lineari, trasformazioni} \begin{itemize} \item è uguale al numero di colonne o righe linearmente indipendenti \item è uguale al rango della matrice trasposta di : \item è minore del numero di colonne e del numero di righe della matrice \item se la matrice è quadrata () e il suo rango è massimo (), allora è invertibile \item il rango è inveriante rispetto a pre o post moltiplicazioni per matrici non singolari (come le matrici in una similitudine) \item il rango del prodotto di due matrici è minore dei ranghi di ciascuna delle due \end{itemize}


Cambiamento di coordinate

Le matrici ,,, (matrici rappresentative del sistema) rappresentano una trasformazione lineare (similitudine) dallo spazio di e a quello di \vedilibro{rif:ag}{125, Capitolo 4: Trasformazioni lineari e matrici} \vedilibro{rif:r}{Richiami di algebra lineare: Rango, operatori lineari, trasformazioni} \vedilibro{rif:c}{472, sezione 12.4: Diagonalization}

\`E possibile cambiare sistema di riferimento applicando una trasformazione lineare alla matrici rappresentative del sistema \vedilibro{rif:k}{250, Sezione 5.8: Similarity Trasformation} \vedilibro{rif:b}{61, sezione 3.2.2: Rappresentazioni equivalenti}

Applicando una trasformazione al sistema \vedilibro{rif:c}{472} si ottiene dove è una matrice quadrata e è un nuovo vettore di stato tale che

Una matrice quadrata rappresenta la stessa trasformazione lineare di una matrice se non è singolare \vedilibro{rif:ag}{210, Sezione 6-9: Matrici simili} , due matrici simili hanno stesso polinomio caratteristico e stessi autovalori

\`E possibile scegliere in modo da rendere in una forma che consenta di effettuare meglio calcoli, \vedilibro{rif:ag}{224, sezione 7.9: Diagonalizzazione di matrici Hermitiane o anti-Hermitiane} diagonale \vedilibro{rif:b}{63, sezione 3.2.3: Matrice della dinamica diagonalizzabile} (si indica con ) o in forma di Jordan \vedilibro{rif:b}{65, sezione 3.2.3: Matrice della dinamica diagonalizzabile} ()

La matrice è diagonale e gli elementi sulla diagonale sono gli autovalori di

La matrice a blocchi di Jordan è diagonale, tranne degli 1 al di sopra degli elementi della diagonale (che corrispondono ad autovettori linearmente dipendenti), e gli elementi sulla diagonale sono gli autovalori di e gli sulla diagonale superiore sono in corrispondenza degli autovettori generalizzati che sono linearmente dipendenti (???)

Per portare una matrice in forma diagonale o di Jordan si usa la trasformazione dove sono gli autovettori (intesi come vettori-colonna) della matrice (si può costruire anche con gli autovettori sinistri messi per righe)

Esponenziale di una matrice

Per ogni matrice quadrata e ogni scalare è definita la \emph{matrice esponenziale} \vedilibro{rif:b}{591, appendice A.5: Esponenziale}

estendendo la definizione di esponenziale come serie valida per gli scalari

Per il \emph{teorema di Cayley-Hamilton} \vedilibro{rif:a2}{98, sezione 3.11: Il teorema di Cayley-Hamilton}, qualunque matrice quadrata soddisfa la sua equazione caratteristica (il suo polinomio caratteristico eguagliato a zero) e quindi la serie necessaria per il calcolo dell'esponenziale si riduce ad una somma finita, in quanto tutte le potenze da in poi possono essere espresse come combinazione lineare di dove i coefficenti si possono ricavare utilizzando il \emph{determinante di Vandermonte}

\`E possibile calcolare l'esponenziale di una matrice avvalendosi della trasformata di Laplace Errore del parser (funzione sconosciuta '\invLaplaceTrasf'): {\displaystyle e^{At} = \invLaplaceTrasf{( sI - A )^{-1}} }

Oppure se la matrice è in forma diagonale e sono i suoi autovalori (e quindi gli elementi della diagonale principale) allora

Se la matrice è in forma di Jordan, per ogni blocco di Jordan che si ottiene con ognuno degli autovalori il suo esponenziale è \newcommand{\eLt}{e^{\lambda_{i} t}} Errore del parser (funzione sconosciuta '\eLt'): {\displaystyle e^{Jt} = \left( \begin{array}{ccccc} \eLt & t\eLt & \frac{t^{2}}{2!} \eLt & \cdots & \frac{t^{k-1}}{(k-1)!} \eLt \\ 0 & \eLt & t\eLt & \cdots & \frac{t^{k-2}}{(k-2)!} \eLt \\ 0 & 0 & \eLt & & \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & 0 & 0 & \eLt \\ \end{array} \right) }

Forma canonica di controllo

Dato un sistema in variabili di stato di definisce \emph{forma canonica di controllo} \vedilibro{rif:b}{125, sezione 4.5.1: Forma canonica di raggiungibilità} il sistema simile al sistema dato in cui Errore del parser (errore di sintassi): {\displaystyle A = \left( \begin{array}{cccccc} 0 & 1 & 0 & 0 & \cdots & 0 \\ 0 & 0 & 1 & 0 & & 0 \\ 0 & 0 & 0 & 1 & & 0 \\ \vdots & & & & \ddots & \\ 0 & 0 & 0 & 0 & 0 & 1 \\ -a_{0} & -a_{1} & -a_{2} & -a_{3} & \cdots & -a_{n-1} \\ \end{array} \right) \\ B = \left[ \begin{array}{c} 0 \\ \vdots \\ 0 \\ 1 \\ \end{array} \right] }

Dove si suppone che (eventualmente si aggiungono coefficenti nulli)

Questa forma è tale che per qualunque valore di il sistema risulta controllabile; può essere ricavata direttamente dal diagramma analogico applicato all'equazione differenziale che descrive il sistema (????)

Forma canonica di osservabilità

Dato un sistema in variabili di stato di definisce \emph{forma canonica di osservabilità} \vedilibro{rif:b}{125, sezione 4.5.2: Forma canonica di osservabilità} il sistema simile al sistema dato in cui Errore del parser (errore di sintassi): {\displaystyle A = \left( \begin{array}{cccccc} 0 & 0 & 0 & 0 & \cdots & -a_{0} \\ 1 & 0 & 0 & 0 & & -a_{1} \\ 0 & 1 & 0 & 0 & & -a_{2} \\ \vdots & & & & \ddots & \vdots \\ 0 & 0 & 0 & 0 & 1 & -a_{n-1} \\ \end{array} \right) \\ B = \left[ \begin{array}{c} b_{0}-a_{0}b_{n} \\ b_{1}-a_{1}b_{n} \\ \vdots \\ b_{n-1}-a_{n-1}b_{n}] \\ \end{array} \right] }

Errore del parser (errore di sintassi): {\displaystyle C = [0 , \cdots, 0 , 1] \phantom{10} D = [b_{n}] \\ }

Dove si suppone che (eventualmente si aggiungono coefficenti nulli)

Questa forma è tale che per qualunque valore di il sistema risulta osservabile


Funzione di trasferimento

La \emph{funzione di trasferimento ingresso-uscita} di un sistema lineare SISO \vedilibro{rif:k}{78, sezione 3-2: Impulse response and transfer function of linear systems} \vedilibro{rif:b}{99, capitolo 4: Funzione di trasferimento} è definita come la funzione tale che dove e rappresentano la trasformata di Laplace dell'ingresso e dell'uscita ; è in generale esprimibile da un rapporto di polinomi in , ma sono possibili varie forme \vedilibro{rif:b}{106, sezione 4.3: Rappresentazioni e parametri della funzione di trasferimento}

\begin{itemize} \item[-] \emph{Funzione di trasferimento in forma polinomiale} \item[-] \emph{Funzione di trasferimento in forma poli-zeri} \item[-] \emph{Funzione di trasferimento in forma di Bode} \end{itemize}

I simboli utilizzati rappresentano: \begin{itemize} \item sono detti \emph{poli} della funzione di trasferimento; \item sono gli \emph{zeri}; \item è il numero dei poli e il numero degli zeri \item e sono gli inversi dei poli e degli zeri non nulli (detti anche \emph{costanti di tempo}) e \item è il \emph{grado del sistema}, il numero di poli nulli \item rappresenta qui il \emph{guadagno generalizzato} \vedilibro{rif:b}{70, sezione 3.2.5: Equilibrio} \vedilibro{rif:b}{106, sezione 4.3.1: Guadagno} del sistema, ovvero il guadagno per frequenze minori delle frequenze dei poli e degli zeri del sistema (se nel sistema non si considerano i poli a frequenza nulla) \end{itemize}

i poli sono gli opposti delle del polinomio caratteristico ed influenzano la stabilità del sistema, poli negativi conducono a radici positive

Il denominatore della funzione di trasferimento rappresenta il polinomio caratteristico del sistema;

Gli zeri di un sistema rappresentano gli ingressi per cui il sistema ha uscita nulla, questa è detta \emph{proprietà bloccante degli zeri} \vedilibro{rif:b}{155, sezione 6.2.2: Proprietà bloccante degli zeri}

Poiché i coefficenti e sono reali, i poli e gli zeri di un sistema (che sono considerati talvolta le radici dei polinomi a numeratore e a denominatore della funzione di trasferimento, talvolta i loro opposti) sono reali oppure complessi coniugati

Un sistema è detto \emph{a sfasamento minimo} \vedilibro{rif:k}{568} se non ha poli o zeri negativi (instabili) o immaginari puri (eccetto siano nulli); in questo caso la variazione di fase totale tra la pulsazione nulla e infinita è , il valore della funzione di trasferimento non è mai zero o infinito per pulsazioni limitate non nulle

La funzione di trasferimento è invariante rispetto a trasformazioni lineari \vedilibro{rif:b}{102, sezione 4.2.3: Invarianza della funzione di trasferimento} e dipende dalla sola parte raggiungibile ed osservabile del sistema \vedilibro{rif:b}{102, sezione 4.2.4: Cancellazioni e stabilità}

La trasformata di Laplace

\`E definita per funzioni reali la \emph{trasformata di laplace} \vedilibro{rif:b}{598, appendice B.3: Trasformata di Laplace} \vedilibro{rif:k}{28, sezione 2-4: Laplace Transform} \LaplaceTrasf{\cdot} come funzione della variabile complessa secondo la formula

deve essere definita almeno per

il minimo valore di , indicato con per cui la trasformata esiste è detta ascissa di convergenza.

L'operazione trasforma una funzione in un altro spazio \vedilibro{rif:r}{Richiami di geometria: Vettori - Spazi vettoriali} le cui basi sono le funzioni ovvero \vedilibro{rif:r}{Richiami di numeri complessi}

sono quindi trasformabili tutte le funzioni che possono essere espresse come somma di funzioni sinusoidali esponenzialmente smorzate, che includono le funzioni esponenziali semplici, lineari e sinusoidali

L'operazione inversa \invLaplaceTrasf{\cdot} è dove è un qualsiasi valore maggiore di


\subsubsection{Teorema del valore finale} Se ha trasformata razionale (o anche solo se esiste il limite a primo membro) con grado del denominatore maggiore del grado del numeratore e poli negativi o nulli, allora \vedilibro{rif:b}{603}

Teorema del valore iniziale

Se ha trasformata razionale (o anche solo se esiste) con grado del denominatore maggiore del grado del numeratore, allora \vedilibro{rif:b}{603} deve essere minore di 0 altrimenti non è definita in 0 e il teorema non è applicabile


Risposta impulsiva

La risposta impulsiva di un sistema è definita come l'uscita del sistema quando si ha in ingresso una delta di Dirac su un singolo ingresso \vedilibro{rif:b}{68, sezione 3.2.4: Risposta all'impulso e movimento forzato}; si definnisce \emph{risposta all'impulso dello stato} e \emph{risposta all'impulso dell'uscita}

Si definisce anche la \emph{risposta al gradino} , la cui derivata è la risposta impulsiva, come la risposta del sistema ad un ingresso a gradino unitario dove per analogia con gli scalari


Risposta in frequenza

Se si restringe la funzione di trasferimento di un sistema sui valori di immaginari puri positivi, si ottiene la \emph{risposta in frequenza del sistema} \vedilibro{rif:b}{154, capitolo 6: Risposta in frequenza} che rappresenta l'uscita del sistema quando ha in ingresso una sinusoide

Essa è definita per tutti i valori della pulsazione positivi che non siano poli immaginari puri di

Quindi se , allora si ha che

La risposta in frequenza è una funzione a immagine complessa Errore del parser (funzione sconosciuta '\Comp'): {\displaystyle \Im \rightarrow \Comp} ; il modulo della risposta in frequenza rappresenta la variazione del modulo dell'uscita in funzione della pulsazione dell'ingresso; la fase della risposta in frequenza rappresenta la variazione della fase dell'uscita in funzione della pulsazione dell'ingresso

si può rappresentare in varie forme corrispondenti a quelle della funzione di trasferimento, le più comuni sono: \begin{itemize} \item[-] \emph{Risposta in frequenza in forma poli-zeri} \item[-] \emph{Risposta in frequenza in forma di Bode} \item[-] \emph{Risposta in frequenza in modulo e fase} \begin{eqnarray} |G(j\omega)| =

     \frac{\rho}{\omega^{g}}
     \sqrt{ \frac{(\tau_{1}^{2}\omega^{2}+1)
                  (\tau_{2}^{2}\omega^{2}+1) \cdots 
                  (\tau_{n_{z}}^{2}\omega^{2} + 1)}
                 {(T_{1}^{2}\omega^{2}+1)(T_{2}^{2}\omega^{2}+1) \cdots 
                  (T_{n_{p}-g}^{2}\omega^{2}+1)}  }

\nonumber\\ \angle G(j\omega) =

     - \frac{\pi}{2} g 
     \phantom{2} + \phantom{2}
     \tan^{-1}\omega\tau_{1} + \cdots + \tan^{-1}\omega\tau_{n_{z}} 
     \phantom{2} + \phantom{2} \nonumber\\
     - \tan^{-1}\omega T_{1} - \cdots - \tan^{-1}\omega T_{n_{p}-g} 

\end{eqnarray} \end{itemize}

se si vuole valutare la risposta in frequenza per pulsazioni lontane dai poli e dagli zeri, è possibile trascurare poli e zeri a pulsazioni elevate (tali che ) e semplificare l'espressione di poli e zeri a pulsazioni inferiori (tali che ) ottenendo la risposta in frequenza semplificata che è valida per pulsazioni ;

Se si vuole valutare il modulo a frequenze maggiori di un numero pari di poli e zeri (); ovvero in corrispondenza di un tratto a guadagno costante, è possibile semplificare anche dall'espressione della risposta in ampiezza, ottenendo la forma ulteriormente semplificata


La trasformata di Fourier

La \emph{trasformata di Fourier} Errore del parser (funzione sconosciuta '\FourierTrasf'): {\displaystyle \FourierTrasf{f(t)}} \vedilibro{rif:b}{617, appendice B.5: Trasformata di Fourier} è definita come la trasformata di laplace per funzioni reali ma prendendo come base le funzioni sinusoidali l'operazione inversa Errore del parser (funzione sconosciuta '\invFourierTrasf'): {\displaystyle \invFourierTrasf{F(j\omega)}} è


Passaggio tra le varie rappresentazioni

\vedilibro{rif:b}{129, figura 4.16: Rappresentazioni dei sistemi dinamici e relazioni corrispondenti}

====Dalle equazioni differenziali alle variabili di stato} Se il sistema è descritto da un'equazione differenziale e se si sceglie come variabili di stato \begin{eqnarray} x_{0 \cdots n-1}(t) = x^{(0 \cdots n-1 + 1)}(t)

                     + a_{0 \cdots n-1}y(t) + b_{0 \cdots n-1}u(t) \nonumber\\

x_{n} = y(t) - b_{n}u(t) \end{eqnarray} il sistema viene descritto in forma canonica di osservabilità \vedilibro{rif:b}{127, sezione 4.5.4: Interpretazione delle forme canoniche}

====Dalle variabili di stato alla funzione di trasferimento} Se si considera il sistema espresso in variabili di stato in forma canonica e si applica la trasformata di Laplace a entrambi i membri delle due equazioni, con alcuni passaggi (poiché non è identicamente nullo per ogni ) si ottiene: \vedilibro{rif:b}{99, sezione 4.2.1: Definizione e proprietà della FdT} La funzione di trasferimento rappresenta l'uscita divisa per l'ingresso con stato iniziale nullo, quindi in questo caso, poiché il sistema in variabili di stato è in generale MIMO, la funzione di trasferimento è una matrice con termini che sono funzioni razionali fratte con al denominatore il polinomio caratteristico della matrice

Conoscendo le matrici è possibile ricavare dalla funzione di trasferimento ingresso-uscita anche la \emph{funzione di trasferimento ingresso-stato}

====Dalle equazioni differenziali alla funzione di trasferimento} \vedilibro{rif:b}{129, sezione 4.5.4}

====Dalle variabili di stato alla risposta impulsiva} Conoscendo le matrici rappresentative del sistema , la risposta impulsiva \vedilibro{rif:b}{68, sezione 3.2.4: Risposta all'impulso e movimento forzato} si ricava in modo simile alla funzione di trasferimento è possibile ricavare la risposta impulsiva anche antitrasformando la funzione di trasferimento