Fondamenti di automatica/Sistemi lineari tempoinvarianti: differenze tra le versioni

Vai alla navigazione Vai alla ricerca
m
→‎Variabili di stato: corretto parti in TeX
m (→‎Diagramma analogico: ripulito da parti in TeX)
m (→‎Variabili di stato: corretto parti in TeX)
Un sistema può essere descritto da un'equazione differenziale
o da un sistema di equazioni differenziali
in cui le funzioni incognite <math> x_{1}(t) \cdots x_{n_{x}}(t) </math> sono dette \emph{'''variabili di stato}''' e sono
il minimo numero di variabili tali che la conoscenza di queste ad un istante <math> t_{0} </math> è sufficente a determinarelo stato del sistema per ogni istante successivo
 
i valori <math> x_{1}(t_{0}) \cdots x_{n_{x}}(t_{0}) </math> rappresentano le \emph{'''condizioni iniziali del sistema}'''
 
Un sistema lineare può essere espresso utilizzando le matrici
 
<math>
\left\{
\right.
</math>
 
dove le matrici <math>A,B,C,D</math> sono tali che
<math> A \in \Re^{n_{x} \times n_{x}} </math>,
<math> B \in \Re^{n_{x} \times n_{u}} </math>,
<math> C \in \Re^{n_{y} \times n_{x}} </math>,
<math> D \in \Re^{n_{y} \times n_{u}} </math>;
la matrice <math>A</math> è detta \emph{'''matrice di stato}'''.
 
Lo stato in funzione del tempo (o movimento dello stato)
\vedilibro{rif:b}{<ref> Fondamenti di controlli automatici di Paolo Bolzern, Riccardo Scattolini, Nicola Schiavoni; McGraw-Hill, prima edizione del marzo 1998; pag. 60, sezione 3.2.1: Formula di Lagrange} </ref>
\vedilibro{rif:c}{<ref> Controls systems engineering di I. J. Nagrath, M. Gopal; Wiley International edition, 1982, seconda edizione; pag. 481, sezione 12.5: Solutions of state equations} </ref>
è in generale
 
<math>
x(t) = e^{A(t-t_{0})} x(t_{0}) + \int _{t_{0}} ^{t} e^{A(t-k)} B u(k) dk
</math>
dove <math> \Phi = e^{A(t-t_{0})}</math> è la \emph{'''matrice di transizione dello stato}''' di un sistema lineare.
di un sistema lineare
 
L'uscita del sistema è
 
<math>
x(t) = Ce^{A(t-t_{0})}x(t_{0}) + C \int_{t_{0}}^{t}e^{A(t-k)}Bu(k)dk + Du(t)
 
Gli stati di equilibrio di un sistema lineare in variabili di stato
<ref> Fondamenti di controlli automatici di Paolo Bolzern, Riccardo Scattolini, Nicola Schiavoni; McGraw-Hill, prima edizione del marzo 1998; pag. 70, sezione 3.2.5: Equilibrio </ref> sono le soluzioni dell'equazione
\vedilibro{rif:b}{70, sezione 3.2.5: Equilibrio}
sono le soluzioni dell'equazione
<math>
Ax_{e} + Bu = 0
</math>
quando l'ingresso è costante.
 
Se la matrice <math> A </math> è invertibile allora lo stato di equilibrio è unico e corrisponde allo stato e all'uscita
 
Se la matrice <math>A</math> è invertibile allora lo stato di equilibrio è unico e corrisponde allo stato e all'uscita
<math>
\left\{ \begin{array}{l}
\end{array} \right.
</math>
 
la matrice <math>D - CA^{-1}B</math> rappresenta il \emph{guadagno statico del sistema}
la matrice <math> D - CA^{-1}B </math> rappresenta il '''guadagno statico del sistema'''
\vedilibro{rif:b}{70}
<ref>Fondamenti di controlli automatici di Paolo Bolzern, Riccardo Scattolini, Nicola Schiavoni; McGraw-Hill, prima edizione del marzo 1998; pag. 70 </ref>
che nel caso di sistemi SISO si indica con <math>\rho</math>
che nel caso di sistemi SISO si indica con <math>\rho</math>
e costituisce il rapporto tra l'uscita e l'ingresso quanto tutte le variabili del sistema, ingresso e stato, sono costanti
 
==== Soluzione del sistema in variabili di stato ====
L'unico passo non banale nella soluzione di un sistema in variabili di stato consiste nella valutazione della matrice di transizione dello stato
consiste nella valutazione della matrice di transizione dello stato
<math>\Phi = e^{A(t-t_{0})}</math>
\vedilibro{rif:c}{<ref> Controls systems engineering di I. J. Nagrath, M. Gopal; Wiley International edition, 1982, seconda edizione; pag. 485, Computation of state transition matrix} </ref>
che è possibile risolvere utilizzando la trasformata di Laplace o portando la matrice <math>A</math> in forma diagonale.
 
Se consideriamo il sistema a ingresso nullo <math> x'(t) = Ax(t) </math> e trasformiamo entrambi i membri,
si ottiene <math>s X(s) - x(t_{0}) = A X(s)</math>, ovvero <math> X(s) = (sI-A)^{-1} x(t_{0}) </math>;
e trasformiamo entrambi i membri,
si ottiene <math>s X(s) - x(t_{0}) = A X(s)</math>,
ovvero <math>X(s) = (sI-A)^{-1} x(t_{0})</math>;
e quindi antitrasformando si trova che
 
<math>
x(t) = \invLaplaceTrasfmathcal{L}^{-1} \left\{ (sI-A)^{-1} \right\} x(t_{0})
</math>
 
Se consideriamo il sistema con ingresso non nullo,
Se consideriamo il sistema con ingresso non nullo, con lo stesso metodo, otteniamo
 
otteniamo
<math>
x(t) = \invLaplaceTrasfmathcal{L}^{-1} \left\{ (sI-A)^{-1} \right\} x(t_{0})
+ \invLaplaceTrasfmathcal{L}^{-1} \left\{ (sI-A)^{-1} B U(s) \right\}
</math>
 
Utilizzando le trasformazioni lineari e portando la matrice di stato in forma diagonale o a blocchi di Jordan, la valutazione di <math> e^{A(t-t_{0})} </math> è più semplice.
 
==== Matrici ====
Alcuni richiami sulle matrici ...<ref>Automatic Control Systems di Benjamin C. Kuo; Prentice Hall, settima edizione 1995; pag. 245, sezione 5-7: Characteristic equation, eigenvalues, eigenvectors</ref>
Alcuni richiami sulle matrici \dots
 
\vedilibro{rif:k}{245, sezione 5-7: Characteristic equation, eigenvalues, eigenvectors}
Gli '''autovalori''' di una matrice <math> A </math> sono le radici <math> \lambda_{i} </math> dell'equazione
\vedilibro{rif:r}{Richiami di algebra lineare: autovalori e Autovettori}
 
gli \emph{autovalori} di una matrice <math>A</math> sono le radici <math>\lambda_{i}</math> dell'equazione
<math>
| \lambda I - A | = 0
</math>
radici multiple corrispondono ad autovalori con molteplicità algebrica maggiore di uno
 
radici multiple corrispondono ad autovalori con molteplicità algebrica maggiore di uno.
ad ogni autovalore <math>\lambda_{i}</math> corrisponde un \emph{autovettore} <math>v_{i}</math> tale che
 
Ad ogni autovalore <math> \lambda_{i} </math> corrisponde un '''autovettore''' <math> v_{i} </math> tale che
 
<math>
(\lambda_{i} - A)v_{i} = 0
</math>
 
per ogni autovalore di molteplicità algebrica <math>n>1</math> esistono <math>n-1</math> autovettori generalizzati che si determinano ripetendo <math>n-1</math> volte il l'equazione precedente sostituendo a 0 l'opposto dell'ultimo autovettore trovato.
Per ogni autovalore di molteplicità algebrica <math> n > 1 </math> esistono <math> n-1 </math> autovettori generalizzati che si determinano ripetendo <math> n-1 </math> volte l'equazione precedente sostituendo a 0 l'opposto dell'ultimo autovettore trovato.
 
<math>
(\lambda_{i} - A)v_{i} = -v_{i-1}
</math>
 
Si dice \emph{'''molteplicità geometrica}''' di un autovalore il numero di autovettori linearmente indipendenti ad esso associati
<!-- % !!!!!!!!!!!!!!!! -->
corrispondenti alla dimensione del nullo di A (<math> N(A) </math>) (?)
 
Il \emph{'''rango di una matrice}''' <math> r\{A\} </math> è pari al numero di righe linearmente indipendenti,
valgono le seguenti proprietà:
\vedilibro{rif:r}{6, Richiami di algebra lineare: Rango, operatori lineari, trasformazioni}
\begin{itemize}
\item
<math>r\{A\}</math> è uguale al numero di colonne o righe linearmente indipendenti
\item
<math>r\{A\}</math> è uguale al rango della matrice trasposta di <math>A</math>: <math>r\{A\} = r\{A^{T}\}</math>
\item
<math>r\{A\}</math> è minore del numero di colonne e del numero di righe della matrice
\item
se la matrice è quadrata (<math>A \in M^{n \times n}</math>) e il suo rango è massimo (<math>r\{A\} = n</math>), allora è invertibile
\item
il rango è inveriante rispetto a pre o post moltiplicazioni per matrici non singolari (come le matrici in una similitudine)
\item
il rango del prodotto di due matrici è minore dei ranghi di ciascuna delle due
\end{itemize}
 
* <math> r\{A\} </math> è uguale al numero di colonne o righe linearmente indipendenti
* <math> r\{A\} </math> è uguale al rango della matrice trasposta di <math> A </math>: <math> r\{A\} = r\{A^{T}\} </math>
* <math> r\{A\} </math> è minore del numero di colonne e del numero di righe della matrice
* se la matrice è quadrata <math> \left( A \in M^{n \times n} \right) </math> e il suo rango è massimo (<math> r\{A\} = n </math>), allora è invertibile
* il rango è inveriante rispetto a pre o post moltiplicazioni per matrici non singolari (come le matrici in una similitudine)
* il rango del prodotto di due matrici è minore dei ranghi di ciascuna delle due
 
==== Cambiamento di coordinate ====
Le matrici <math> A </math>, <math> B </math>, <math> C </math>, <math> D </math> (matrici rappresentative del sistema)
rappresentano una trasformazione lineare (similitudine) dallo spazio di <math> x </math> e <math> u </math> a quello di <math> x' </math>
(matrici rappresentative del sistema)
<ref>Calcolo, volume secondo - Geometria di Tom M. Apostol; Bollati Boringhieri, ristampa del febbraio 1996; pag. 125, Capitolo 4: Trasformazioni lineari e matrici</ref>
rappresentano una trasformazione lineare (similitudine) dallo spazio di <math>x</math> e <math>u</math> a quello di <math>x'</math>
<ref>Controls systems engineering di I. J. Nagrath, M. Gopal; Wiley International edition, 1982, seconda edizione; pag. 472, sezione 12.4: Diagonalization</ref>
\vedilibro{rif:ag}{125, Capitolo 4: Trasformazioni lineari e matrici}
\vedilibro{rif:r}{Richiami di algebra lineare: Rango, operatori lineari, trasformazioni}
\vedilibro{rif:c}{472, sezione 12.4: Diagonalization}
 
È possibile cambiare sistema di riferimento applicando una trasformazione lineare alla matrici rappresentative del sistema
<ref>Fondamenti di controlli automatici di Paolo Bolzern, Riccardo Scattolini, Nicola Schiavoni; McGraw-Hill, prima edizione del marzo 1998; pag. 61, sezione 3.2.2: Rappresentazioni equivalenti</ref>
\vedilibro{rif:k}{250, Sezione 5.8: Similarity Trasformation}
\vedilibro{rif:b}{61, sezione 3.2.2: Rappresentazioni equivalenti}
 
Applicando una trasformazione <math> M </math> al sistema
<ref>Controls systems engineering di I. J. Nagrath, M. Gopal; Wiley International edition, 1982, seconda edizione </ref>
\vedilibro{rif:c}{472}
si ottiene
 
<math>
\left\{
\right.
</math>
dove <math> M </math> è una matrice quadrata e <math> x_{M}(t) </math> è un nuovo vettore di stato tale che <math> x(t) = Mx_{M}(t) </math>.
 
Una matrice quadrata <math> M </math> rappresenta la stessa trasformazione lineare di una matrice <math> M'=T^{-1}MT </math> se <math> T </math> non è singolare
\vedilibro{rif:ag}{<ref> Calcolo, volume secondo - Geometria di Tom M. Apostol; Bollati Boringhieri, ristampa del febbraio 1996; pag. 210, Sezione 6-9: Matrici simili}</ref> ,
due matrici simili hanno stesso polinomio caratteristico e stessi autovalori.
 
È possibile scegliere <math> M </math> in modo da rendere <math> M^{-1}AM </math> in una forma che consenta di effettuare meglio calcoli,
\vedilibro{rif:ag}{<ref>Calcolo, volume secondo - Geometria di Tom M. Apostol; Bollati Boringhieri, ristampa del febbraio 1996; pag. 224, sezione 7.9: Diagonalizzazione di matrici Hermitiane o anti-Hermitiane}</ref>
diagonale
\vedilibro{rif:b}{<ref>Fondamenti di controlli automatici di Paolo Bolzern, Riccardo Scattolini, Nicola Schiavoni; McGraw-Hill, prima edizione del marzo 1998; pag.63, sezione 3.2.3: Matrice della dinamica diagonalizzabile}</ref>
(si indica con <math> \Lambda </math>)
o in forma di Jordan
\vedilibro{rif:b}{<ref>Fondamenti di controlli automatici di Paolo Bolzern, Riccardo Scattolini, Nicola Schiavoni; McGraw-Hill, prima edizione del marzo 1998; pag.65, sezione 3.2.3: Matrice della dinamica diagonalizzabile}</ref>
(<math> J </math>)
 
La matrice <math> \Lambda </math> è diagonale e gli elementi sulla diagonale sono gli autovalori di <math> A </math>
 
La matrice a blocchi di Jordan è diagonale,
tranne degli 1 al di sopra degli elementi della diagonale
(che corrispondono ad autovettori linearmente dipendenti),
e gli elementi sulla diagonale sono gli autovalori di <math> A </math>
e gli <math> 1 </math> sulla diagonale superiore sono in corrispondenza degli autovettori generalizzati che sono linearmente dipendenti (???).
 
Per portare una matrice in forma diagonale o di Jordan si usa la trasformazione
 
<math>
T_{diag} = [ v_{1} , v_{2} , \cdots , v_{n}]
</math>
dove <math> v_{1 \cdots n} </math> sono gli autovettori (intesi come vettori-colonna) della matrice
(si può costruire <math> T </math> anche con gli autovettori sinistri messi per righe)
 
==== Esponenziale di una matrice ====
Per ogni matrice quadrata <math> A \in \Re^{n \times n} </math> e ogni scalare <math> t \geq 0 </math> è definita la \emph{'''matrice esponenziale}'''
<ref>Fondamenti di controlli automatici di Paolo Bolzern, Riccardo Scattolini, Nicola Schiavoni; McGraw-Hill, prima edizione del marzo 1998; pag. 591, appendice A.5: Esponenziale</ref>
\vedilibro{rif:b}{591, appendice A.5: Esponenziale}
 
<math>
e^{At} = I + At + \frac{A^{2}t^{2}}{2!} + \frac{A^{3}t^{3}}{3!} + \cdots
</math>
estendendo la definizione di esponenziale come serie valida per gli scalari.
 
Per il \emph{'''teorema di Cayley-Hamilton}'''
\vedilibro{rif:a2}{<ref> Calcolo, volume terzo - Analisi 2 di Tom M. Apostol; Bollati Boringhieri, settima impressione del settembre 1991; pag.98, sezione 3.11: Il teorema di Cayley-Hamilton}</ref>,
qualunque matrice quadrata <math> A </math> soddisfa la sua equazione caratteristica
(il suo polinomio caratteristico eguagliato a zero)
 
<math>
A^{n} + a_{n-1}A^{n-1} + \cdots + a_{1}A + a_{0}I = 0
</math>
e quindi la serie necessaria per il calcolo dell'esponenziale si riduce ad una somma finita,
in quanto tutte le potenze da <math> A^{n} </math> in poi possono essere espresse come combinazione lineare di <math> A^{0} \cdots A^{n-1} </math>
 
<math>
e^{At} = h_{0}(t)I + h_{1}(t)At + h_{2}(t)\frac{A^{2}t^{2}}{2!} + \cdots
+ h_{n-1}(t)\frac{A^{n-1}t^{n-1}}{(n-1)!}
</math>
 
dove i coefficenti <math>h_{0}(t) \cdots h_{n-1}(t)</math> si possono ricavare utilizzando il \emph{determinante di Vandermonte}
dove i coefficenti <math> h_{0}(t) \cdots h_{n-1}(t) </math> si possono ricavare utilizzando il '''determinante di Vandermonte'''
 
<math>
\left( \begin{array}{ccccc}
È possibile calcolare l'esponenziale di una matrice avvalendosi della trasformata di Laplace
<math>
e^{At} = \invLaplaceTrasfmathcal{L}^{-1}\left\{( sI - A )^{-1}\right\}
</math>
 
Oppure se la matrice è in forma diagonale e
<math> \lambda_{1} \cdots \lambda_{n} </math>
sono i suoi autovalori (e quindi gli elementi della diagonale principale)
allora
 
<math>
e^{\Lambda t} =
 
Se la matrice è in forma di Jordan, per ogni blocco di Jordan che si ottiene con ognuno degli autovalori il suo esponenziale è
 
\newcommand{\eLt}{e^{\lambda_{i} t}}
<math>
e^{Jt} =
\left(
\begin{array}{ccccc}
e^{\eLtlambda_{i} t} & t e^{\eLtlambda_{i} t} & \frac{t^{2}}{2!} e^{\eLtlambda_{i} t} & \cdots & \frac{t^{k-1}}{(k-1)!} e^{\eLtlambda_{i} t} \\
0 & e^{\eLtlambda_{i} t} & t e^{\eLtlambda_{i} t} & \cdots & \frac{t^{k-2}}{(k-2)!} e^{\eLtlambda_{i} t} \\
0 & 0 & e^{\lambda_{i} t} & & \\
0 & 0 & \eLt & & \\
\vdots & \vdots & \vdots & \ddots & \vdots \\
0 & 0 & 0 & 0 & e^{\lambda_{i} t} \\
0 & 0 & 0 & 0 & \eLt \\
\end{array} \right)
</math>
 
==== Forma canonica di controllo ====
Dato un sistema in variabili di stato di definisce \emph{'''forma canonica di controllo}'''
\vedilibro{rif:b}{<ref> Fondamenti di controlli automatici di Paolo Bolzern, Riccardo Scattolini, Nicola Schiavoni; McGraw-Hill, prima edizione del marzo 1998; pag.125, sezione 4.5.1: Forma canonica di raggiungibilità} </ref>
il sistema simile al sistema dato <math> x' = Ax + Bu </math> in cui
 
<math>
A =
\left( \begin{array}{cccccc}
0 & 1 & 0 & 0 & \cdots & 0 \\
0 & 0 & 1 & 0 & & 0 \\
0 & 0 & 0 & 1 & & 0 \\
\vdots & & & & \ddots & \\
0 & 0 & 0 & 0 & 0 & 1 \\
-a_{0} & -a_{1} & -a_{2} & -a_{3} & \cdots & -a_{n-1} \\
\end{array} \right) \\</math>
 
<math>
B =
\left[ \begin{array}{c}
<math>
C = [b_{0}-a_{0}b_{n} , b_{1}-a_{1}b_{n} , \cdots , b_{n-1}-a_{n-1}b_{n}]
\qquad
\phantom{10}
D = [b_{n}]
</math>
 
Dove si suppone che <math> n_{z} = n_{p} </math> (eventualmente si aggiungono coefficenti nulli)
 
Questa forma è tale che per qualunque valore di <math> a_{0..n} </math> il sistema risulta controllabile;
può essere ricavata direttamente dal diagramma analogico applicato all'equazione differenziale che descrive il sistema (????)
 
==== Forma canonica di osservabilità ====
Dato un sistema in variabili di stato di definisce \emph{'''forma canonica di osservabilità}'''
\vedilibro{rif:b}{<ref>Fondamenti di controlli automatici di Paolo Bolzern, Riccardo Scattolini, Nicola Schiavoni; McGraw-Hill, prima edizione del marzo 1998; pag.125, sezione 4.5.2: Forma canonica di osservabilità}</ref>
il sistema simile al sistema dato <math> x' = Ax + Bu </math> in cui
 
<math>
A =
\left( \begin{array}{cccccc}
0 & 0 & 0 & 0 & \cdots & -a_{0} \\
1 & 0 & 0 & 0 & & -a_{1} \\
0 & 1 & 0 & 0 & & -a_{2} \\
\vdots & & & & \ddots & \vdots \\
0 & 0 & 0 & 0 & 1 & -a_{n-1} \\
\end{array} \right) \\
</math>
 
<math>
B =
\left[ \begin{array}{c}
 
<math>
C = [0 , \cdots, 0 , 1] \phantom{10}qquad D = [b_{n}] \\
</math>
 
Dove si suppone che <math> n_{z} = n_{p} </math> (eventualmente si aggiungono coefficenti nulli).
 
Questa forma è tale che per qualunque valore di <math>a_{0..n}</math> il sistema risulta osservabile
 
Questa forma è tale che per qualunque valore di <math> a_{0..n} </math> il sistema risulta osservabile.
 
=== Funzione di trasferimento ===
50

contributi

Menu di navigazione