50
contributi
m (→Diagramma analogico: ripulito da parti in TeX) |
m (→Variabili di stato: corretto parti in TeX) |
||
Un sistema può essere descritto da un'equazione differenziale
o da un sistema di equazioni differenziali
in cui le funzioni incognite <math> x_{1}(t) \cdots x_{n_{x}}(t) </math> sono dette
il minimo numero di variabili tali che la conoscenza di queste ad un istante <math> t_{0} </math> è sufficente a determinarelo stato del sistema per ogni istante successivo
i valori <math> x_{1}(t_{0}) \cdots x_{n_{x}}(t_{0}) </math> rappresentano le
Un sistema lineare può essere espresso utilizzando le matrici
<math>
\left\{
\right.
</math>
dove le matrici <math>A,B,C,D</math> sono tali che
<math> A \in \Re^{n_{x} \times n_{x}} </math>,
<math> B \in \Re^{n_{x} \times n_{u}} </math>,
<math> C \in \Re^{n_{y} \times n_{x}} </math>,
<math> D \in \Re^{n_{y} \times n_{u}} </math>;
la matrice <math>A</math> è detta
Lo stato in funzione del tempo (o movimento dello stato)
è in generale
<math>
x(t) = e^{A(t-t_{0})} x(t_{0}) + \int _{t_{0}} ^{t} e^{A(t-k)} B u(k) dk
</math>
dove <math> \Phi = e^{A(t-t_{0})}</math> è la
L'uscita del sistema è
<math>
x(t) = Ce^{A(t-t_{0})}x(t_{0}) + C \int_{t_{0}}^{t}e^{A(t-k)}Bu(k)dk + Du(t)
Gli stati di equilibrio di un sistema lineare in variabili di stato
<ref> Fondamenti di controlli automatici di Paolo Bolzern, Riccardo Scattolini, Nicola Schiavoni; McGraw-Hill, prima edizione del marzo 1998; pag. 70, sezione 3.2.5: Equilibrio </ref> sono le soluzioni dell'equazione
<math>
Ax_{e} + Bu = 0
</math>
quando l'ingresso è costante.
Se la matrice <math> A </math> è invertibile allora lo stato di equilibrio è unico e corrisponde allo stato e all'uscita
<math>
\left\{ \begin{array}{l}
\end{array} \right.
</math>
la matrice <math> D - CA^{-1}B </math> rappresenta il '''guadagno statico del sistema'''
<ref>Fondamenti di controlli automatici di Paolo Bolzern, Riccardo Scattolini, Nicola Schiavoni; McGraw-Hill, prima edizione del marzo 1998; pag. 70 </ref>
che nel caso di sistemi SISO si indica con <math>\rho</math>
e costituisce il rapporto tra l'uscita e l'ingresso quanto tutte le variabili del sistema, ingresso e stato, sono costanti
==== Soluzione del sistema in variabili di stato ====
L'unico passo non banale nella soluzione di un sistema in variabili di stato consiste nella valutazione della matrice di transizione dello stato
<math>\Phi = e^{A(t-t_{0})}</math>
che è possibile risolvere utilizzando la trasformata di Laplace o portando la matrice <math>A</math> in forma diagonale.
Se consideriamo il sistema a ingresso nullo <math> x'(t) = Ax(t) </math> e trasformiamo entrambi i membri,
si ottiene <math>s X(s) - x(t_{0}) = A X(s)</math>, ovvero <math> X(s) = (sI-A)^{-1} x(t_{0}) </math>;
e quindi antitrasformando si trova che
<math>
x(t) = \
</math>
Se consideriamo il sistema con ingresso non nullo, con lo stesso metodo, otteniamo
<math>
x(t) = \
+ \
</math>
Utilizzando le trasformazioni lineari e portando la matrice di stato in forma diagonale o a blocchi di Jordan, la valutazione di <math> e^{A(t-t_{0})} </math> è più semplice.
==== Matrici ====
Alcuni richiami sulle matrici ...<ref>Automatic Control Systems di Benjamin C. Kuo; Prentice Hall, settima edizione 1995; pag. 245, sezione 5-7: Characteristic equation, eigenvalues, eigenvectors</ref>
Gli '''autovalori''' di una matrice <math> A </math> sono le radici <math> \lambda_{i} </math> dell'equazione
<math>
| \lambda I - A | = 0
</math>
radici multiple corrispondono ad autovalori con molteplicità algebrica maggiore di uno.
Ad ogni autovalore <math> \lambda_{i} </math> corrisponde un '''autovettore''' <math> v_{i} </math> tale che
<math>
(\lambda_{i} - A)v_{i} = 0
</math>
Per ogni autovalore di molteplicità algebrica <math> n > 1 </math> esistono <math> n-1 </math> autovettori generalizzati che si determinano ripetendo <math> n-1 </math> volte l'equazione precedente sostituendo a 0 l'opposto dell'ultimo autovettore trovato.
<math>
(\lambda_{i} - A)v_{i} = -v_{i-1}
</math>
Si dice
<!-- % !!!!!!!!!!!!!!!! -->
corrispondenti alla dimensione del nullo di A (<math> N(A) </math>) (?)
Il
valgono le seguenti proprietà:
* <math> r\{A\} </math> è uguale al numero di colonne o righe linearmente indipendenti
* <math> r\{A\} </math> è uguale al rango della matrice trasposta di <math> A </math>: <math> r\{A\} = r\{A^{T}\} </math>
* <math> r\{A\} </math> è minore del numero di colonne e del numero di righe della matrice
* se la matrice è quadrata <math> \left( A \in M^{n \times n} \right) </math> e il suo rango è massimo (<math> r\{A\} = n </math>), allora è invertibile
* il rango è inveriante rispetto a pre o post moltiplicazioni per matrici non singolari (come le matrici in una similitudine)
* il rango del prodotto di due matrici è minore dei ranghi di ciascuna delle due
==== Cambiamento di coordinate ====
Le matrici <math> A </math>, <math> B </math>, <math> C </math>, <math> D </math> (matrici rappresentative del sistema)
rappresentano una trasformazione lineare (similitudine) dallo spazio di <math> x </math> e <math> u </math> a quello di <math> x' </math>
<ref>Calcolo, volume secondo - Geometria di Tom M. Apostol; Bollati Boringhieri, ristampa del febbraio 1996; pag. 125, Capitolo 4: Trasformazioni lineari e matrici</ref>
<ref>Controls systems engineering di I. J. Nagrath, M. Gopal; Wiley International edition, 1982, seconda edizione; pag. 472, sezione 12.4: Diagonalization</ref>
È possibile cambiare sistema di riferimento applicando una trasformazione lineare alla matrici rappresentative del sistema
<ref>Fondamenti di controlli automatici di Paolo Bolzern, Riccardo Scattolini, Nicola Schiavoni; McGraw-Hill, prima edizione del marzo 1998; pag. 61, sezione 3.2.2: Rappresentazioni equivalenti</ref>
Applicando una trasformazione <math> M </math> al sistema
<ref>Controls systems engineering di I. J. Nagrath, M. Gopal; Wiley International edition, 1982, seconda edizione </ref>
si ottiene
<math>
\left\{
\right.
</math>
dove <math> M </math> è una matrice quadrata e <math> x_{M}(t) </math> è un nuovo vettore di stato tale che <math> x(t) = Mx_{M}(t) </math>.
Una matrice quadrata <math> M </math> rappresenta la stessa trasformazione lineare di una matrice <math> M'=T^{-1}MT </math> se <math> T </math> non è singolare
due matrici simili hanno stesso polinomio caratteristico e stessi autovalori.
È possibile scegliere <math> M </math> in modo da rendere <math> M^{-1}AM </math> in una forma che consenta di effettuare meglio calcoli,
diagonale
(si indica con <math> \Lambda </math>)
o in forma di Jordan
(<math> J </math>)
La matrice <math> \Lambda </math> è diagonale e gli elementi sulla diagonale sono gli autovalori di <math> A </math>
La matrice a blocchi di Jordan è diagonale,
tranne degli 1 al di sopra degli elementi della diagonale
(che corrispondono ad autovettori linearmente dipendenti),
e gli elementi sulla diagonale sono gli autovalori di <math> A </math>
e gli <math> 1 </math> sulla diagonale superiore sono in corrispondenza degli autovettori generalizzati che sono linearmente dipendenti (???).
Per portare una matrice in forma diagonale o di Jordan si usa la trasformazione
<math>
T_{diag} = [ v_{1} , v_{2} , \cdots , v_{n}]
</math>
dove <math> v_{1 \cdots n} </math> sono gli autovettori (intesi come vettori-colonna) della matrice
(si può costruire <math> T </math> anche con gli autovettori sinistri messi per righe)
==== Esponenziale di una matrice ====
Per ogni matrice quadrata <math> A \in \Re^{n \times n} </math> e ogni scalare <math> t \geq 0 </math> è definita la
<ref>Fondamenti di controlli automatici di Paolo Bolzern, Riccardo Scattolini, Nicola Schiavoni; McGraw-Hill, prima edizione del marzo 1998; pag. 591, appendice A.5: Esponenziale</ref>
<math>
e^{At} = I + At + \frac{A^{2}t^{2}}{2!} + \frac{A^{3}t^{3}}{3!} + \cdots
</math>
estendendo la definizione di esponenziale come serie valida per gli scalari.
Per il
qualunque matrice quadrata <math> A </math> soddisfa la sua equazione caratteristica
(il suo polinomio caratteristico eguagliato a zero)
<math>
A^{n} + a_{n-1}A^{n-1} + \cdots + a_{1}A + a_{0}I = 0
</math>
e quindi la serie necessaria per il calcolo dell'esponenziale si riduce ad una somma finita,
in quanto tutte le potenze da <math> A^{n} </math> in poi possono essere espresse come combinazione lineare di <math> A^{0} \cdots A^{n-1} </math>
<math>
e^{At} = h_{0}(t)I + h_{1}(t)At + h_{2}(t)\frac{A^{2}t^{2}}{2!} + \cdots
+ h_{n-1}(t)\frac{A^{n-1}t^{n-1}}{(n-1)!}
</math>
dove i coefficenti <math> h_{0}(t) \cdots h_{n-1}(t) </math> si possono ricavare utilizzando il '''determinante di Vandermonte'''
<math>
\left( \begin{array}{ccccc}
È possibile calcolare l'esponenziale di una matrice avvalendosi della trasformata di Laplace
<math>
e^{At} = \
</math>
Oppure se la matrice è in forma diagonale e
<math> \lambda_{1} \cdots \lambda_{n} </math>
sono i suoi autovalori (e quindi gli elementi della diagonale principale)
allora
<math>
e^{\Lambda t} =
Se la matrice è in forma di Jordan, per ogni blocco di Jordan che si ottiene con ognuno degli autovalori il suo esponenziale è
<math>
e^{Jt} =
\left(
\begin{array}{ccccc}
e^{\
0 & e^{\
0 & 0 & e^{\lambda_{i} t} & & \\
\vdots & \vdots & \vdots & \ddots & \vdots \\
0 & 0 & 0 & 0 & e^{\lambda_{i} t} \\
\end{array} \right)
</math>
==== Forma canonica di controllo ====
Dato un sistema in variabili di stato di definisce
il sistema simile al sistema dato <math> x' = Ax + Bu </math> in cui
<math>
A =
\left( \begin{array}{cccccc}
0 & 1 & 0 & 0 & \cdots & 0 \\
0 & 0 & 1 & 0 & & 0 \\
0 & 0 & 0 & 1 & & 0 \\
\vdots & & & & \ddots & \\
0 & 0 & 0 & 0 & 0 & 1 \\
\end{array} \right)
<math>
B =
\left[ \begin{array}{c}
<math>
C = [b_{0}-a_{0}b_{n} , b_{1}-a_{1}b_{n} , \cdots , b_{n-1}-a_{n-1}b_{n}]
\qquad
D = [b_{n}]
</math>
Dove si suppone che <math> n_{z} = n_{p} </math> (eventualmente si aggiungono coefficenti nulli)
Questa forma è tale che per qualunque valore di <math> a_{0..n} </math> il sistema risulta controllabile;
può essere ricavata direttamente dal diagramma analogico applicato all'equazione differenziale che descrive il sistema (????)
==== Forma canonica di osservabilità ====
Dato un sistema in variabili di stato di definisce
il sistema simile al sistema dato <math> x' = Ax + Bu </math> in cui
<math>
A =
\left( \begin{array}{cccccc}
0 & 0 & 0 & 0 & \cdots & -a_{0} \\
1 & 0 & 0 & 0 & & -a_{1} \\
0 & 1 & 0 & 0 & & -a_{2} \\
\vdots & & & & \ddots & \vdots \\
0 & 0 & 0 & 0 & 1 & -a_{n-1} \\
\end{array} \right)
</math>
<math>
B =
\left[ \begin{array}{c}
<math>
C = [0 , \cdots, 0 , 1] \
</math>
Dove si suppone che <math> n_{z} = n_{p} </math> (eventualmente si aggiungono coefficenti nulli).
Questa forma è tale che per qualunque valore di <math> a_{0..n} </math> il sistema risulta osservabile.
=== Funzione di trasferimento ===
|
contributi