Nella risoluzione di sistemi lineari si ha l'obiettivo di misurare quantità non scalari.
Definizione
Esempi di norme sono:
|
x
|
=
∑
i
=
1
n
x
i
2
norma 2
{\displaystyle \vert {\boldsymbol {x}}\vert ={\sqrt {\sum _{i=1}^{n}x_{i}^{2}}}\quad {\hbox{norma 2}}}
|
x
|
=
∑
i
=
1
n
|
x
i
|
norma 1
{\displaystyle \vert {\boldsymbol {x}}\vert =\sum _{i=1}^{n}|x_{i}|\quad {\hbox{norma 1}}}
|
x
|
∞
=
max
i
|
x
i
|
norma infinito
{\displaystyle \vert {\boldsymbol {x}}\vert ^{\infty }=\max {i}|x_{i}|\quad {\hbox{norma infinito}}}
e gli intorni in queste tre norme sono rispettivamente un cerchio, un rombo e un quadrato.
Proprietà 1 : la norma è una funzione uniformemente continua, cioè
∀
ε
>
0
∃
δ
t
.
c
.
|
x
−
y
|
<
δ
⟶
|
x
|
−
|
y
|
≤
ε
{\displaystyle \forall \varepsilon >0\,\exists \delta \,t.c.\vert {\boldsymbol {x}}-{\boldsymbol {y}}\vert <\delta \,\longrightarrow \vert {\boldsymbol {x}}\vert -\vert {\boldsymbol {y}}\vert \leq \varepsilon }
A vettori vicini corrispondono norme vicine indipendentemente dagli ordini di grandezza.
Proprietà 2 : vale la proprietà di equivalenza topologica delle norme. Supponiamo di prendere due norme qualsiasi
|
x
|
1
{\displaystyle \vert {\boldsymbol {x}}\vert _{1}}
e
|
x
|
2
{\displaystyle \vert {\boldsymbol {x}}\vert _{2}}
, con
n
{\displaystyle n}
fissato. Allora esistono
α
,
β
∈
R
{\displaystyle \alpha ,\beta \in \mathbb {R} }
con
0
<
α
<
β
{\displaystyle 0<\alpha <\beta }
tali che
α
|
x
|
2
≤
|
x
|
1
≤
β
|
x
|
2
{\displaystyle \alpha \vert {\boldsymbol {x}}\vert _{2}\leq \vert {\boldsymbol {x}}\vert _{1}\leq \beta \vert {\boldsymbol {x}}\vert _{2}}
Allora, siccome tutte le norme sono equivalenti, si può scegliere la norma che dà meno errori.
Proprietà 3 : per ogni
x
∈
C
n
{\displaystyle {\boldsymbol {x}}\in \mathbb {C} ^{n}}
, considerate le norme 1,2 e
∞
{\displaystyle \infty }
dell'esempio precedente, si ha:
|
x
|
∞
≤
|
x
|
2
≤
n
|
x
|
∞
{\displaystyle \vert {\boldsymbol {x}}\vert ^{\infty }\leq \vert {\boldsymbol {x}}\vert _{2}\leq {\sqrt {n}}\vert {\boldsymbol {x}}\vert ^{\infty }}
|
x
|
2
≤
|
x
|
1
≤
n
|
x
|
2
{\displaystyle \vert {\boldsymbol {x}}\vert _{2}\leq \vert {\boldsymbol {x}}\vert _{1}\leq {\sqrt {n}}\vert {\boldsymbol {x}}\vert _{2}}
e, unendo le due relazioni:
|
x
|
∞
≤
|
x
|
2
≤
|
x
|
1
{\displaystyle \vert x\vert ^{\infty }\leq \vert {\boldsymbol {x}}\vert _{2}\leq \vert {\boldsymbol {x}}\vert _{1}}
Definizione
Proprietà 1,2 : valgono l'uniforme continuità e l'equivalenza delle norme come conseguenze dei punti 1,2,3.
È necessario imporre anche la quarta proprietà. Infatti, data la matrice
A
=
(
1
2
2
4
)
{\displaystyle A=\left({\begin{array}{cc}1&2\\2&4\end{array}}\right)}
B
=
(
1
6
1
8
3
4
)
{\displaystyle B=\left({\begin{array}{cc}1&6\\1&8\\3&4\end{array}}\right)}
si ha che
A
B
{\displaystyle AB}
è la matrice nulla, e quindi vale
0
<
|
A
|
∗
|
B
|
{\displaystyle 0<\vert A\vert *\vert B\vert }
Definizione
Definizione
Definiamo la norma matriciale indotta da una norma vettoriale fissata come
|
A
|
=
max
x
∈
C
n
t
.
c
.
|
x
|
v
=
1
|
A
x
|
v
{\displaystyle \vert A\vert =\max _{{\boldsymbol {x}}\in \mathbb {C} ^{n}\,t.c.\,\vert {\boldsymbol {x}}\vert _{v}=1}\,\vert A{\boldsymbol {x}}\vert _{v}}
equivalentemente
|
A
|
=
sup
x
∈
C
n
|
A
x
|
A
x
|
v
|
v
{\displaystyle \vert A\vert =\sup _{{\boldsymbol {x}}\in \mathbb {C} ^{n}}\vert {\frac {A{\boldsymbol {x}}}{\vert A{\boldsymbol {x}}\vert _{v}}}\vert _{v}}
Proprietà 3 : Una norma vettoriale indotta è una norma matriciale compatibile.
Dim. Se
x
=
0
{\displaystyle {\boldsymbol {x}}=0}
, la definizione di norma matriciale compatibile è verificata. Se
x
≠
0
{\displaystyle {\boldsymbol {x}}\neq 0}
, si ha
|
A
x
|
v
=
|
A
x
|
v
|
x
|
v
∗
|
x
|
v
{\displaystyle \vert A{\boldsymbol {x}}\vert _{v}={\frac {\vert A{\boldsymbol {x}}\vert _{v}}{\vert {\boldsymbol {x}}\vert _{v}}}*\vert {\boldsymbol {x}}\vert _{v}}
=
|
x
|
v
∗
|
A
x
|
x
|
v
|
v
=
{\displaystyle =\vert {\boldsymbol {x}}\vert _{v}*\vert A{\frac {\boldsymbol {x}}{\vert {\boldsymbol {x}}\vert _{v}}}\vert _{v}=}
=
|
x
|
v
∗
|
A
y
|
v
{\displaystyle =\vert {\boldsymbol {x}}\vert _{v}*\vert A{\boldsymbol {y}}\vert _{v}}
≤
|
x
|
v
∗
max
y
t
.
c
.
|
y
|
v
=
1
|
A
y
|
v
{\displaystyle \leq \vert {\boldsymbol {x}}\vert _{v}*\max _{{\boldsymbol {y}}\,t.c.\vert {\boldsymbol {y}}\vert _{v}=1}\vert A{\boldsymbol {y}}\vert _{v}}
≤
|
x
|
v
∗
|
A
|
{\displaystyle \leq \vert {\boldsymbol {x}}\vert _{v}*\vert A\vert }
cvd
Proprietà 4 : La norma matriciale indotta è la più piccola tra le norme matriciali compatibili con la norma vettoriale considerata.
Dim.
|
A
|
=
max
x
t
.
c
.
|
x
|
=
1
|
A
x
|
v
{\displaystyle \vert A\vert =\max _{{\boldsymbol {x}}\,t.c.\,\vert {\boldsymbol {x}}\vert =1}\vert A{\boldsymbol {x}}\vert _{v}}
e per la compatibilità della norma
∗
{\displaystyle \ast }
:
≤
max
x
t
.
c
.
|
x
|
v
=
1
|
A
|
∗
|
x
|
v
{\displaystyle \leq \max _{{\boldsymbol {x}}\,t.c.\,\vert {\boldsymbol {x}}\vert _{v}=1}\vert A\vert ^{\ast }\vert {\boldsymbol {x}}\vert _{v}}
≤
|
A
|
∗
{\displaystyle \leq \vert A\vert ^{\ast }}
cvd
Proprietà 5 :
norma vettoriale
norma matriciale compatibile
norma 1
max
j
=
1
n
[
∑
i
=
1
n
|
A
i
j
|
]
norma infinito
max
i
=
1
n
[
∑
j
=
1
n
|
A
i
j
|
]
norma 2
ρ
1
/
2
(
A
h
∗
A
)
{\displaystyle {\begin{array}{|c|c|}\hline \\{\hbox{norma vettoriale}}&{\hbox{norma matriciale compatibile}}\\{\hbox{norma 1}}&\max _{j=1}^{n}[\sum _{i=1}^{n}|A_{ij}|]\\{\hbox{norma infinito}}&\max _{i=1}^{n}[\sum _{j=1}^{n}|A_{ij}|]\\{\hbox{norma 2}}&\rho ^{1/2}(A_{h}*A)\\\hline \end{array}}}
Nell'espressione della norma matriciale indotta dalla norma 2, cioè dalla norma euclidea,
ρ
{\displaystyle \rho }
rappresenta il raggio spettrale.
Definizione
Consideriamo
B
∈
M
a
t
n
,
n
{\displaystyle B\in \mathrm {Mat} _{n,n}}
, allora
ρ
=
max
i
|
λ
i
|
,
{\displaystyle \rho =\max _{i}|\lambda _{i}|,}
cioè il raggio spettrale è il massimo dei moduli degli autovalori della matrice.
Definizione
A
h
{\displaystyle A_{h}}
è la
trasposta coniugata , cioè se
A
{\displaystyle A}
ha elementi reali, si ha
(
A
h
)
i
j
=
A
j
i
{\displaystyle (A_{h})_{ij}=A_{ji}}
, mentre se
A
∈
C
{\displaystyle A\in {\mathcal {C}}}
,
(
A
h
)
i
j
=
A
¯
j
i
{\displaystyle (A_{h})_{ij}={\bar {A}}_{ji}}
.
Proprietà 6 : Per ogni
A
∈
C
n
{\displaystyle A\in \mathbb {C} ^{n}}
valgono le seguenti disuguaglianze:
1
n
|
A
|
∞
≤
|
A
|
2
≤
n
|
A
|
∞
1
n
|
A
|
1
≤
|
A
|
2
≤
n
|
A
|
1
max
i
,
j
|
A
i
j
|
≤
|
A
|
2
≤
max
i
,
j
|
A
i
j
|
?
?
?
|
A
|
2
≤
n
|
A
|
2
≤
|
A
|
∞
{\displaystyle {\begin{aligned}{\frac {1}{\sqrt {n}}}\vert A\vert ^{\infty }&\leq \vert A\vert _{2}&\leq {\sqrt {n}}\vert A\vert ^{\infty }\\{\frac {1}{\sqrt {n}}}\vert A\vert _{1}&\leq \vert A\vert _{2}&\leq {\sqrt {n}}\vert A\vert _{1}\\\max _{i,j}|A_{ij}|&\leq \vert A\vert _{2}&\leq \max _{i,j}|A_{ij}|???\\\vert A\vert _{2}&\leq {\sqrt {n}}\vert A\vert _{2}&\leq \vert A\vert ^{\infty }\end{aligned}}}
Se
A
=
A
h
{\displaystyle A=A_{h}}
, allora
|
A
|
∞
=
|
A
|
1
{\displaystyle \vert A\vert ^{\infty }=\vert A\vert _{1}}
, e
|
A
|
2
=
ρ
1
/
2
(
A
2
)
.
{\displaystyle \vert A\vert _{2}=\rho ^{1/2}(A^{2}).}
ma siccome per gli autovalori vale la relazione
A
x
=
λ
x
{\displaystyle A{\boldsymbol {x}}=\lambda {\boldsymbol {x}}}
, moltiplicando per
A
{\displaystyle A}
ottengo:
A
2
x
=
λ
A
x
=
λ
2
x
{\displaystyle A^{2}{\boldsymbol {x}}=\lambda A{\boldsymbol {x}}=\lambda ^{2}{\boldsymbol {x}}}
cioè gli autovalori di
A
2
{\displaystyle A^{2}}
sono i quadrati degli autovalori di
A
{\displaystyle A}
.
Quindi
|
A
|
2
=
ρ
(
A
)
{\displaystyle \vert A\vert _{2}=\rho (A)}
Se
A
{\displaystyle A}
è hermitiana definita positiva, cioè
∀
x
≠
0
{\displaystyle \forall {\boldsymbol {x}}\neq 0}
,
x
⋅
A
x
>
0
{\displaystyle {\boldsymbol {x}}\cdot A{\boldsymbol {x}}>0}
, allora gli autovalori sono positivi, e si ha
|
A
|
2
=
max
i
λ
i
(
A
)
{\displaystyle \vert A\vert _{2}=\max _{i}\lambda _{i}(A)}
Nota : il raggio spettrale non è una norma matriciale, a meno che non mi limiti a sottoclassi di matrici.
Esistono infatti
A
,
B
{\displaystyle A,B}
tali che
ρ
(
A
+
B
)
>
ρ
(
A
)
+
ρ
(
B
)
{\displaystyle \rho (A+B)>\rho (A)+\rho (B)}
Considerando
A
=
(
0
1
0
0
)
{\displaystyle A=\left({\begin{array}{cc}0&1\\0&0\end{array}}\right)}
B
=
(
0
0
1
0
)
{\displaystyle B=\left({\begin{array}{cc}0&0\\1&0\end{array}}\right)}
Allora si verifica che
ρ
(
A
)
=
ρ
(
B
)
=
0
{\displaystyle \rho (A)=\rho (B)=0}
mentre
ρ
(
A
+
B
)
=
1
{\displaystyle \rho (A+B)=1}
e la disuguaglianza triangolare è violata.
Proprietà 7 : per ogni norma matriciale indotta, vale che
ρ
(
A
)
≤
|
A
|
∗
{\displaystyle \rho (A)\leq \vert A\vert ^{\ast }}
.
Dim. Consideriamo la relazione
A
x
=
λ
x
{\displaystyle A{\boldsymbol {x}}=\lambda {\boldsymbol {x}}}
|
λ
x
|
=
|
A
x
|
v
{\displaystyle \vert \lambda {\boldsymbol {x}}\vert =\vert A{\boldsymbol {x}}\vert _{v}}
⟶
|
λ
|
|
x
|
v
=
|
A
x
|
v
{\displaystyle \longrightarrow |\lambda |\vert {\boldsymbol {x}}\vert _{v}=\vert A{\boldsymbol {x}}\vert _{v}}
⟶
|
λ
|
=
|
A
x
|
x
|
v
|
v
{\displaystyle \longrightarrow |\lambda |=\vert A{\frac {\boldsymbol {x}}{\vert {\boldsymbol {x}}\vert _{v}}}\vert _{v}}
|
λ
|
≤
max
v
t
.
c
.
|
v
|
=
1
|
A
v
|
v
=
|
A
|
∗
{\displaystyle |\lambda |\leq \max _{{\boldsymbol {v}}\,t.c.\,\vert {\boldsymbol {v}}\vert =1}\vert A{\boldsymbol {v}}\vert _{v}=\vert A\vert ^{\ast }}
cioè
|
λ
|
≤
|
A
|
∗
{\displaystyle |\lambda |\leq \vert A\vert ^{\ast }}
vale per ogni autovalore, e quindi anche per quello che realizza il raggio spettrale, cioè
ρ
(
A
)
≤
|
A
|
∗
{\displaystyle \rho (A)\leq \vert A\vert ^{\ast }}
cvd
Definizione
Si dice numero di condizionamento di una matrice rispetto ad una fissata norma la quantità
K
(
A
)
=
|
A
|
∗
|
A
−
1
|
{\displaystyle K(A)=\vert A\vert *\vert A^{-1}\vert }
Consideriamo una funzione
g
:
R
n
→
R
n
{\displaystyle g\colon \mathbb {R} ^{n}\to \mathbb {R} ^{n}}
, tale che
A
g
(
P
)
=
P
{\displaystyle Ag(P)=P}
.
P
¯
=
P
+
δ
P
,
⟶
g
(
P
¯
)
≃
g
(
P
)
+
J
g
(
P
)
∗
δ
P
{\displaystyle {\bar {P}}=P+\delta _{P},\,\longrightarrow \,g({\bar {P}})\simeq g(P)+J_{g}(P)*\delta _{P}}
Valutando l'errore relativo
|
E
r
|
=
|
g
(
P
¯
)
−
g
(
P
)
|
|
g
(
P
)
|
{\displaystyle \vert E_{r}\vert ={\frac {|g({\bar {P}})-g(P)|}{|g(P)|}}}
=
|
g
(
P
)
+
J
g
(
P
)
∗
δ
P
−
g
(
P
)
|
|
g
(
P
)
|
{\displaystyle ={\frac {\vert g(P)+J_{g}(P)*\delta _{P}-g(P)\vert }{\vert g(P)\vert }}}
=
|
J
g
(
P
)
δ
P
|
|
g
(
P
)
|
{\displaystyle ={\frac {\vert J_{g}(P)\delta _{P}\vert }{\vert g(P)\vert }}}
≤
|
J
g
(
P
)
|
∗
|
δ
P
|
|
G
(
P
)
|
{\displaystyle \leq {\frac {\vert J_{g}(P)\vert *\vert \delta _{P}\vert }{\vert G(P)\vert }}}
Moltiplichiamo e dividiamo per
|
P
|
{\displaystyle \vert P\vert }
.
E
r
≤
|
J
g
(
P
)
|
∗
|
P
|
|
g
(
P
)
|
∗
|
δ
P
|
|
P
|
{\displaystyle E_{r}\leq \vert J_{g}(P)\vert *{\frac {\vert P\vert }{\vert g(P)\vert }}*{\frac {\vert \delta _{P}\vert }{\vert P\vert }}}
Siccome stiamo supponendo di risolvere il sistema
A
g
(
P
)
=
P
{\displaystyle Ag(P)=P}
segue che
J
g
(
P
)
=
A
−
1
{\displaystyle J_{g}(P)=A^{-1}}
g
(
P
)
=
A
−
1
P
{\displaystyle g(P)=A^{-1}P}
quindi
E
r
≤
|
A
−
1
|
∗
|
A
g
(
P
)
|
|
g
(
P
)
|
∗
ε
P
{\displaystyle E_{r}\leq \vert A^{-1}\vert *{\frac {\vert Ag(P)\vert }{\vert g(P)\vert }}*\varepsilon _{P}}
tenendo conto che la norma matriciale utilizzata è compatibile:
E
r
≤
|
A
|
∗
|
A
−
1
|
∗
|
G
(
P
)
|
|
g
(
P
)
|
∗
|
δ
P
|
|
P
|
{\displaystyle E_{r}\leq \vert A\vert *{\frac {\vert A^{-1}\vert *\vert G(P)\vert }{\vert g(P)\vert }}*{\frac {\vert \delta _{P}\vert }{\vert P\vert }}}
e ponendo
ε
x
=
|
δ
P
|
|
P
|
{\displaystyle \varepsilon _{x}={\frac {\vert \delta _{P}\vert }{\vert P\vert }}}
si ottiene
E
r
≤
K
(
A
)
∗
ε
X
{\displaystyle E_{r}\leq K(A)*\varepsilon _{X}}
Definizione
Il numero di condizionamento di una matrice
A
{\displaystyle A}
, supposta non singolare, è
K
(
A
)
=
|
A
|
∗
|
A
−
1
|
{\displaystyle K(A)=\vert A\vert *\vert A^{-1}\vert }
. Si dice che
K
(
A
)
{\displaystyle K(A)}
è infinito se
A
{\displaystyle A}
è singolare.
Lemma 2.1 : Per ogni norma,
K
(
A
)
≥
1
{\displaystyle K(A)\geq 1}
.
Dim.
K
(
A
)
=
|
A
|
∗
|
A
−
1
|
≥
|
A
−
1
A
|
=
|
I
|
≥
1
{\displaystyle K(A)=\vert A\vert *\vert A^{-1}\vert \geq \vert A^{-1}A\vert =\vert I\vert \geq 1}
cvd
Definizione
Si definisce condizionamento spettrale la quantità
K
2
(
A
)
=
|
A
|
2
∗
|
A
−
1
|
2
{\displaystyle K_{2}(A)=\vert A\vert _{2}*\vert A^{-1}\vert _{2}}
(infatti
|
A
|
2
=
ρ
1
/
2
(
A
h
A
)
{\displaystyle \vert A\vert _{2}=\rho ^{1/2}(A_{h}A)}
con
ρ
{\displaystyle \rho }
raggio spettrale).
A
H
A
{\displaystyle A_{H}A}
è definita positiva, se
A
{\displaystyle A}
è non singolare. Infatti
x
⋅
(
A
h
A
x
)
=
x
⋅
(
A
H
y
)
≥
0
∀
x
≠
0
,
y
=
A
x
≠
0
{\displaystyle {\boldsymbol {x}}\cdot (A_{h}A{\boldsymbol {x}})={\boldsymbol {x}}\cdot (A_{H}{\boldsymbol {y}})\geq 0\forall {\boldsymbol {x}}\neq 0,\quad {\boldsymbol {y}}=A{\boldsymbol {x}}\neq 0}
.
Se
A
{\displaystyle A}
è definita positiva, allora ha tutti autovalori reali positivi, e
ρ
1
/
2
(
A
h
A
)
=
max
i
λ
i
(
A
h
A
)
=
λ
m
a
x
(
A
h
A
)
{\displaystyle \rho ^{1/2}(A_{h}A)={\sqrt {\max _{i}\lambda _{i}(A_{h}A)}}={\sqrt {\lambda _{max}(A_{h}A)}}}
dove i
λ
i
{\displaystyle \lambda _{i}}
sono autovalori di
A
h
A
{\displaystyle A_{h}A}
.
Inoltre
|
A
−
1
|
2
=
ρ
1
/
2
(
A
h
−
1
A
−
1
)
=
ρ
1
/
2
(
A
A
h
)
−
1
=
max
λ
i
(
(
A
A
h
)
−
1
,
λ
i
autovalori di
(
A
A
h
)
−
1
{\displaystyle \vert A^{-1}\vert _{2}=\rho ^{1/2}(A_{h}^{-1}A^{-1})=\rho ^{1/2}(AA_{h})^{-1}={\sqrt {\max \lambda _{i}((AA_{h})^{-1}}},\quad \lambda _{i}{\hbox{autovalori di}}(AA_{h})^{-1}}
Allora
|
A
−
1
|
2
=
max
i
[
1
λ
i
(
A
A
H
)
]
=
1
λ
m
i
n
(
A
A
h
)
{\displaystyle \vert A^{-1}\vert _{2}=\max _{i}[{\frac {1}{\lambda _{i}(AA_{H})}}]={\frac {1}{\lambda _{min}(AA_{h})}}}
e siccome
A
{\displaystyle A}
h
A
A
h
{\displaystyle AA_{h}}
e
A
h
A
{\displaystyle A_{h}A}
sono simili e hanno quindi gli stessi autovalori, allora
|
A
−
1
|
2
=
1
λ
m
i
n
(
A
h
A
)
.
{\displaystyle \vert A^{-1}\vert _{2}={\frac {1}{\lambda _{min}(A_{h}A)}}.}
Allora, se
A
{\displaystyle A}
è non singolare,
K
2
(
A
)
=
λ
m
a
x
(
A
h
A
)
λ
m
i
n
(
A
h
A
)
.
{\displaystyle K_{2}(A)={\sqrt {\frac {\lambda _{max}(A_{h}A)}{\lambda _{min}(A_{h}A)}}}.}
Se
A
h
=
A
{\displaystyle A_{h}=A}
, allora
K
2
(
A
)
=
max
|
λ
(
A
)
|
min
|
λ
(
A
)
|
{\displaystyle K_{2}(A)={\frac {\max |\lambda (A)|}{\min |\lambda (A)|}}}
e se
A
{\displaystyle A}
è anche definita positiva
K
2
(
A
)
=
λ
m
a
x
(
A
)
λ
m
i
n
(
A
)
{\displaystyle K_{2}(A)={\frac {\lambda _{max}(A)}{\lambda _{min}(A)}}}
Consideriamo una norma matriciale indotta. Vale la seguente proprietà:
ρ
1
/
2
(
A
)
≤
|
A
|
{\displaystyle \rho ^{1/2}(A)\leq \vert A\vert }
, allora
K
(
A
)
=
|
A
|
∗
|
A
−
1
|
≥
ρ
(
A
)
∗
ρ
(
A
−
1
)
=
max
|
λ
(
A
)
|
min
|
λ
(
A
)
|
{\displaystyle K(A)=\vert A\vert *\vert A^{-1}\vert \geq \rho (A)*\rho (A^{-1})={\frac {\max |\lambda (A)|}{\min |\lambda (A)|}}}
Determiniamo le matrici con numeri di condizionamento molto alti o molto bassi.
La matrice di Hilbert ha entrate della forma
H
i
j
=
1
i
+
j
−
1
{\displaystyle H_{ij}={\frac {1}{i+j-1}}}
Ad esempio, in dimensione 3
H
3
=
1
1
/
2
1
/
3
1
/
2
1
/
3
1
/
4
1
/
3
1
/
4
1
/
5
{\displaystyle H_{3}={\begin{array}{ccc}1&1/2&1/3\\1/2&1/3&1/4\\1/3&1/4&1/5\end{array}}}
Nella tabella rappresento l'aumentare del numero di condizionamento al crescere di
n
{\displaystyle n}
:
valore di n
condizionamento
2
10
0
3
10
3
5
10
5
6
10
7
10
10
13
{\displaystyle {\begin{array}{cc}{\hbox{valore di n}}&{\hbox{condizionamento}}\\2&10^{0}\\3&10^{3}\\5&10^{5}\\6&10^{7}\\10&10^{13}\end{array}}}
Definizione
Se
K
2
(
A
)
=
1
{\displaystyle K_{2}(A)=1}
si dice che la matrice è perfettamente condizionata.
Tra le matrici per cui
K
(
A
)
=
1
{\displaystyle K(A)=1}
c'è la matrice identica.
K
2
(
i
d
)
=
1
{\displaystyle K_{2}(id)=1}
Anche le matrici tali che
A
h
A
=
A
A
h
=
i
d
{\displaystyle A_{h}A=AA_{h}=id}
cioè tali che
A
−
1
=
A
h
{\displaystyle A^{-1}=A_{h}}
sono perfettamente condizionate, infatti:
|
A
|
2
=
1
{\displaystyle \vert A\vert _{2}=1}
|
A
−
1
|
2
=
1
{\displaystyle \vert A^{-1}\vert _{2}=1}
Vale la proprietà
det
α
A
=
α
n
det
A
,
A
∈
M
a
t
n
{\displaystyle \det \alpha A=\alpha ^{n}\det A,\quad A\in \mathrm {Mat} _{n}}
det
[
0.1
∗
A
]
=
(
0.1
)
n
A
→
0
{\displaystyle \det[0.1*A]=(0.1)^{n}A\to 0}
ma la matrice non è singolare.
Il determinante non è una buona misura della singolarità della matrice.