Per aumentare l'ordine di convergenza del metodo ci sono due strade possibili:
metodi multipasso : usano informazioni precedenti ma rimangono lineari, ne sono esempi i metodi di Adam-Bashword (espliciti), di Adam-Multonn (impliciti), di Mistrom, i generalized Simpson (espliciti e impliciti), BDF usate nel caso dei problemi stiff ;
metodi a un passo non lineari .
I metodi di questo tipo si definiscono come
∑
j
=
0
k
α
j
y
n
+
j
=
h
∑
j
=
0
k
b
j
f
n
+
j
{\displaystyle \sum _{j=0}^{k}\alpha _{j}y_{n+j}=h\sum _{j=0}^{k}b_{j}f_{n+j}}
dove
f
n
+
j
=
f
(
t
n
+
j
,
y
n
+
j
)
{\displaystyle f_{n+j}=f(t_{n+j},y_{n+j})}
α
j
,
β
j
{\displaystyle \alpha _{j},\beta _{j}}
sono tali che
α
k
=
1
{\displaystyle \alpha _{k}=1}
e
∑
|
α
0
|
+
|
β
0
|
≠
0
{\displaystyle \sum |\alpha _{0}|+|\beta _{0}|\neq 0}
Osserviamo che se
β
k
=
0
{\displaystyle \beta _{k}=0}
il metodo è esplicito perché a secondo membro non compare la soluzione da calcolare al passo corrente, mentre diversamente è implicito, e si può pensare di applicare il metodo del punto fisso
y
n
+
k
=
h
β
k
f
(
t
n
+
k
,
y
n
+
k
)
+
ϕ
{\displaystyle y_{n+k}=h\beta _{k}f(t_{n+k},y_{n+k})+\phi }
Dev'essere
h
<
1
/
(
|
β
k
|
∗
L
)
{\displaystyle h<1/(|\beta _{k}|*L)}
.
Consideriamo i seguenti polinomi
ρ
(
z
)
=
∑
j
=
0
k
α
j
z
j
{\displaystyle \rho (z)=\sum _{j=0}^{k}\alpha _{j}z^{j}}
con
z
{\displaystyle z}
variabile complessa (primo polinomio caratteristico).
σ
(
z
)
=
∑
j
=
0
k
β
j
z
j
{\displaystyle \sigma (z)=\sum _{j=0}^{k}\beta _{j}z^{j}}
e consideriamo il metodo
∑
j
=
0
k
α
j
y
n
+
j
=
h
ϕ
f
(
y
n
+
k
,
y
n
+
k
−
1
,
y
n
,
t
n
,
h
)
=
h
∑
j
=
0
k
β
j
f
n
+
j
{\displaystyle \sum _{j=0}^{k}\alpha _{j}y_{n+j}=h\phi _{f}(y_{n+k},y_{n+k-1},y_{n},t_{n},h)=h\sum _{j=0}^{k}\beta _{j}f_{n+j}}
Il metodo è consistente (cioè l'errore di troncamento locale tende a 0 per
h
→
0
{\displaystyle h\to 0}
), se valgono le seguenti condizioni:
∑
j
=
0
k
α
j
=
0
,
⟶
ρ
(
1
)
=
0
{\displaystyle \sum _{j=0}^{k}\alpha _{j}=0,\quad \longrightarrow \quad \rho (1)=0}
∑
j
=
0
k
j
α
j
f
(
t
n
,
y
(
t
n
)
)
=
ϕ
f
(
t
n
,
t
n
,
t
n
{\displaystyle \sum _{j=0}^{k}j\alpha _{j}f(t_{n},y(t_{n}))=\phi _{f}(t_{n},t_{n},t_{n}}
(
h
{\displaystyle h}
tende a 0 quindi tutti gli istanti tendono
t
n
{\displaystyle t_{n}}
)
con
ϕ
f
=
∑
j
β
j
f
n
+
j
{\displaystyle \phi _{f}=\sum _{j}\beta _{j}f_{n+j}}
.
Affermiamo che
y
(
t
n
+
j
)
−
y
(
t
n
)
=
j
h
y
′
(
ξ
j
)
=
j
h
f
(
ξ
j
)
{\displaystyle y(t_{n+j})-y(t_{n})=jhy'(\xi _{j})=jhf(\xi _{j})}
con
ξ
j
∈
(
t
n
,
t
n
+
j
)
{\displaystyle \xi _{j}\in (t_{n},t_{n+j})}
con
j
=
0
,
…
,
k
{\displaystyle j=0,\dots ,k}
per il teorema del valor medio.
Consideriamo l'errore di troncamento:
τ
=
1
/
h
[
∑
j
=
0
k
α
j
y
(
t
n
+
j
)
−
h
ϕ
f
]
{\displaystyle \tau =1/h[\sum _{j=0}^{k}\alpha _{j}y(t_{n+j})-h\phi _{f}]}
e in base a quanto appena ricavato per
y
n
+
j
{\displaystyle y_{n+j}}
:
=
1
/
h
[
∑
j
=
0
k
α
j
∗
(
y
(
t
n
)
+
j
h
y
′
(
ξ
j
)
)
]
−
ϕ
f
{\displaystyle =1/h[\sum _{j=0}^{k}\alpha _{j}*(y(t_{n})+jhy'(\xi _{j}))]-\phi _{f}}
e spezzando le somme
=
1
/
h
∗
∑
j
=
0
k
α
j
∗
y
(
t
n
)
+
∑
j
=
0
k
j
α
j
y
′
(
ξ
j
)
−
ϕ
f
{\displaystyle =1/h*\sum _{j=0}^{k}\alpha _{j}*y(t_{n})+\sum _{j=0}^{k}j\alpha _{j}y'(\xi _{j})-\phi _{f}}
Per
h
→
0
{\displaystyle h\to 0}
y
′
(
ξ
j
)
→
y
′
(
t
n
)
{\displaystyle y'(\xi _{j})\to y'(t_{n})}
e
ϕ
f
(
y
′
(
t
)
,
y
″
(
t
)
,
…
)
=
ϕ
f
(
t
n
,
t
n
,
t
n
)
{\displaystyle \phi _{f}(y'(t),y''(t),\dots )=\phi _{f}(t_{n},t_{n},t_{n})}
Segue quindi che si ha consistenza se
∑
j
=
1
k
α
j
=
0
{\displaystyle \sum _{j=1}^{k}\alpha _{j}=0}
e se
∑
j
=
0
k
j
α
j
y
′
(
t
n
)
−
ϕ
f
=
0
{\displaystyle \sum _{j=0}^{k}j\alpha _{j}y'(t_{n})-\phi _{f}=0}
Nella pratica tenendo conto che
y
′
(
t
n
)
=
f
(
t
n
,
y
n
)
{\displaystyle y'(t_{n})=f(t_{n},y_{n})}
si impongono le condizioni di consistenza:
∑
j
α
j
=
0
{\displaystyle \sum _{j}\alpha _{j}=0}
∑
j
[
j
α
j
−
β
j
]
=
0
{\displaystyle \sum _{j}[j\alpha _{j}-\beta _{j}]=0}
∑
j
[
j
2
/
2
α
j
−
j
β
j
]
=
0
{\displaystyle \sum _{j}[j^{2}/2\alpha _{j}-j\beta _{j}]=0}
∑
j
[
j
3
/
6
α
j
−
j
2
/
2
β
j
]
=
0
…
{\displaystyle \sum _{j}[j^{3}/6\alpha _{j}-j^{2}/2\beta _{j}]=0\ldots }
Se ho convergenza, allora ho consistenza, ma non vale viceversa. Per avere convergenza, oltre alla consistenza dobbiamo richiedere la 0-stabilità.
Definizione
Consideriamo un problema di Cauchy perturbato
{
z
′
=
f
(
t
,
z
+
δ
(
t
)
)
z
(
t
0
)
=
z
0
+
δ
{\displaystyle {\begin{cases}z'=f(t,z+\delta (t))\\z(t_{0})=z_{0}+\delta \end{cases}}}
Si dice che il problema è ben posto o totalmente stabile se per qualunque coppia di perturbazioni
(
δ
(
t
)
,
δ
)
{\displaystyle (\delta (t),\delta )}
e
(
δ
∗
(
t
)
,
δ
∗
)
{\displaystyle (\delta ^{*}(t),\delta ^{*})}
tali che
|
δ
(
t
)
−
δ
∗
(
t
)
|
<
|
δ
−
δ
∗
|
{\displaystyle \vert \delta (t)-\delta ^{*}(t)\vert <\vert \delta -\delta ^{*}\vert }
segue che, posto
z
(
t
)
,
z
∗
(
t
)
{\displaystyle z(t),z^{*}(t)}
le soluzioni dei corrispondenti problemi di Cauchy, esiste una costante
s
{\displaystyle s}
positiva tale che per ogni
t
∈
I
0
{\displaystyle t\in I_{0}}
,
|
z
(
t
)
−
z
∗
(
t
)
|
≤
s
ε
{\displaystyle \vert z(t)-z^{*}(t)\vert \leq s\varepsilon }
Definizione corrispondente nel discreto : consideriamo un sistema di differenze perturbato.
{
z
n
+
1
=
z
n
+
h
ϕ
f
(
t
n
,
y
n
,
h
)
+
δ
n
+
1
)
z
0
=
y
0
+
δ
0
{\displaystyle {\begin{cases}z_{n+1}=z_{n}+h\phi _{f}(t_{n},y_{n},h)+\delta _{n+1})\\z_{0}=y_{0}+\delta _{0}\end{cases}}}
Il metodo è 0-stabile se, date le successioni delle perturbazioni
{
δ
n
}
n
=
0
N
{\displaystyle \{\delta _{n}\}_{n=0}^{N}}
, e
{
δ
n
∗
}
n
=
0
N
{\displaystyle \{\delta _{n}^{*}\}_{n=0}^{N}}
che corrispondono a soluzioni
z
n
{\displaystyle z_{n}}
per
n
=
0
,
…
,
N
{\displaystyle n=0,\dots ,N}
e
z
n
∗
{\displaystyle z_{n}^{*}}
per
n
=
0
,
…
,
N
{\displaystyle n=0,\dots ,N}
, se esiste una costante
s
{\displaystyle s}
positiva ed esiste
h
0
>
0
{\displaystyle h_{0}>0}
tale che scelto
0
<
H
<
H
0
{\displaystyle 0<H<H_{0}}
, segue che la norma della differenza tra le due soluzioni discrete è minore di
s
ε
{\displaystyle s\varepsilon }
, dove supponiamo che
|
δ
n
−
δ
n
∗
|
<
ε
{\displaystyle \vert \delta _{n}-\delta _{n}^{*}\vert <\varepsilon }
(la differenza rispetto alla definizione precedente è che deve esistere
H
0
{\displaystyle H_{0}}
tale per cui si abbia la conservazione dell'entità della perturbazione).
Questo esempio mostra che è necessario richiedere la stabilità.
Consideriamo il problema di Cauchy
{
y
′
=
0
y
(
t
0
)
=
0
{\displaystyle {\begin{cases}y'=0\\y(t_{0})=0\end{cases}}}
Applicando il metodo multipasso:
∑
j
=
0
k
α
j
y
n
+
j
=
0
{\displaystyle \sum _{j=0}^{k}\alpha _{j}y_{n+j}=0}
perché
f
{\displaystyle f}
(e quindi il secondo membro) è identicamente nullo.
(
y
1
,
…
,
y
k
−
1
)
{\displaystyle (y_{1},\dots ,y_{k-1})}
sono molto piccoli ma non esattamente nulli.
Questa è un'equazione alle differenze omogenea. Il polinomio
ρ
(
z
)
=
∑
j
=
0
k
α
j
z
j
{\displaystyle \rho (z)=\sum _{j=0}^{k}\alpha _{j}z^{j}}
ha radici
z
1
,
…
,
z
s
{\displaystyle z_{1},\dots ,z_{s}}
distinte rispettivamente con molteplicità
μ
1
,
…
,
μ
s
{\displaystyle \mu _{1},\dots ,\mu _{s}}
, allora la soluzione dell'equazione alle differenze è
y
n
=
∑
i
=
0
s
∑
j
=
0
μ
i
−
1
c
i
j
z
i
n
∗
n
j
{\displaystyle y_{n}=\sum _{i=0}^{s}\sum _{j=0}^{\mu _{i-1}}c_{ij}z_{i}^{n}*n^{j}}
(simile alla scrittura delle soluzioni nelle equazioni differenziali nel continuo).
Se
|
z
j
|
>
1
{\displaystyle |z_{j}|>1}
, il metodo diverge, e lo stesso avviene nel caso in cui il modulo di
z
{\displaystyle z}
è uguale a 1 e ha molteplicità maggiore di 1.
Definizione
Consideriamo
ρ
(
z
)
{\displaystyle \rho (z)}
e chiamiamo
z
i
{\displaystyle z_{i}}
le sue radici, per
i
=
1
,
…
,
k
{\displaystyle i=1,\dots ,k}
.
z
1
=
1
{\displaystyle z_{1}=1}
è detta
radice principale , e le altre radici
z
i
{\displaystyle z_{i}}
per
i
=
2
,
…
,
k
{\displaystyle i=2,\dots ,k}
sono le
radici spurie .
Definizione
Il metodo numerico
∑
j
α
j
y
n
+
j
=
h
∑
j
β
j
f
n
+
j
{\displaystyle \sum _{j}\alpha _{j}y_{n+j}=h\sum _{j}\beta _{j}f_{n+j}}
soddisfa la
root condition se tutte le radici
z
j
{\displaystyle z_{j}}
del polinomio caratteristico sono in modulo
≤
1
{\displaystyle \leq 1}
e quelle per cui vale che
|
z
p
|
=
1
{\displaystyle |z_{p}|=1}
hanno molteplicità algebrica 1.
Il metodo numerico
∑
j
=
0
s
α
j
y
n
+
j
=
h
∑
j
β
j
f
n
+
j
{\displaystyle \sum _{j=0}^{s}\alpha _{j}y_{n+j}=h\sum _{j}\beta _{j}f_{n+j}}
è 0-stabile se e solo se vale la root condition .
Il metodo
∑
j
=
0
s
α
j
y
n
+
j
=
h
∑
j
β
j
f
n
+
j
{\displaystyle \sum _{j=0}^{s}\alpha _{j}y_{n+j}=h\sum _{j}\beta _{j}f_{n+j}}
è convergente se e solo se è consistente e 0-stabile.
Nessun metodo lineare multipasso a
k
{\displaystyle k}
passi che sia 0-stabile può avere ordine di convergenza maggiore di
k
+
1
{\displaystyle k+1}
se
k
{\displaystyle k}
è dispari, e di
k
+
2
{\displaystyle k+2}
se
k
{\displaystyle k}
è pari.
Nei metodi di Adam-Bashword e Adam-Multonn il polinomio caratteristico è della forma
ρ
(
z
)
=
z
k
−
1
∗
(
z
−
1
)
{\displaystyle \rho (z)=z^{k-1}*(z-1)}
e
z
=
1
{\displaystyle z=1}
è la radice principale necessaria per la consistenza, e c'è poi la radice 0 con molteplicità
k
−
1
{\displaystyle k-1}
.
Nel Simpson generalizzato
ρ
(
z
)
=
z
k
−
z
k
−
2
=
z
k
−
2
∗
(
z
2
−
1
)
{\displaystyle \rho (z)=z^{k}-z^{k-2}=z^{k-2}*(z^{2}-1)}
dove le radici sono
z
1
=
1
,
z
2
=
−
1
{\displaystyle z_{1}=1,z_{2}=-1}
con molteplicità 1, e
z
=
0
{\displaystyle z=0}
con molteplicità
k
−
2
{\displaystyle k-2}
.
Le BDF hanno il secondo polinomio caratteristico definito come
σ
(
z
)
=
β
k
∗
z
k
{\displaystyle \sigma (z)=\beta ^{k}*z^{k}}
I metodi di Adam-Bashword derivano da formule di quadratura. Consideriamo l'equazione integrale
y
(
t
n
+
1
)
−
y
(
t
n
)
=
∫
t
n
t
n
+
1
f
(
t
,
y
(
t
)
)
d
t
{\displaystyle y(t_{n+1})-y(t_{n})=\int _{t_{n}}^{t_{n+1}}f(t,y(t))\,dt}
Consideriamo il polinomio interpolante
f
{\displaystyle f}
con nodi equispaziati: in particolare, per i metodi espliciti consideriamo il polinomio interpolante di grado
p
{\displaystyle p}
nei nodi
(
t
n
,
…
,
t
n
−
p
)
{\displaystyle (t_{n},\dots ,t_{n-p})}
, per gli Adam-Multonn consideriamo il polinomio di grado
p
+
1
{\displaystyle p+1}
nei nodi
t
n
+
1
,
…
t
n
−
p
{\displaystyle t_{n+1},\dots t_{n-p}}
e otteniamo la formula
y
n
+
1
=
y
n
+
h
∑
j
=
−
1
p
β
j
f
n
−
j
{\displaystyle y_{n+1}=y_{n}+h\sum _{j=-1}^{p}\beta _{j}f_{n-j}}
Se
β
−
1
=
0
{\displaystyle \beta _{-1}=0}
il metodo è esplicito, altrimenti è implicito.
Metodi di Adam-Bashword:
y
n
+
1
=
y
n
+
h
f
n
1 nodo, Eulero esplicito
{\displaystyle {\hbox{Metodi di Adam-Bashword:}}\,y_{n+1}=y_{n}+hf_{n}\quad {\hbox{1 nodo, Eulero esplicito}}}
y
n
+
1
=
y
n
+
h
/
2
(
3
f
n
−
f
n
−
1
)
2 nodi, trapezi esplicito
{\displaystyle y_{n+1}=y_{n}+h/2(3f_{n}-f_{n-1})\quad {\hbox{2 nodi, trapezi esplicito}}}
y
n
+
1
=
y
n
+
h
/
12
(
23
f
n
−
16
f
n
−
1
+
5
f
n
−
2
)
3 nodi
{\displaystyle y_{n+1}=y_{n}+h/12(23f_{n}-16f_{n-1}+5f_{n-2})\quad {\hbox{3 nodi}}}
Adam-Multon
y
n
+
1
=
y
n
+
h
f
n
+
1
1 nodo, Eulero implicito
{\displaystyle y_{n+1}=y_{n}+hf_{n+1}\quad {\hbox{1 nodo, Eulero implicito}}}
y
n
+
1
=
y
n
+
h
/
2
(
f
n
+
1
+
f
n
)
2 nodi, trapezi implicito
{\displaystyle y_{n+1}=y_{n}+h/2(f_{n+1}+f_{n})\quad {\hbox{2 nodi, trapezi implicito}}}
y
n
+
1
=
y
n
+
h
/
12
(
5
f
n
+
1
+
8
f
n
−
f
n
−
1
)
3 nodi
{\displaystyle y_{n+1}=y_{n}+h/12(5f_{n+1}+8f_{n}-f_{n-1})\quad {\hbox{3 nodi}}}
In conclusione vale il seguente teorema.
I metodi espliciti di Adam-Bashword hanno ordine
q
{\displaystyle q}
mentre quelli di Adam-Multonn hanno ordine
p
=
q
+
1
<
m
a
t
h
>
a
e
c
c
e
z
i
o
n
e
d
e
l
l
′
E
u
l
e
r
o
p
e
r
c
u
i
<
m
a
t
h
>
q
=
1
{\displaystyle p=q+1<math>aeccezionedell'Euleropercui<math>q=1}
e
p
=
1
{\displaystyle p=1}
./
Consideriamo un metodo multipasso implicito, da risolvere con un metodo di punto fisso. Poniamo
z
=
y
n
+
1
{\displaystyle z=y_{n+1}}
e consideriamo la relazione
z
=
y
n
+
h
β
−
1
f
(
t
n
+
1
,
z
)
+
h
∑
j
=
0
p
β
j
f
n
−
j
{\displaystyle z=y_{n}+h\beta _{-1}f(t_{n+1},z)+h\sum _{j=0}^{p}\beta _{j}f_{n-j}}
dove il secondo addendo è noto e ne conosciamo tutte le quantità.
z
k
+
1
=
g
(
z
k
)
{\displaystyle z_{k+1}=g(z_{k})}
con
g
=
y
n
+
h
β
−
1
f
(
t
n
+
1
,
z
)
+
h
∑
j
=
0
p
β
j
f
n
−
j
{\displaystyle g=y_{n}+h\beta _{-1}f(t_{n+1},z)+h\sum _{j=0}^{p}\beta _{j}f_{n-j}}
, e si dà come innesco
y
n
{\displaystyle y_{n}}
soluzione all'istante precedente. Si impone
g
′
<
1
{\displaystyle g'<1}
quindi
|
g
′
(
z
)
|
=
h
β
−
1
∗
|
∂
f
∂
z
|
≤
h
β
−
1
L
{\displaystyle |g'(z)|=h\beta _{-1}*|{\frac {\partial f}{\partial z}}|\leq h\beta _{-1}L}
e supponendo di avere le condizioni del teorema di esistenza e unicità
h
β
−
1
L
<
1
{\displaystyle h\beta _{-1}L<1}
cioè sul passo
h
{\displaystyle h}
otteniamo la condizione
h
<
|
β
−
1
|
∗
L
{\displaystyle h<|\beta _{-1}|*L}
e la costante di Lipschitz condiziona la convergenza del metodo di punto fisso.
Il metodo è costoso, perché a ogni iterazione del metodo di punto fisso si richiede una valutazione della funzione
f
{\displaystyle f}
. Più l'innesco fornito è buono, più velocemente viene soddisfatto il criterio d'arresto, e meno oneroso è il metodo dal punto di vista computazionale.
Il metodo predictor-corrector consiste dei seguenti passi:
1. predictor (
P
{\displaystyle {\mathcal {P}}}
):
y
n
+
1
(
x
0
)
{\displaystyle y_{n+1}(x_{0})}
è ottenuto applicando uno schema multipasso esplicito, cioè
y
n
+
1
(
0
)
=
y
n
+
h
∑
j
=
0
p
¯
β
j
f
n
−
j
{\displaystyle y_{n+1}(0)=y_{n}+h\sum _{j=0}^{\bar {p}}\beta _{j}f_{n-j}}
2. evaluation (
E
{\displaystyle {\mathcal {E}}}
):
f
n
+
1
=
f
(
t
n
+
1
,
y
n
1
+
(
0
)
)
{\displaystyle f_{n+1}=f(t_{n+1},y_{n1+}(0))}
(ora un'espressione approssimativa di
f
n
+
1
{\displaystyle f_{n+1}}
è nota)
3. corrector (
C
{\displaystyle {\mathcal {C}}}
):
y
n
+
1
=
y
n
+
h
β
−
1
f
n
+
1
+
h
∑
j
=
0
p
β
j
f
n
−
j
{\displaystyle y_{n+1}=y_{n}+h\beta _{-1}f_{n+1}+h\sum _{j=0}^{p}\beta _{j}f_{n-j}}
I passi
E
,
C
{\displaystyle {\mathcal {E}},{\mathcal {C}}}
possono essere iterati nel seguente modo:
E
f
n
+
1
(
k
)
=
f
(
t
n
+
1
,
y
n
+
1
(
k
)
)
{\displaystyle {\mathcal {E}}\,f_{n+1}(k)=f(t_{n+1},y_{n+1}(k))}
C
y
n
+
1
(
k
)
=
y
n
+
h
β
−
1
f
n
+
1
(
k
)
{\displaystyle {\mathcal {C}}\,y_{n+1}(k)=y_{n}+h\beta _{-1}f_{n+1}(k)}
dove
f
n
+
1
(
k
)
{\displaystyle f_{n+1}(k)}
è stato calcolato prima.
Si può quindi considerare anche il metodo:
P
(
E
C
)
m
{\displaystyle {\mathcal {P}}({\mathcal {E}}{\mathcal {C}})m}
in cui valutazione e correzione vengono alternate
m
{\displaystyle m}
volte.
Il passo finale è
f
n
+
1
m
=
f
(
t
n
+
1
,
y
n
+
1
m
)
{\displaystyle f_{n+1}^{m}=f(t_{n+1},y_{n+1}^{m})}
cioè il metodo si prepara per un'eventuale iterazione. Se
P
{\displaystyle {\mathcal {P}}}
ha ordine
p
−
1
{\displaystyle p-1}
i dati di innesco aggiuntivi sono calcolabili con un errore di ordine di
o
(
h
p
)
{\displaystyle o(h^{p})}
e se il corrector è di ordine
p
{\displaystyle p}
, allora
(
P
C
)
{\displaystyle ({\mathcal {P}}{\mathcal {C}})}
ha ordine
p
{\displaystyle p}
.
Usiamo come predictor l'Eulero esplicito
y
n
+
1
(
0
)
=
y
n
+
h
f
n
{\displaystyle y_{n+1}(0)=y_{n}+hf_{n}}
e come corrector il metodo dei trapezi:
y
n
+
1
=
y
n
+
h
/
2
(
f
n
+
f
(
t
n
+
1
,
y
n
+
1
(
0
)
)
)
{\displaystyle y_{n+1}=y_{n}+h/2(f_{n}+f(t_{n+1},y_{n+1}(0)))}
Questo metodo può anche essere considerato come metodo a un passo.