Limiti di Successioni

Le successioni numeriche e i limiti di successioni sono concetti fondamentali in analisi matematica. Comprendere il comportamento di una successione quando \(n \to \pm \infty \) è cruciale per determinare se una successione \( a_n \)​ è convergente, divergente o irregolare.



Successione Convergente

Una successione \( a_n \)​ si dice convergente a \( L \) se il valore assoluto della differenza tra \( a_n \) e \( L \) può essere reso arbitrariamente piccolo per \( n \) sufficientemente grande.

In altri termini, diremo che \( a_n \) tende a \( L \) per \( n \to \infty \) se per ogni \( \varepsilon > 0 \), esiste un \( n_{\varepsilon} \in \mathbb{N} \) tale che per tutti gli \( n \geq n_{\varepsilon} \), il valore assoluto \(| a_n - L | \) è minore di \( \varepsilon \). Più formalmente:

\[ \lim_{n \to \infty} a_n = L \iff \forall \varepsilon > 0 \,\, \exists n_{\varepsilon} \in \mathbb{N} \, : \,  |a_n - L| < \varepsilon  \quad \forall n \geq n_{\varepsilon} \]

Esempio: Consideriamo la successione \( a_n = \displaystyle \frac{1}{n} \). Dimostriamo che \( \displaystyle \lim_{n \to \infty} a_n = 0 \).

Per dimostrare la convergenza, usiamo la definizione di limite. Dobbiamo verificare che per ogni \( \varepsilon > 0 \), esiste un \( n_{\varepsilon} \in \mathbb{N} \) tale che per tutti gli \( n \geq n_{\varepsilon} \) si abbia:

\[ |a_n - 0| = \left| \frac{1}{n} \right| < \varepsilon \]

Da questa disequazione otteniamo:

\[ \frac{1}{n} < \varepsilon \implies n > \frac{1}{\varepsilon} \]

Quindi, scegliamo \( n_{\varepsilon} = \left\lceil \frac{1}{\varepsilon} \right\rceil \) (parte intera superiore). Per ogni \( n \geq n_{\varepsilon} \), si ha:

\[ \left| \frac{1}{n} \right| < \varepsilon \]

Questo dimostra che:

\[ \lim_{n \to \infty} a_n = 0 \]

La dimostrazione segue direttamente dalla definizione formale di limite e mostra come applicare correttamente il concetto di convergenza. Questo approccio sarà in seguito fondamentale per dimostrare la convergenza di successioni più complesse.

Successione Divergente a \(+\infty\)

Una successione \( a_n \) si dice divergente a \(+\infty\) se i suoi termini possono essere resi arbitrariamente grandi per \( n \) sufficientemente grande.

In altri termini, diremo che \( a_n \) tende a \(+\infty\) per \( n \to \infty \) se per ogni \( M > 0 \), esiste un \( n_{M} \in \mathbb{N} \) tale che per tutti gli \( n \geq n_{M} \), si ha \( a_n > M \). Più formalmente:

\[ \lim_{n \to \infty} a_n = +\infty \iff \forall M > 0 \,\, \exists n_{M} \in \mathbb{N} \, : \, a_n > M \quad \forall n \geq n_{M} \]

Esempio. Consideriamo la successione \(a_n = 2n\). Per dimostrare che diverge a \(+\infty\), prendiamo un numero arbitrario \(M > 0\). Dobbiamo trovare un indice \(n_M\) tale che per ogni \(n > n_M\), si abbia \(a_n > M\).

Prendiamo \(n_M = \left\lceil\frac{M}{2}\right\rceil\). Se \(n > n_M\), allora:

\[a_n = 2n > 2\left(\frac{M}{2}\right) = M\]

Quindi abbiamo dimostrato che per ogni \(M > 0\), esiste \(n_M = \left\lceil\frac{M}{2}\right\rceil\) tale che \(a_n > M\) per ogni \(n > n_M\).

Successione Divergente a \(-\infty\)

Una successione \( a_n \) si dice divergente a \(-\infty\) se i suoi termini possono essere resi arbitrariamente piccoli (negativi) per \( n \) sufficientemente grande.

In altri termini, diremo che \( a_n \) tende a \(-\infty\) per \( n \to \infty \) se per ogni \( M > 0 \), esiste un \( n_{M} \in \mathbb{N} \) tale che per tutti gli \( n \geq n_{M} \), si ha \( a_n < -M \). Più formalmente:

\[ \lim_{n \to \infty} a_n = -\infty \iff \forall M > 0 \,\, \exists n_{M} \in \mathbb{N} \, : \, a_n < -M \quad \forall n \geq n_{M} \]

Esempio. Consideriamo la successione \(b_n = -3n\).

Per dimostrare che diverge a \(-\infty\), prendiamo un numero arbitrario \(M > 0\). Dobbiamo trovare un indice \(n_M\) tale che per ogni \(n > n_M\), si abbia \(b_n < -M\).

Ora, prendiamo \(n_M = \left\lceil\frac{M}{3}\right\rceil\). Se \(n > n_M\), allora:

\[b_n = -3n < -3\left(\frac{M}{3}\right) = -M\]

Quindi abbiamo dimostrato che per ogni \(M > 0\), esiste \(n_M = \left\lceil\frac{M}{3}\right\rceil\) tale che \(b_n < -M\) per ogni \(n > n_M\).

Successione Irregolare

Una successione \( a_n \) si dice irregolare se non è né convergente né divergente a \(+\infty\) o \(-\infty\).

Esempio. Consideriamo la successione:

\[a_n = (-1)^n, \quad n \in \mathbb{N}\]

Questa successione non è né convergente né divergente. Osserviamo che è limitata poiché:

\[-1 \leq (-1)^n \leq 1, \quad \forall n \in \mathbb{N}\]

Ora, supponiamo per assurdo che converga a un limite \( L \):

\[\lim_{n \to \infty} (-1)^n = L \]

Allora varrebbe anche:

\[\lim_{n \to \infty} (-1)^{2n} = L \]

Ma \((-1)^{2n} = 1\) per ogni \(n\), quindi \( L = 1\).

Per definizione di limite, dovrebbe esistere \(n_\varepsilon\) tale che:

\[\forall \varepsilon > 0 \,\, \exists n_\varepsilon \in \mathbb{N}: |(-1)^n - 1| < \varepsilon, \quad \forall n > n_\varepsilon\]

Tuttavia, per \(n\) dispari maggiore di \(n_\varepsilon\):

\[|(-1)^n - 1| = |-1 - 1| = 2\]

Questo è impossibile per \(\varepsilon\) arbitrariamente piccolo, quindi la successione non può convergere. Non è neanche divergente perché è limitata.