3  Resultados técnicos fundamentales

En esta sección se presentan con detalle los resultados clave que sustentan la demostración del Teorema de Isometría de Itô para la parte de saltos. Se asume que \((\Omega, \mathcal{F}, \{\mathcal{F}_t\}_{t\geq0}, \mathbb{P})\) es un espacio de probabilidad filtrado que satisface las condiciones usuales, \(Z\) es un espacio métrico separable completo, y \(\nu\) es una medida \(\sigma\)-finita sobre \((Z, \mathcal{B}(Z))\). Sea \(\widetilde{N}(ds,dz) = N(ds,dz) - \nu(dz)ds\) la medida aleatoria compensada asociada a una medida de Poisson.

Teorema 3.1 Para cualesquier \(x_1, x_2, \ldots, x_n \in \mathbb{R}\), se cumple:

\[\left(\sum_{i=1}^n x_i\right)^2 \leq n \sum_{i=1}^n x_i^2.\]

Demostración. Aplicando la desigualdad de Cauchy-Schwarz a los vectores \(\mathbf{x} = (x_1, \ldots, x_n)\) y \(\mathbf{1} = (1, \ldots, 1)\) en \(\mathbb{R}^n\) se tiene:

\[\left(\sum_{i=1}^n x_i \cdot 1\right)^2 \leq \left(\sum_{i=1}^n x_i^2\right)\left(\sum_{i=1}^n 1^2\right) = \left(\sum_{i=1}^n x_i^2\right) \cdot n.\]

Alternativamente, usando la desigualdad de Jensen con \(\phi(x) = x^2\) (convexa) se da:

\[\left(\frac{1}{n}\sum_{i=1}^n x_i\right)^2 \leq \frac{1}{n}\sum_{i=1}^n x_i^2 \implies \left(\sum_{i=1}^n x_i\right)^2 \leq n \sum_{i=1}^n x_i^2. \quad \square\]

Observación 1.1.6. Esta desigualdad es un caso particular de la desigualdad de Cauchy-Schwarz general en espacios de Hilbert. Para \(X, Y \in L^2(\Omega)\):

\[|\mathbb{E}[XY]|^2 \leq \mathbb{E}[X^2]\mathbb{E}[Y^2].\]

Teorema 3.2 Para cualesquier \(a, b \in \mathbb{R}\), se cumple:

\[2ab \leq a^2 + b^2.\]

La igualdad se alcanza si y solo si \(a = b\).

Demostración. Por la desigualdad aritmético-geométrica para números no negativos:

\[\sqrt{a^2 b^2} \leq \frac{a^2 + b^2}{2} \implies |ab| \leq \frac{a^2 + b^2}{2} \implies 2ab \leq a^2 + b^2. \quad \square\]

Lema 3.1 (Fatou). Sea \(\{f_n\}_{n \in \mathbb{N}}\) una sucesión de funciones medibles no negativas. Entonces:

\[\liminf_{n \to \infty} \int_X f_n \, d\mu \geq \int_X \liminf_{n \to \infty} f_n \, d\mu.\]

Demostración. Ver demostración completa Applebaum (2009) Corolario 1.1.2.

Teorema 3.3 (Convergencia Monotona). Sea \(\{f_n\}_{n \in \mathbb{N}}\) una sucesión de funciones medibles no negativas tales que \(0 \leq f_1 \leq f_2 \leq \cdots\) y \(f_n \to f\) puntualmente. Entonces:

\[\lim_{n \to \infty} \int_X f_n \, d\mu = \int_X f \, d\mu.\]

Demostración. Ver demostración completa Applebaum (2009) Teorema 1.1.1

Teorema 3.4 (Convergencia Dominada). Sea \((X, \mathcal{A}, \mu)\) un espacio de medida y \(\{f_n\}_{n\in\mathbb{N}}\) una sucesión de funciones \(\mu\)-medibles \(f_n : X \to \mathbb{R}\). Supongamos que:

  1. \(f_n(x) \to f(x)\) \(\mu -\text{casi en todas partes,}\)

  2. existe una función \(g \in L^1(X, \mathcal{A}, \mu)\) tal que \(|f_n(x)| \leq g(x)\) para \(\mu\)-casi todo \(x \in X\) y todo \(n \in \mathbb{N}.\)

Entonces \(f \in L^1(\mu)\) y

\[\lim_{n \to \infty} \int_X f_n \, d\mu = \int_X f \, d\mu.\]

Demostración. Ver demostración completa Teorema 1.34 (Rudin 1987) La idea central consiste en aplicar el Lema de Fatou a la sucesión \(2g - |f_n - f| \geq 0\).

Teorema 3.5 Sea \((X, \mathcal{A}, \mu)\) un espacio de medida \(\sigma\)-finito. Entonces, el conjunto de funciones simples integrables es denso en \(L^2(X, \mathcal{A}, \mu)\). Es decir, para toda \(f \in L^2(\mu)\) existe una sucesión de funciones simples \(\{\phi_n\}\) tal que \(\|\phi_n - f\|_{L^2(\mu)} \to 0.\)

Demostración. Sea \(f \in L^2(\mu)\). Como \(f\) es medible, existen funciones simples \(\psi_n\) tales que \(\psi_n \to f\) puntualmente y \(|\psi_n| \leq |f|\) para todo \(n\) (ver (Folland 1999), Prop. 2.20). Entonces,

\[|\psi_n - f|^2 \leq 4|f|^2 \in L^1(\mu).\]

Por el Teorema 3.4,

\[\int_X |\psi_n - f|^2 \, d\mu \to 0.\]

Luego, \(\|\psi_n - f\|_{L^2(\mu)} \to 0\). Además, al truncar \(\psi_n\) en conjuntos de medida finita (posible por ser \(\mu\) \(\sigma\)-finita), podemos asumir que cada \(\psi_n\) es integrable.

En el contexto estocástico, aplicamos este resultado al espacio de medida \[(\Omega \times [0,T] \times Z, \; \mathcal{P} \otimes \mathcal{B}(Z), \; \mathbb{P} \otimes ds \otimes \nu),\] que es \(\sigma\)-finito si \(\nu\) lo es. Esto garantiza que cualquier proceso predecible cuadrado integrable puede aproximarse en \(L^2\) por procesos simples.

Teorema 3.6 El conjunto \(\mathcal{E}\) de procesos elementales simples predecibles es denso en el espacio de Hilbert

\[L^2_{\text{pred}}(\widetilde{N}) := \left\{ R : \mathbb{E}\!\left[ \int_0^T \int_Z R(s,z)^2 \, \nu(dz) ds \right] < \infty \right\}\] dotado de la norma \[\|R\| := \left( \mathbb{E}\!\left[ \int_0^T \int_Z R(s,z)^2 \, \nu(dz) ds \right] \right)^{1/2}.\]

Demostración. Sea \(R \in L^2_{\text{pred}}(\widetilde{N})\). Por el resultado anterior, existe una sucesión de funciones simples \(\phi_n\) (no necesariamente predecibles) tal que \(\|\phi_n - R\| \to 0\). Cada \(\phi_n\) es \(\mathcal{F} \otimes \mathcal{B}([0,T]) \otimes \mathcal{B}(Z)\)-medible. Dado que la \(\sigma\)-álgebra predecible \(\mathcal{P}\) es generada por procesos adaptados y càglàd, y la filtración satisface las condiciones usuales, el espacio \(L^2(\mathcal{P} \otimes \mathcal{B}(Z))\) es un subespacio cerrado de \(L^2(\mathcal{F} \otimes \mathcal{B}([0,T]) \otimes \mathcal{B}(Z))\). Existe, por tanto, una proyección ortogonal de \(\phi_n\) sobre este subespacio, sin embargo, basta observar que cualquier función simple puede aproximarse por funciones simples \(\mathcal{P} \otimes \mathcal{B}(Z)\)-medibles (Applebaum 2009) Más explícitamente, uno puede refinar la partición de \([0,T]\) y usar funciones constantes en intervalos \((t_{i-1}, t_i]\) con coeficientes \(\mathcal{F}_{t_{i-1}}\)-medibles. Esto define una sucesión \(\{R_n\} \subset \mathcal{E}\) tal que \(\|R_n - R\| \to 0\).

Teorema 3.7 Sea \(H\) un espacio de Hilbert y \(\{x_n\} \subset H\) una sucesión tal que \(x_n \to x\) en norma. Entonces \(\|x_n\| \to \|x\|\)

Demostración. Por la desigualdad triangular inversa, \[\big| \|x_n\| - \|x\| \big| \leq \|x_n - x\| \to 0.\]

Teorema 3.8 Sean \(A, B \in \mathcal{B}([0,T]) \otimes \mathcal{B}(Z)\) con \(A \cap B = \emptyset\). Entonces \[\mathbb{E}\big[ \widetilde{N}(A) \, \widetilde{N}(B) \big] = 0.\]

Demostración. Por definición de la medida compensada, \[\widetilde{N}(A) = N(A) - \mu(A), \quad \widetilde{N}(B) = N(B) - \mu(B),\] donde \(\mu = ds \otimes \nu\). Como \(A \cap B = \emptyset\), los incrementos \(N(A)\) y \(N(B)\) son independientes (propiedad de la medida de Poisson). Luego, \[\mathbb{E}[N(A) N(B)] = \mathbb{E}[N(A)] \, \mathbb{E}[N(B)] = \mu(A) \mu(B).\] Por lo tanto, \[\mathbb{E}[\widetilde{N}(A) \widetilde{N}(B)] = \mathbb{E}[N(A)N(B)] - \mu(A)\mu(B) - \mu(B)\mathbb{E}[N(A)] + \mu(A)\mu(B) = 0.\]

Teorema 3.9 Sea \(f : \Omega \times [0,T] \times Z \to \mathbb{R}\) una función \(\mathbb{P} \otimes ds \otimes \nu\)-medible. Si \(f \geq 0\) ,o \(\mathbb{E}\!\left[ \int_0^T \int_Z |f(\omega,s,z)| \, \nu(dz) ds \right] < \infty\), entonces \[\mathbb{E}\!\left[ \int_0^T \int_Z f(\omega,s,z) \, \nu(dz) ds \right] = \int_0^T \int_Z \mathbb{E}[f(\cdot,s,z)] \, \nu(dz) ds.\]

Demostración. Es una consecuencia directa del Teorema de Fubini para espacios de medida producto. Como \(\mathbb{P}, \ ds\) y \(\nu\) son \(\sigma\)-finitas, la medida producto \(\mathbb{P} \otimes ds \otimes \nu\) es \(\sigma\)-finita, y el resultado se aplica.

En la Isometría de Itô, el Teorema 3.9 permite escribir \[\mathbb{E}\left[ \int_0^t \int_Z R(s,z)^2 \, \nu(dz) ds \right] = \int_0^t \int_Z \mathbb{E}[R(s,z)^2] \, \nu(dz) ds,\] lo cual facilita el análisis y la comparación con la varianza de la integral estocástica. También justifica que la norma en \(L^2_{\text{pred}}(\widetilde{N})\) está bien definida.

3.1 Procesos Estocásticos, Martingalas y Principales resultados de Cálculo de Itô.

3.1.1 Desigualdades básicas.

Teorema 3.10 Sean \(X, Y \in L^2(\Omega, \mathcal{F}, \mathbb{P})\). Entonces \[\bigl| \mathbb{E}[XY] \bigr|^2 \leq \mathbb{E}[X^2] \, \mathbb{E}[Y^2].\] Además, la igualdad se da si y solo si existen \(a, b \in \mathbb{R}\), no ambos nulos, tales que \[\mathbb{P}(aX = bY) = 1.\]

Demostración. Observemos que si \(\mathbb{E}[Y^2] = 0\), entonces \(Y = 0\) casi seguramente (c.s.), y ambas partes de la desigualdad son cero. Lo mismo ocurre si \(\mathbb{E}[X^2] = 0\). Por lo tanto, nos resta probar que \[\mathbb{E}[X^2] > 0 \quad \text{y} \quad \mathbb{E}[Y^2] > 0\] Para cualquier \(\lambda \in \mathbb{R}\), consideremos la variable aleatoria \(X - \lambda Y\). Como \((X - \lambda Y)^2 \geq 0\) c.s., se tiene \[\mathbb{E}[(X - \lambda Y)^2] \geq 0\] Expandiendo la expresión: \[\mathbb{E}[(X - \lambda Y)^2] = \mathbb{E}[X^2] - 2\lambda \mathbb{E}[XY] + \lambda^2 \mathbb{E}[Y^2].\] Definimos la función cuadrática \[f(\lambda) := \mathbb{E}[Y^2]\,\lambda^2 - 2\mathbb{E}[XY]\,\lambda + \mathbb{E}[X^2].\] Entonces \(f(\lambda) \geq 0\) para todo \(\lambda \in \mathbb{R}\). Dado que \(\mathbb{E}[Y^2] > 0\), el coeficiente principal es positivo. Un polinomio cuadrático \(a\lambda^2 + b\lambda + c\) con \(a > 0\) es no negativo en todo \(\mathbb{R}\) si y solo si su discriminante es no positivo: \[\Delta = b^2 - 4ac \leq 0.\] Aplicando esto con \(a = \mathbb{E}[Y^2]\), \(b = -2\mathbb{E}[XY]\), \(c = \mathbb{E}[X^2]\), obtenemos: \[(-2\mathbb{E}[XY])^2 - 4\,\mathbb{E}[Y^2]\,\mathbb{E}[X^2] \leq 0 \quad \Longrightarrow \quad 4\,\mathbb{E}[XY]^2 \leq 4\,\mathbb{E}[X^2]\,\mathbb{E}[Y^2]\] Dividiendo por \(4\) y tomando valor absoluto (pues \(\mathbb{E}[XY]\) puede ser negativo), concluimos: \[\bigl| \mathbb{E}[XY] \bigr|^2 \leq \mathbb{E}[X^2] \, \mathbb{E}[Y^2].\] Ahora analizamos cuándo se cumple \[\bigl| \mathbb{E}[XY] \bigr|^2 = \mathbb{E}[X^2] \, \mathbb{E}[Y^2].\] Esto equivale a que el discriminante sea exactamente cero, es decir, \(\Delta = 0\). En tal caso, el polinomio \(f(\lambda)\) tiene una raíz doble; es decir, existe tal que \(\lambda_0 \in \mathbb{R}\) \[f(\lambda_0) = \mathbb{E}[(X - \lambda_0 Y)^2] = 0.\] Pero \(\mathbb{E}[Z^2] = 0\) implica \(Z = 0\) c.s. Por lo tanto, \[ X - \lambda_0 Y = 0 \quad \text{c.s.} \quad \Longrightarrow \quad \mathbb{P}(X = \lambda_0 Y) = 1.\] Esto muestra que existen constantes \(a = 1\), \(b = \lambda_0\) (no ambos nulos) tales que \(\mathbb{P}(aX = bY) = 1\). Si en cambio \(Y = 0\) c.s., tomamos \(a = 0\), \(b = 1\), y claramente \(\mathbb{P}(0 \cdot X = 1 \cdot Y) = 1\).

Recíprocamente, supongamos que existen \(a, b \in \mathbb{R}\), no ambos nulos, tales que \(\mathbb{P}(aX = bY) = 1.\) Si \(a \neq 0\), entonces \(X = \frac{b}{a} Y\) c.s., y entonces \[\mathbb{E}[XY] = \frac{b}{a} \mathbb{E}[Y^2], \qquad \mathbb{E}[X^2] = \left( \frac{b}{a} \right)^2 \mathbb{E}[Y^2],\] de donde \[\mathbb{E}[X^2] \mathbb{E}[Y^2] = \left( \frac{b}{a} \right)^2 \mathbb{E}[Y^2]^2 = \bigl( \mathbb{E}[XY] \bigr)^2\] Si \(b \neq 0\), entonces \(Y = \frac{a}{b} X\) c.s., y un cálculo análogo lleva a la misma conclusión. En ambos casos, se tiene igualdad en la desigualdad de Cauchy–Schwarz.

3.2 Integral de Itô.

3.2.1 Marco probabilístico y espacios funcionales

Sea \((\Omega, \mathcal{F}, \mathbb{P})\) un espacio de probabilidad completo y \(\{B_t\}_{t \geq 0}\) un movimiento Browniano estándar unidimensional, adaptado a su filtración natural aumentada \(\{\mathcal{F}_t\}_{t \geq 0}\), la cual satisface las hipótesis usuales (completitud y continuidad por la derecha). Fijamos un horizonte de tiempo \(T > 0\) y consideramos procesos estocásticos \(\{X_t\}_{0 \leq t \leq T}\) tales que la función \((\omega, t) \mapsto X_t(\omega)\) es \(\mathcal{F} \otimes \mathcal{B}([0,T])\)-medible y adaptada, es decir, \(X_t\) es \(\mathcal{F}_t\)-medible para todo \(t \in [0,T]\).

3.2.2 Espacios funcionales relevantes de procesos estocásticos

El espacio \(L^2(\mathbb{P})\) consiste en las variables aleatorias \(X : \Omega \to \mathbb{R}\) tales que \[\|X\|_{L^2(\mathbb{P})} := \bigl( \mathbb{E}[X^2] \bigr)^{1/2} < \infty.\] El espacio \(L^2(\Omega \times [0,T], \mathcal{F} \otimes \mathcal{B}([0,T]), \mathbb{P} \otimes \lambda)\) (abreviado como \(L^2(\mathbb{P} \otimes \lambda)\)) es el espacio de Hilbert de todos los procesos estocásticos \(X = \{X_t\}_{0 \leq t \leq T}\), vistos como funciones medibles \[X : (\Omega \times [0,T]) \to \mathbb{R}, \quad (\omega, t) \mapsto X_t(\omega),\] que satisfacen \[\|X\|_{L^2(\mathbb{P} \otimes \lambda)} := \left( \int_0^T \int_\Omega |X_t(\omega)|^2 \, d\mathbb{P}(\omega)\, dt \right)^{1/2} = \left( \mathbb{E} \left[ \int_0^T X_t^2 \, dt \right] \right)^{1/2} < \infty.\] El espacio \(\mathcal{H}^2\) se define como el subconjunto cerrado de \(L^2(\mathbb{P} \otimes \lambda)\) constituido por aquellos procesos que son adaptados a la filtración \(\{\mathcal{F}_t\}_{0 \leq t \leq T}\), es decir, \[\mathcal{H}^2 := \left\{ X \in L^2(\mathbb{P} \otimes \lambda) \;\middle|\; X_t \text{ es } \mathcal{F}_t\text{-medible para todo } t \in [0,T] \right\}.\] Dotado de la misma norma que \(L^2(\mathbb{P} \otimes \lambda)\), el espacio \(\mathcal{H}^2\) es un subespacio de Hilbert cerrado, y por lo tanto completo. La notación \(L^2(\mathbb{P} \otimes dt)\) o \(L^2(\mathbb{P} \times dt)\) es una abreviatura habitual, pero lo adecuado es referirse a la medida de Lebesgue o \(\lambda\) o simplemente escribir \(d t\) dentro de la integral cuando ya se ha especificado el espacio de medida.

3.2.3 Procesos simples y definición inicial de la integral

Definición 3.1 Sea \(0 = t_0 < t_1 < \cdots < t_n = T\) una partición finita de \([0,T]\). Un proceso simple es un proceso de la forma \[X_t(\omega) = \sum_{k=0}^{n-1} X^{(k)}(\omega) \, \mathbf{1}_{[t_k, t_{k+1})}(t),\] donde cada \(X^{(k)}\) es una variable aleatoria \(\mathcal{F}_{t_k}\)-medible y cuadrado integrable.

Denotaremos por \(\mathcal{H}_{\text{simple}}\) al espacio de todos los procesos simples

Definición 3.2 Sea \(X\) un proceso simple. La integral estocástica de Itô de \(X\) respecto a \(\{B_t\}\) se define como \[\int_0^T X_s \, dB_s := \sum_{k=0}^{n-1} X^{(k)} \bigl( B_{t_{k+1}} - B_{t_k} \bigr).\]

Teorema 3.11 Para todo \(X \in \mathcal{H}_{\text{simple}}\) se cumple \[\mathbb{E} \left[ \left( \int_0^T X_s \, dB_s \right)^2 \right] = \mathbb{E} \left[ \int_0^T X_s^2 \, ds \right].\]

3.2.4 Extensión a \(\mathcal{H}^2\) por densidad.

Dado que \(\mathcal{H}_{\text{simple}}\) es denso en \(\mathcal{H}^2\), para cualquier \(X \in \mathcal{H}^2\) existe una sucesión \(\{X^{(n)}\} \subset \mathcal{H}_{\text{simple}}\) tal que \[\|X^{(n)} - X\|_{L^2(\mathbb{P} \times dt)} \xrightarrow[n \to \infty]{} 0.\] La Isometría de Itô implica que \(\{I(X^{(n)})\}\) es una sucesión de Cauchy en \(L^2(\mathbb{P})\), y por la completitud de este espacio, converge en media cuadrática.

Definición 3.3 Sea \(X \in \mathcal{H}^2\) y \(\{X^{(n)}\} \subset \mathcal{H}_{\text{simple}}\) tal que \(X^{(n)} \to X\) en \(L^2(\mathbb{P} \times dt)\). Se define \[\int_0^T X_s \, dB_s := \lim_{n \to \infty} \int_0^T X^{(n)}_s \, dB_s,\] donde el límite se entiende en \(L^2(\mathbb{P})\). Esta definición es independiente de la sucesión aproximante.

Teorema 3.12 Para todo \(X \in \mathcal{H}^2\) se cumple \[ \mathbb{E} \left[ \left( \int_0^T X_s \, dB_s \right)^2 \right] = \mathbb{E} \left[ \int_0^T X_s^2 \, ds \right].\] Además, \[ \mathbb{E} \left[ \int_0^T X_s \, dB_s \right] = 0.\]

3.2.5 Integral como proceso y propiedades

Para cada \(t \in [0,T]\), definimos el proceso integral \[I_t(X) := \int_0^t X_s \, dB_s := \int_0^T X_s \mathbf{1}_{[0,t]}(s) \, dB_s.\] Este proceso admite una versión continua y constituye una martingala respecto a \(\{\mathcal{F}_t\}\).La integral de Itô satisface las siguientes propiedades

  1. Linealidad: Para \(X, Y \in \mathcal{H}^2\) y \(\alpha, \beta \in \mathbb{R}\), \[ \int_0^T (\alpha X_s + \beta Y_s) \, dB_s = \alpha \int_0^T X_s \, dB_s + \beta \int_0^T Y_s \, dB_s.\]

  2. Martingala: El proceso \(\{I_t(X)\}_{0 \leq t \leq T}\) es una martingala en \(L^2(\mathbb{P})\).

  3. Versión continua: Existe una versión de \(\{I_t(X)\}\) con trayectorias continuas.

3.2.6 Extensión por localización

Denotamos por \(\mathcal{L}^2_{\mathrm{loc}}\) al espacio de procesos medibles y adaptados tales que} \[ \mathbb{P}\left( \int_0^T X_s^2 \, ds < \infty \right) = 1.\] Para \(X \in \mathcal{L}^2_{\mathrm{loc}}\), existen tiempos de paro \(\{\tau_n\}\) con \(\tau_n \uparrow T\) c.s. tales que \(X \mathbf{1}_{[0,\tau_n]} \in \mathcal{H}^2\). Se define entonces \[\int_0^t X_s \, dB_s := \lim_{n \to \infty} \int_0^t X_s \mathbf{1}_{\{s \leq \tau_n\}} \, dB_s,\] donde el límite es en probabilidad. En este caso, la integral es una martingala local, pero la Isometría de Itô ya no se satisface en general.

3.3 Fórmula de Itô.

La fórmula de Itô constituye la regla de la cadena del cálculo estocástico y es esencial para el análisis de procesos estocásticos y ecuaciones diferenciales estocásticas.

Teorema 3.13 Sea \(f \in C^2(\mathbb{R})\) y \(\{B_t\}_{t \geq 0}\) un movimiento Browniano. Entonces, para todo \(t \geq 0\), \[f(B_t) = f(B_0) + \int_0^t f'(B_s) \, dB_s + \frac{1}{2} \int_0^t f''(B_s) \, ds.\] En notación diferencial: \[df(B_t) = f'(B_t) \, dB_t + \frac{1}{2} f''(B_t) \, dt.\]

Teorema 3.14 Sea \(\{X_t\}_{0 \leq t \leq T}\) un proceso de Itô que satisface \[dX_t = b(t, X_t) \, dt + \sigma(t, X_t) \, dB_t,\] con \(b, \sigma\) medibles y tales que las integrales están bien definidas. Sea \(f \in C^{1,2}([0,T] \times \mathbb{R})\). Entonces el proceso \(Y_t = f(t, X_t)\) satisface \[dY_t = \left( \frac{\partial f}{\partial t} + b \frac{\partial f}{\partial x} + \frac{1}{2} \sigma^2 \frac{\partial^2 f}{\partial x^2} \right)(t, X_t) \, dt + \sigma(t, X_t) \frac{\partial f}{\partial x}(t, X_t) \, dB_t.\]

Esta fórmula se deriva formalmente usando la tabla de multiplicación de Itô: \[(dt)^2 = 0, \quad dt\,dB_t = 0, \quad (dB_t)^2 = dt.\]

Teorema 3.15 Sea \(\sigma = \{\sigma_t\}\) un proceso progresivamente medible con \(\mathbb{E}[\int_0^T \sigma_s^2 ds] < \infty\). Entonces, \[\mathbb{E}\left[ \left( \int_0^t \sigma_s dW_s \right)^2 \right] = \mathbb{E}\left[ \int_0^t \sigma_s^2 ds \right], \quad \forall t \in [0,T].\]

Demostración. Ver Karatzas y Shreve (1991) Teorema 3.2.1.

Definición 3.4 Para cada realización \(\omega \in \Omega\), se define el conjunto de tiempos de salto como: \[D_p(\omega) := \left\{ t > 0 : p(t, \omega) \in Z \right\}.\] Este conjunto recoge todos los instantes \(t > 0\) en los cuales el proceso puntual \(p\) registra un salto con marca en el espacio de estados \(Z\).

Definición 3.5 Sea \((Z, \tau)\) un espacio topológico, es decir, \(Z\) es un conjunto no vacío y \(\tau \subseteq \mathcal{P}(Z)\) es una colección de subconjuntos (llamados abiertos) que satisface

  • \(\varnothing, Z \in \tau\),

  • La unión arbitraria de elementos de \(\tau\) pertenece a \(\tau\),

  • La intersección finita de elementos de \(\tau\) pertenece a \(\tau\).

Se dice que \((Z, \tau)\) es un espacio Hausdorff (o \(T_2\)) si satisface la siguiente propiedad de separación: Para todo par de puntos distintos \(x, y \in Z\), con \(x \neq y\), existen abiertos \(U, V \in \tau\) tales que: \[x \in U,\quad y \in V,\quad \text{y} \quad U \cap V = \varnothing.\]

El espacio \(Z= \mathbb{R}\) con topología euclidiana. Es métrico, y todo espacio métrico es Hausdorff.

Definición 3.6 Un espacio de Lusin es un espacio topológico Hausdorff \(Z\) que es imagen continua e inyectiva de un espacio polaco.

  • Su \(\sigma\)-álgebra de Borel es estándar (isomorfa a la de un espacio polaco).

  • Permite la aplicación de teoremas de selección medible, teoremas de convergencia, y garantiza regularidad de medidas.

Definición 3.7 Sea \((Z, \mathcal{B}(Z))\) un espacio medible polaco o de Lusin. El punto absorbente es un elemento \(\partial \notin Z\) que se añade al espacio de estados para formar:

\[Z_\partial := Z \cup \{\partial\}.\]

La \(\sigma\)-álgebra en \(Z_\partial\) se define como:

\[\mathcal{B}(Z_\partial) := \sigma\left(\mathcal{B}(Z) \cup \{\{\partial\}\}\right).\]

Un proceso estocástico \(\{X_t\}_{t \geq 0}\) con valores en \(Z_\partial\) se dice que:

  1. Es absorbido en \(\partial\) si \(X_t = \partial\) para todo \(t \geq \tau\), donde \(\tau = \inf\{s > 0 : X_s = \partial\}\) es el tiempo de absorción,
  2. Permanece en \(\partial\) una vez que llega: \(X_t = \partial \implies X_s = \partial\) para todo \(s \geq t\).

Observación: El punto absorbente se utiliza para:

  • Manejar procesos que pueden “explotar” en tiempo finito,
  • Definir procesos de Markov con muerte,
  • Extender funciones medibles \(f: Z \to \mathbb{R}\) a \(Z_\partial\) mediante \(f(\partial) = 0\),
  • Garantizar que el espacio sea compacto en la compactificación de Alexandroff.

\[f(\partial) = 0, \quad \int_{\{\partial\}} g(z) \, \nu(dz) = 0, \quad \text{y} \quad \partial + z = \partial \quad \forall z \in Z_\partial.\]

Definición 3.8 Sea \((Z, \mathcal{B}(Z))\) un espacio de Lusin (en particular, Hausdorff y con \(\sigma\)-álgebra de Borel estándar). Un proceso puntual es una aplicación medible \(p : \Omega \times (0,\infty) \to Z \cup \{\partial\}\) tal que, para casi toda \(\omega \in \Omega\), el conjunto \(\{ t \in (0,T] : p(t,\omega) \in Z \}\) es finito para todo \(T > 0\). Se asocia a \(p\) su medida de conteo \(N_p\), definida en \((0,\infty) \times Z\). Donde \(\partial\) es un punto absorbente (Definición 3.7) fuera de \(Z\).

Definición 3.9 Sea \(p: \Omega \times (0, \infty) \to Z \cup \{\partial\}\) un proceso puntual (Definición 3.8). Decimos que \(p\) tiene saltos aislados si para casi toda \(\omega \in \Omega\) y todo \(T > 0\), el conjunto de tiempos de salto:*

\[\mathcal{T}(\omega) \cap (0, T] := \{t \in (0, T] : p(t, \omega) \in Z\}\]

es finito o, más generalmente, discreto sin puntos de acumulación en \((0, T]\). Esto significa que:

  1. Para todo \(t \in \mathcal{T}(\omega)\), existe \(\varepsilon > 0\) tal que: \[(t - \varepsilon, t + \varepsilon) \cap \mathcal{T}(\omega) = \{t\}.\]

  2. El ínfimo entre tiempos de salto consecutivos es positivo: \[\inf\{t_{i+1} - t_i : t_i, t_{i+1} \in \mathcal{T}(\omega) \cap (0, T]\} > 0 \quad \text{c.s.}\]

  3. La suma sobre saltos está bien definida: \[\sum_{0 < s \leq t} f(s, p(s)) = \sum_{t_i \in \mathcal{T}(\omega) \cap (0, t]} f(t_i, p(t_i)) < \infty \quad \text{c.s.}\]

Definición 3.10 Sea \(p : \Omega \times (0,\infty) \to Z \cup {\partial}\) un proceso puntual de clase (QL), donde \(Z\) es un espacio de Lusin y \(\partial \notin Z\) es el punto absorbente (Definición 3.7) que indica ausencia de salto, entonces \[p^{-1}(\partial) = \{ (\omega, t) \in \Omega \times (0,\infty) : p(t,\omega) = \partial \}\] representa el conjunto de todos los pares \((\omega, t)\) en los que la trayectoria del sistema no experimenta un salto en el instante \(t\).

Definición 3.11 La medida de conteo aleatoria asociada a \(p\), denotada \(N_p\), es una medida aleatoria sobre el espacio producto \((0,\infty) \times Z\), definida por \[N_p((0,t] \times U) := \sum_{0 < s \leq t} \mathbf{1}_U(p(s)), \quad \text{para todo } U \in \mathcal{B}(Z), t > 0.\]

En la anterior expresión la suma \(\sum_{0 < s \leq t}\) recorre todos los instantes \(s\) en el intervalo \((0,t]\). Aunque hay infinitos \(s\) en principio, sólo en los tiempos donde ocurre un salto (es decir, cuando \(p(s) \in Z\) el término \(\mathbf{1}_U(p(s))\)) puede ser distinto de cero. Gracias a la propiedad de que los saltos son aislados (Definición 3.9), la suma es finita c.s. en cada intervalo \((0,t]\). El indicador \(\mathbf{1}_U(p(s))\), evalúa si el tamaño (o tipo) del salto en el instante \(s\), que es \(p(s) \in Z\), cae dentro del conjunto \(U \subset Z\). Si \(p(s) \in U\), el salto cuenta para \(N_p((0,t] \times U)\); si no, no se cuenta. La medida \(N_p((0,t] \times U)\) es simplemente el número de saltos del proceso \(p\) que ocurren hasta el tiempo \(t\) y cuyo valor (localización en \(Z\)) está en el conjunto \(U\).

Un caso particular y muy importante de proceso puntual es el proceso puntual de Poisson estacionario.

Definición 3.12 Un proceso puntual de Poisson estacionario \(k:\Omega\times(0,\infty) \rightarrow Z\cup\{\partial\}\) es un proceso puntual \(\mathcal{F}_t\)-adaptado, \(\sigma\) -finito y de clase (QL) (cuasi-continuo por la izquierda).

El proceso de Poisson estacionario \(k\) es un caso específico de proceso puntual que satisface propiedades adicionales (independencia, estacionariedad, distribución de Poisson). Por lo tanto, en este contexto, el proceso puntual \(p\) del que hablamos en general se especializa al proceso \(k\).

Teorema 3.16 Sea \(R = R(t,z,\omega)\) un proceso previsible tal que \[\mathbb{E}\left[ \int_0^T \int_Z R(s,z)^2 \nu(dz) ds \right] < \infty.\] Entonces \[\mathbb{E}\left[ \left( \int_0^t \int_Z R(s,z) \widetilde{N}(ds,dz) \right)^2 \right] = \mathbb{E}\left[ \int_0^t \int_Z R(s,z)^2 \nu(dz) ds \right].\]

Demostración. Consideramos el caso en que \(R\) es un proceso elemental simple de la forma \[R(s,z,\omega) = \sum_{i=1}^{n} \sum_{j=1}^{m} a_{ij} \mathbf{1}_{(t_{i-1}, t_i]}(s) \mathbf{1}_{A_j}(z),\] con \(a_{ij} \in \mathbb{R}, \mathcal{F}_{t_{i-1}}\text{-medible}\), y \(A_j \subset Z\) medibles disjuntos con \(nu(A_j) < \infty\). En este caso, la integral estocástica es \[I_t = \sum_{i=1}^{n} \sum_{j=1}^{m} a_{ij} \left[ N((t_{i-1} \wedge t, t_i \wedge t] \times A_j) - \nu(A_j)(t_i \wedge t - t_{i-1} \wedge t) \right].\] Dado que los incrementos de \(\widetilde{N}\) sobre rectángulos disjuntos son no correlacionados y \(\mathrm{Var}(N((a,b] \times A)) = \nu(A)(b-a)\), se tiene \[\mathbb{E}[I_t^2] = \sum_{i=1}^{n} \sum_{j=1}^{m} a_{ij}^2 \nu(A_j)(t_i \wedge t - t_{i-1} \wedge t) = \mathbb{E}\left[ \int_0^t \int_Z R(s,z)^2 \, \nu(dz) \, ds \right].\] Ahora para el caso general, sea \(R\) un proceso predecible en \(L^2_{\text{pred}}(\widetilde{N})\). Existe una sucesión de procesos elementales simples \(\{R_n\}\) tal que \[\lim_{n\to\infty} \mathbb{E}\left[ \int_0^T \int_Z |R_n(s,z) - R(s,z)|^2 \, \nu(dz) \, ds \right] = 0.\] Definiendo \(I_t^n = \int_0^t \int_Z R_n(s,z) \, \widetilde{N}(ds,dz)\), \(I_t = \int_0^t \int_Z R(s,z) \, \widetilde{N}(ds,dz)\) se tiene \(I_t^n \to I_t\) en \(L^2(\Omega)\) uniformemente en \(t\in[0,T]\). Por continuidad de la norma \(L^2\) y el caso anterior para un proceso elemental simple, \[\mathbb{E}[(I_t^n)^2] = \mathbb{E}\left[ \int_0^t \int_Z R_n(s,z)^2 \, \nu(dz) \, ds \right] \to \mathbb{E}\left[ \int_0^t \int_Z R(s,z)^2 \, \nu(dz) \, ds \right],\] y también \(\mathbb{E}[(I_t^n)^2] \to \mathbb{E}[I_t^2]\). Por unicidad del límite, se concluye la igualdad.

Definición 3.13 Sean \(M = \{M_t\}_{t \geq 0}\) una martingala local continua (como se asume en la desigualdad Burkholder-Davis-Gundy). La variación cuadrática se denota \([M]_t\) y se define como el límite en probabilidad de sumas de cuadrados de incrementos sobre particiones que se refinan \[[M]_t = \lim_{|\Pi| \to 0} \sum_{i} (M_{t_{i+1}} - M_{t_i})^2,\] donde \(\Pi = \{0 = t_0 < t_1 < \cdots < t_n = t\}\). Cuando \(M\) es una martingala local continua, se tiene que \([M]\) es un proceso continuo, creciente y adaptado, pero no necesariamente previsible. La variación cuadrática previsible, denotada \(\langle M \rangle\), es el único proceso creciente, continuo y previsible tal que \[M_t^2 - \langle M \rangle_{t}\] es una martingala local.

Teorema 3.17 Si \(M\) es una martingala en \(L^2\), entonces \[\mathbb{E}\left[ \sup_{0 \leq s \leq t} M_s^2 \right] \leq 4 \mathbb{E}[M_t^2].\]

Teorema 3.18 Sea \(M = \{M_t\}_{t \geq 0}\) una martingala continua en un espacio de Hilbert separable \(H\), tal que \(M \in \mathcal{M}_c^2(H)\), es decir, \(M_0 = 0\) casi seguramente y \(\mathbb{E}[\|M_T\|^2] < \infty\) para todo \(T > 0\). Entonces, para todo \(T > 0\), se cumple la desigualdad \[\mathbb{E}\left[ \sup_{0 \leq t \leq T} \|M_t\| \right] \leq 3 \, \mathbb{E}\left[ \langle M \rangle_T^{1/2} \right].\]

Demostración. Para cada \(c > 0\), definimos el tiempo de paro \[T_c := \inf \left\{ t \geq 0 : \langle M \rangle_t \geq c^2 \right\}.\] Como \(\langle M \rangle_t\) es un proceso creciente y continuo, \(T_c\) es un tiempo de paro válido. Consideremos el proceso \(\|M_{t \wedge T \wedge T_c}|^2\). Dado que \(M\) es una martingala continua, \(\|M_t\|^2\) es una submartingala no negativa. Por lo tanto, \(\|M_{t \wedge T \wedge T_c}|^2\) también lo es. Aplicando la desigualdad de Doob para submartingalas reales no negativas, se tiene \[\mathbb{P}\left( \sup_{0 \leq t \leq T} \|M_t\|^2 \geq c^2 \right) \leq \frac{1}{c^2} \, \mathbb{E}\left[ \|M_{T \wedge T_c}\|^2 \right].\] Por la propiedad de la variación cuadrática, \(\mathbb{E}[\|M_t\|^2] = \mathbb{E}[\langle M \rangle_t]\), y por la definición de \(T_c\), \(\mathbb{E}[\|M_{T \wedge T_c}\|^2] = \mathbb{E}[\langle M \rangle_{T \wedge T_c}] \leq \mathbb{E}[c^2 \wedge \langle M \rangle_T]\). Por lo tanto \[\mathbb{P}\left( \sup_{0 \leq t \leq T} \|M_t\|^2 \geq c^2 \right) \leq \frac{1}{c^2} \, \mathbb{E}\left[ c^2 \wedge \langle M \rangle_T \right].\] Además, se puede escribir \[\left\{ \sup_{0 \leq t \leq T} \|M_t\|^2 \geq c^2 \right\} \subseteq \left\{ T_c < T \right\} \cup \left\{ \sup_{0 \leq t \leq T \wedge T_c} \|M_t\|^2 \geq c^2 \right\},\] lo que implica \[\mathbb{P}\left( \sup_{0 \leq t \leq T} \|M_t\|^2 \geq c^2 \right) \leq \mathbb{P}\left( \langle M \rangle_T \geq c^2 \right) + \frac{1}{c^2} \, \mathbb{E}\left[ c^2 \wedge \langle M \rangle_T \right].\] Ahora, usando la representación del valor esperado como integral de la función de distribución \[ \mathbb{E}\left[ \sup_{0 \leq t \leq T} \|M_t\| \right] = \int_0^\infty \mathbb{P}\left( \sup_{0 \leq t \leq T} \|M_t\| \geq c \right) \, dc = \int_0^\infty \mathbb{P}\left( \sup_{0 \leq t \leq T} \|M_t\|^2 \geq c^2 \right) \, dc.\] Sustituyendo la desigualdad anterior \[\mathbb{E}\left[ \sup_{0 \leq t \leq T} \|M_t\| \right] \leq \int_0^\infty \left[ \mathbb{P}\left( \langle M \rangle_T \geq c^2 \right) + \frac{1}{c^2} \, \mathbb{E}\left[ c^2 \wedge \langle M \rangle_T \right] \right] \, dc.\] Calculamos las dos integrales por separado. Primero \[\int_0^\infty \mathbb{P}\left( \langle M \rangle_T \geq c^2 \right) \, dc = \int_0^\infty \mathbb{P}\left( \langle M \rangle_T^{1/2} \geq c \right) \, dc = \mathbb{E}\left[ \langle M \rangle_T^{1/2} \right].\] Después \[ \int_0^\infty \frac{1}{c^2} \, \mathbb{E}\left[ c^2 \wedge \langle M \rangle_T \right] \, dc = \mathbb{E}\left[ \int_0^\infty \frac{1}{c^2} (c^2 \wedge \langle M \rangle_T) \, dc \right].\] Para un valor fijo \(x = \langle M \rangle_T\), la integral interna es \[ \int_0^\infty \frac{1}{c^2} (c^2 \wedge x) \, dc = \int_0^{\sqrt{x}} 1 \, dc + x \int_{\sqrt{x}}^\infty \frac{1}{c^2} \, dc = \sqrt{x} + \sqrt{x} = 2 \sqrt{x}.\] Por lo tanto \[\int_0^\infty \frac{1}{c^2} \, \mathbb{E}\left[ c^2 \wedge \langle M \rangle_T \right] \, dc = \mathbb{E}\left[ 2 \langle M \rangle_T^{1/2} \right].\] Sumando ambos términos \[\mathbb{E}\left[ \sup_{0 \leq t \leq T} \|M_t\| \right] \leq \mathbb{E}\left[ \langle M \rangle_T^{1/2} \right] + 2 \, \mathbb{E}\left[ \langle M \rangle_T^{1/2} \right] = 3 \, \mathbb{E}\left[ \langle M \rangle_T^{1/2} \right]\] Esto concluye la demostración.

Teorema 3.19 Sea \(M = \{M_t\}_{t \geq 0}\) una martingala local continua en \(L^2(\mathbb{P})\), y sea \(\tau\) un tiempo de paro respecto a la filtración \(\{\mathcal{F}_t\}\). Entonces, para cualquier \(m \geq \tfrac{1}{2}\), se cumplen las siguientes desigualdades:

(a). Para \(m \geq \tfrac{1}{2}\), \[ \mathbb{E}\left[ \sup_{0 \leq t \leq \tau} |M_t|^{2m} \right] \leq B_m \, \mathbb{E}\left[ \langle M \rangle_\tau^m \right],\] donde \[ B_m = \begin{cases} 3, & \text{si } m = \tfrac{1}{2}, \\ \bigl[ q^{2m} m (2m - 1) \bigr]^m, & \text{si } m > \tfrac{1}{2},\ \text{con } \frac{1}{2m} + \frac{1}{q} = 1. \end{cases}\]

(b). Para \(m > \tfrac{1}{2}\), \[\mathbb{E}\left[ \sup_{0 \leq t \leq \tau} |M_t|^{2m} \right] \geq C_m \, \mathbb{E}\left[ \langle M \rangle_\tau^m \right],\] donde \[C_m = \begin{cases} \varepsilon^m \left[ \dfrac{(1+\varepsilon)2^{1-m}}{2m-1} - 1 \right]^{-1}, & \text{si } \tfrac{1}{2} < m \leq 1,\ \varepsilon > 0, \\ \varepsilon^{m-1} \left( \dfrac{1-\varepsilon}{2^{m-1}} - \varepsilon \right), & \text{si } m > 1,\ \varepsilon \in \left(0, \dfrac{1}{2^{m-1}-1} \right). \end{cases}\]

Demostración. Sin pérdida de generalidad, podemos suponer que tanto \(M\) como su variación cuadrática previsible \(\langle M \rangle\) son procesos acotados. Esto se justifica mediante un argumento de localización: existe una sucesión creciente de tiempos de paro \(\{\tau_n\}\) tal que \(\tau_n \uparrow \infty\) c.s. y los procesos detenidos \(M^{\tau_n}\) y \(\langle M \rangle^{\tau_n}\) son acotados. Las desigualdades se obtienen para cada \(n\) y luego se extienden al caso general mediante el teorema de convergencia monótona(Teorema 3.3).

El caso \(m = \tfrac{1}{2}\) se deduce directamente del Teorema 2.5.17 de (Tudor 2022) que establece \[\mathbb{E}\left[ \sup_{0 \leq t \leq \tau} |M_t| \right] \leq 3 \, \mathbb{E}\left[ \langle M \rangle_\tau^{1/2} \right].\] Ahora asumimos \(m > \tfrac{1}{2}\) y que \(M\), \(\langle M \rangle\) son acotados. Denotemos \[ M_t^* := \sup_{0 \leq s \leq t} |M_s|, \quad Y_t := \delta + \varepsilon \langle M \rangle_t + M_t^2,\] donde \(\delta > 0\) y \(\varepsilon \geq 0\) son constantes a elegir posteriormente. Obsérvese que \(Y_t > 0\) y es continuo. Aplicamos la fórmula de Itô a la función \(f(x) = x^m\), \(x > 0\) \[Y_t^m = \delta^m + m \int_0^t Y_s^{m-1} \, dY_s + \frac{m(m-1)}{2} \int_0^t Y_s^{m-2} \, d\langle Y \rangle_s.\] Como \(dY_s = (\varepsilon + 1) \, d\langle M \rangle_s + 2 M_s \, dM_s\) y \(d\langle Y \rangle_s = 4 M_s^2 \, d\langle M \rangle_s\), sustituimos y obtenemos \[\begin{aligned} Y_t^m = &\ \delta^m + m(1+\varepsilon) \int_0^t Y_s^{m-1} \, d\langle M \rangle_s + 2m \int_0^t Y_s^{m-1} M_s \, dM_s \\ &+ 2m(m-1) \int_0^t Y_s^{m-2} M_s^2 \, d\langle M \rangle_s. \end{aligned}\] Al tomar esperanza matemática, el término de la integral estocástica desaparece (es una martingala de media cero por acotación), y obtenemos \[\mathbb{E}[Y_t^m] = \delta^m + m(1+\varepsilon) \, \mathbb{E}\!\left[ \int_0^t Y_s^{m-1} \, d\langle M \rangle_s \right] + 2m(m-1) \, \mathbb{E}\!\left[ \int_0^t Y_s^{m-2} M_s^2 \, d\langle M \rangle_s \right].\]

Consideramos ahora la desigualdad de Doob para martingalas: para \(p = 2m > 1\), \[ \mathbb{E}[(M_t^*)^{2m}] \leq q^{2m} \, \mathbb{E}[|M_t|^{2m}], \quad \text{donde } \frac{1}{p} + \frac{1}{q} = 1.\] Aplicando la fórmula de Itô a \(|M_t|^{2m}\) (con segunda derivada \(2m(2m-1)|M_t|^{2m-2}\)) y tomando esperanza \[\mathbb{E}[|M_t|^{2m}] = m(2m-1) \, \mathbb{E}\!\left[ \int_0^t |M_s|^{2(m-1)} \, d\langle M \rangle_s \right].\] Combinando ambas expresiones y aplicando la desigualdad de Hölder, se obtiene \[ \mathbb{E}[(M_t^*)^{2m}] \leq \bigl[ q^{2m} m (2m - 1) \bigr]^m \, \mathbb{E}[\langle M \rangle_t^m].\]

Retomamos la expresión de \(\mathbb{E}[Y_t^m]\). Como \(Y_t \geq M_t^2\), se tiene \(Y_t^m \geq |M_t|^{2m}\). Además, \(Y_s \geq \delta\), por lo que \[\mathbb{E}[|M_t|^{2m}] \geq m(1+\varepsilon) \, \mathbb{E}\!\left[ \int_0^t Y_s^{m-1} \, d\langle M \rangle_s \right].\] Usando la desigualdad \((x+y)^m \leq 2^{m-1}(x^m + y^m)\) para \(m \geq 1\), y un argumento de paso al límite \(\delta \downarrow 0\), se deduce \[\mathbb{E}[(M_t^*)^{2m}] \geq C_m \, \mathbb{E}[\langle M \rangle_t^m],\] con \(C_m\) como en el enunciado (obtenido mediante optimización sobre \(\varepsilon\)). Finalmente, al considerar \(\tau\) en lugar de \(t\), basta observar que \(M^\tau\) es también una martingala local continua y \(\langle M^\tau \rangle = \langle M \rangle^\tau\), con lo que las desigualdades se mantienen reemplazando \(t\) por \(\tau\). Esto concluye la demostración.

Teorema 3.20 Sea \(u, \alpha: [0,T] \to \mathbb{R}_{+}\) funciones continuas, \(\beta \in L^1([0,T])\), con \(\beta \geq 0\), tales que \[u(t) \leq \alpha(t) + \int_0^t \beta(s) u(s) ds, \quad \forall t \in [0,T].\] Entonces, \[u(t) \leq \alpha(t) \exp\left( \int_0^t \beta(s) ds \right).\] En particular, si \(\alpha \equiv 0\), entonces \(u \equiv 0\).

Demostración. Definimos la función auxiliar \[v(t) := \int_{0}^{t} \beta(s) u(s) \, ds, \quad t \in [0,T].\] Dado que \(\beta \in L^{1}([0,T])\) y \(u \in C([0,T])\), el producto \(\beta u\) pertenece a \(L^{1}([0,T])\), y por lo tanto \(v \in C([0,T])\). Además, \(v\) es absolutamente continua y satisface \(v(0) = 0\) y \[v'(t) = \beta(t) u(t) \quad \text{para casi todo } t \in [0,T].\] Por hipótesis, \[u(t) \leq \alpha(t) + v(t), \quad \forall t \in [0,T],\] y, sustituyendo en la derivada de \(v\), obtenemos \[v'(t) \leq \beta(t) \bigl( \alpha(t) + v(t) \bigr) \quad \text{casi en todas partes en } [0,T].\] Consideremos ahora la función \[w(t) := v(t) \exp\!\left( -\int_{0}^{t} \beta(s) \, ds \right), \quad t \in [0,T].\] La función \(w\) es absolutamente continua (pues \(v\) y la exponencial lo son), y diferenciable casi en todas partes. Derivando se obtiene \[w'(t) = \Bigl[ v'(t) - \beta(t) v(t) \Bigr] \exp\!\left( -\int_{0}^{t} \beta(s) \, ds \right) \leq \beta(t) \alpha(t) \exp\!\left( -\int_{0}^{t} \beta(s) \, ds \right) \quad \text{c.t.p.}\] Integrando desde \(0\) hasta \(t\) y usando que \(w(0) = 0\), resulta \[w(t) \leq \int_{0}^{t} \beta(s) \alpha(s) \exp\!\left( -\int_{0}^{s} \beta(r) \, dr \right) ds.\] Multiplicando ambos lados por \(\exp\bigl(\int_{0}^{t} \beta(s) \, ds \bigr)\) obtenemos \[v(t) \leq \exp\!\left( \int_{0}^{t} \beta(s) \, ds \right) \int_{0}^{t} \beta(s) \alpha(s) \exp\!\left( -\int_{0}^{s} \beta(r) \, dr \right) ds.\] Dado que \(\alpha\) es no decreciente, para todo \(s \in [0,t]\) se tiene \(\alpha(s) \leq \alpha(t)\). Por lo tanto, \[\begin{align*} \int_{0}^{t} \beta(s) \alpha(s) \exp\!\left( -\int_{0}^{s} \beta(r) \, dr \right) ds \leq \alpha(t) \int_{0}^{t} \beta(s) \exp\!\left( -\int_{0}^{s} \beta(r) \, dr \right) ds\\ =\alpha(t) \Bigl( 1 - \exp\!\left( -\int_{0}^{t} \beta(s) \, ds \right) \Bigr). \end{align*}\] Sustituyendo en la expresión anterior para \(v(t)\), se sigue que \[v(t) \leq \alpha(t) \Bigl( \exp\!\left( \int_{0}^{t} \beta(s) \, ds \right) - 1 \Bigr).\] Finalmente, combinando con la desigualdad \(u(t) \leq \alpha(t) + v(t)\), obtenemos \[u(t) \leq \alpha(t) + \alpha(t) \Bigl( \exp\!\left( \int_{0}^{t} \beta(s) \, ds \right) - 1 \Bigr) = \alpha(t) \exp\!\left( \int_{0}^{t} \beta(s) \, ds \right),\] lo cual concluye la demostración. El caso \(\alpha \equiv 0\) se deduce inmediatamente: la desigualdad implica \(u(t) \leq 0\). Si además \(u \geq 0\), entonces \(u \equiv 0\) en \([0,T]\).

Teorema 3.21 Toda martingala local en un espacio filtrado que satisface las hipótesis usuales admite una versión cádlág.

Toda martingala local admite una versión càdlàg bajo las hipótesis usuales. Más detalles en Protter (2005, 73, Thm. 6)

3.3.1 Herramientas de análisis funcional

Teorema 3.22 Sea \((H, \|\cdot\|)\) un espacio de Banach y \(\Phi: H \to H\) una contracción, es decir, existe \(\kappa < 1\) tal que \(\|\Phi(x) - \Phi(y)\| \leq \kappa \|x - y\|\) para todo \(x, y \in H\). Entonces \(\Phi\) tiene un único punto fijo en \(H\).

3.3.2 Marco probabilístico y notación

Definición 3.14 Sea \((\Omega, \mathcal{F}, \mathbb{P})\) un espacio de probabilidad y \(\{\mathcal{F}_t\}_{t \geq 0}\) una filtración, es decir, una familia creciente de sub-\(\sigma\)-álgebras de \(\mathcal{F}\): \[\mathcal{F}_s \subseteq \mathcal{F}_t \subseteq \mathcal{F} \quad \text{para todo } 0 \leq s \leq t.\] Se dice que la filtración satisface las hipótesis usuales si cumple las siguientes dos condiciones:

Completitud: La \(\sigma\)-álgebra inicial \(\mathcal{F}_0\) contiene todos los conjuntos \(\mathbb{P}\)-nulos. Es decir: \[\text{Si } A \in \mathcal{F} \text{ y } \mathbb{P}(A) = 0, \quad \text{entonces } A \in \mathcal{F}_0.\] Como \(\mathcal{F}_0 \subseteq \mathcal{F}_t\) para todo \(t\), esto implica que todos los conjuntos nulos están en cada \(\mathcal{F}_t\). En otras palabras, cada \(\mathcal{F}_t\) es completa respecto a \(\mathbb{P}\).

Continuidad por la derecha: Para todo \(t \geq 0\), \[\mathcal{F}_t = \bigcap_{s > t} \mathcal{F}_s.\]

Definición 3.15 Sea \(W = \{W_t\}_{t \geq 0}\) un movimiento browniano. La filtración natural es \(\ \mathcal{F}_t^W = \sigma(W_s : s \leq t)\). La filtración usual asociada es \[\mathcal{F}_t = \bigcap_{s > t} \sigma(\mathcal{F}_s^W \cup \mathcal{N}),\] donde \(\mathcal{N}\) es la colección de todos los conjuntos \(\mathbb{P}\)-nulos.

Definición 3.16 Una variable aleatoria \(\tau : \Omega \to [0,\infty]\) es un tiempo de paro respecto a \(\{\ \mathcal{F} \}\) si \(\{\tau \leq t\} \in \mathcal{F}_t\) para todo \(t \geq 0\).

Definición 3.17 Un tiempo de paro \(\{\tau < t\} \in \mathcal{F}_t\) para todo \(t\). La continuidad por la derecha se deduce que \[\{\tau < t\} = \bigcup_{q \in \mathbb{Q}, q < t} \{\tau \leq q\} \in \mathcal{F}_t.\]

Definición 3.18 Un proceso \(Y = \{Y_t\}_{t \geq 0}\) es una semimartingala si admite la descomposición canónica \[Y_t = Y_0 + Y_t^c + \sum_{s \leq t} \Delta Y_s,\] donde:

  • \(Y_0\) es \(\mathcal{F}_0\)-medible.

  • \(Y^c = (Y_t^c)_{t \geq 0}\) es decir, la parte continua de la descomposición de Itô.

  • \(\Delta Y_s := Y_s - Y_{s-}\) es el salto de \(Y\) en el instante \(s\); por convención, \(Y_{s-} = \lim_{r \uparrow s} Y_r\).

  • \(\sum_{s \leq t} |{\Delta Y_s}|^2 < \infty\) c.s. en compactos ( Protter (2005) Cap. II).

Definición 3.19 Sea \((\Omega, \mathcal{F}, \{\mathcal{F}_t\}_{t \geq 0}, \mathbb{P})\) un espacio de probabilidad filtrado. Un proceso de Wiener es un proceso estocástico \(W = \{W(t)\}_{t \geq 0}\) que satisface las siguientes propiedades:

  1. Condición inicial:
    \[ W(0) = 0 \quad \text{casi seguramente}.\]

  2. Trayectorias continuas:
    Casi todas las trayectorias \(t \mapsto W(t,\omega)\) son funciones continuas en \([0, \infty)\).

  3. Incrementos independientes: Para cualesquir partición \(0 \leq t_0 < t_1 < \cdots < t_n\), los incrementos
    \[W(t_1) - W(t_0), \; W(t_2) - W(t_1), \; \dots, \; W(t_n) - W(t_{n-1})\] son independientes como variables aleatorias reales.

  4. Incrementos estacionarios y gaussianos:
    Para todo \(0 \leq s < t\), el incremento \(W(t) - W(s)\) tiene distribución normal con media cero y varianza \(t - s\):
    \[W(t) - W(s) \sim \mathcal{N}(0, t - s).\]

  5. Adaptación:
    El proceso \(W\) es adaptado a la filtración \(\{\mathcal{F}_t\}_{t \geq 0}\), es decir, \(W(t)\) es \(\mathcal{F}_t\)-medible para todo \(t \geq 0\).

3.3.3 Medida aleatoria de Poisson y su compensación

Definición 3.20 \(N(dt,dz)\): medida aleatoria de Poisson en \(\mathbb{R}_+ \times Z\), donde \(Z\) es un espacio de Lusin(Definición 3.6) (e.g., \(\mathbb{R}^d \setminus \{0\}\)), con medida de intensidad \(\nu(dz)dt\), y \(\nu\) es una medida de Lévy, i.e., \[\int_Z (1 \wedge |z|^2)\,\nu(dz) < \infty.\] \(\tilde{N}(dt,dz) = N(dt,dz) - \nu(dz)dt\): medida de Poisson compensada. Se asume que \(W\) y \(N\) son independientes entre sí y de \(\mathcal{F}_0\)

Definición 3.21 Sea \((\Omega, \mathcal{F}, \mathbb{P})\) un espacio de probabilidad y sea \(X = \{X_t : t \geq 0\}\) un proceso estocástico con valores en \(\mathbb{R}\), es decir, para cada \(t \geq 0\), \(X_t : \Omega \to \mathbb{R}\) es una variable aleatoria. Se dice que el proceso \(X\) es cádlág (o RCLL) si casi todas sus trayectorias son funciones cádlág; es decir, existe un conjunto \(\Omega_0 \in \mathcal{F}\) con \(\mathbb{P}(\Omega_0) = 1\) tal que, para todo \(\omega \in \Omega_0\), la función
\[t \mapsto X_t(\omega)\] satisface las siguientes dos propiedades:

Continuidad por la derecha:
Para todo \(t \geq 0\), \[\lim_{s \downarrow t} X_s(\omega) = X_t(\omega).\]

Existencia del límite por la izquierda:
Para todo \(t > 0\), el límite
\[\lim_{s \uparrow t} X_s(\omega)\] existe en \(\mathbb{R}\). Este límite se denota por \(X_{t-}(\omega)\).

Definición 3.22 Se dice que una EDE tiene solución única por trayectorias si para cualquier par de soluciones \(\{x_t^i\}_{t\geq0}, i = 1,2,\) satisface la Ecuación 4.1 sobre el mismo espacio de probabilidad con el mismo movimiento browniano \(\{W_t\}_{t\geq0}\) y una medida de Poisson \(\widetilde{N}_t(dt,dz)\), \(P(sup_{t\geq0} |x_t^1 - x_t^2|=0) =1\)

Definición 3.23 \[\tau^N := \inf\{ t \geq 0 : |x_t| > N \}\]