Formas diferenciales


*Para este post es necesario que hayas checado los conceptos del post anterior sobre  Álgebra Multilineal.

¿Que es una forma diferencial? Básicamente es algo que se puede integrar. De alguna manera veremos que las formas diferenciales son los integrando mas importantes (y generales).  En cálculo vectorial se utilizan algunos operadores para definir propiedades de campo vectorial en $\mathbb{R}^3$, como por ejemplo
$grad f =\nabla f$,         $rot f=\nabla \times f$          y          $div f = \left<\nabla, f  \right> $
Estos términos se pueden expandir a $\mathbb{R}^n$. Una vez que ya definidos los espacios vectoriales $\mathscr{L}^k(V)$ y $\Lambda^k (V)$ nos vamos a fijar en unos muy particulares.
Definamos el espacio de los pares $(x;v)$ donde $x,v\in\mathbb{R}^n$ pero $x$ lo tomamos como un vector fijo. La representación geométrica de estos vectores seria una flecha con origen en $x$ y dirección $v$. El espacio  de todos los vectores $(x;v)$ con la suma $(x;v)+(x;w)=(x;v+w)$ y el producto $\alpha (x;v)=(x;\alpha v)$ forman un espacio vectorial al que denotaremos como $\mathscr{T}_x(\mathbb{R}^n)$. Otra manera de verlo es como el producto cruz $x\times \mathbb{R}^n$.
Si $A$ es un conjunto abierto definimos como campo k-tensorial a la función $\omega$ que asigna a cada $x\in A$ un k-tensor de $\mathscr{T}_x(\mathbb{R}^n)$, es decir $\omega (x)\in\mathscr{L}^k(\mathscr{T}_x(\mathbb{R}^n))$ para cualquier $x$ de $A$. $\omega$ es de la forma
$$\omega (x)((x;v_1),...,(x;v_k))$$
Si $\omega$ es alternante se dice que es una forma diferencial o simplemente k-forma 

En el post anterior se dio una base para los espacios de tensores alternantes para este caso los elementos de la base de $\mathscr{T}_x(\mathbb{R}^n)$ son ${(x;e_1),...,(x;e_n)}$ definimos la 1-forma como $$\tilde{\phi}_i(x)(x;e_j)=\delta_{ij}$$ estas n 1-formas son la base dual de $\mathscr{T}_x(\mathbb{R}^n)$ y la base para una k-forma es $$\tilde{\phi}_{i_1} \wedge \tilde{\phi}_{i_2} \wedge \cdots \wedge \tilde{\phi}_{i_k}$$ con $1\le i_1<i_2<...<i_k\le n$ cualquier k-forma puede ser expresada:
$$\omega(x)=\sum_{ i_1<i_2<...<i_k}a_{i_1,...,i_k}(x)\tilde{\phi}_{i_1} \wedge \tilde{\phi}_{i_2} \wedge \cdots \wedge \tilde{\phi}_{i_k}(x)$$
Donde $a_{i_1,...,i_k}(x)$ es una función que es llamada componente de $\omega$ relativa a la base elemental de formas de $\mathbb{R}^n$
Bien, hasta el momento no es hemos hecho nada nuevo, solo dar la definición de algunos espacios de tensores alternantes que nos serán de utilidad para definir el operador $d$, para ello hace falta definir una 0-forma  la cual sera demasiado familiar a nosotros.
Si $A$ es in conjunto abierto de $\mathbb{R}^n$,  si $f:A\rightarrow \mathbb{R}$ una función de clase $C^r$ (o que tiene r derivadas continuas) entonces $f$ es una forma diferencial de orden 0 ó 0-forma. Son las mismas que comúnmente conocemos como campo escalar.

Ya con esto podemos definir el operador $d$, primero para 0-formas y luego para una k-forma en general. La idea del operador $d$ es que si tienes $\omega$ k-forma entonces $d\omega$ resultara una (k+1)-forma.
Si $A$ es un conjunto abierto de $\mathbb{R}^n$,  si $f:A\rightarrow \mathbb{R}$ una función de clase $C^r$. Definimos la 1-forma $df$ en $A$ como $$df(x)(x;v)=f'(x;v)$$ (Derivada direccional de $f$ con respecto a $v$) la 1-forma $df$ es llamada diferencial de $f$.
Ya definido el operador $d$ para 0-formas es de utilidad poner la base del espacio de las k-formas.
Sea $\pi_i:\mathbb{R}^n\rightarrow \mathbb{R}$ la función dada por $$\pi_i(x_1,...,x_n)=x_i$$ entonces $d\pi_i=\tilde{\phi}_i$, es facíl demostrarlo con la definición de diferencial, usualmente la función $\pi_i$ se denota simplemente como $x_i$ (ó $x$, $y$, $z$) y la base de las k-formas es mas común encontrarla como $$dx_{i_1}\wedge dx_{i_2}\wedge\cdots \wedge dx_{i_k}$$ con $1\le i_1<i_2<...<i_k\le n$
Ahora podemos presentar un teorema que finalmente explica porque usualmente se usa $dx$, $dy$, $dz$ etc.  cuando se calcula una derivada.

Teorema: Si $A$ es un conjunto abierto de $\mathbb{R}^n$, si $f:A\rightarrow \mathbb{R}$ una función de clase $C^r$, entonces $$df=(D_1f)dx_1+...+(D_nf)dx_n$$

Demostración: Usamos la definición de derivada direccional $$df(x)(x;v)=f'(x;v)=\sum_{i=1}^{n}D_i f(x)v_i$$ pero $v_i$ puede ser visto como la función $\pi_i(v_1,...,v_n)=v_i$ por lo tanto $v_i=dx_i$ y el teorema esta demostrado.

Ya estamos a alturas de definir el operador $d$ para cualquier k-forma.
Sea $\omega$ una k-forma, entonces puede ser escrita como
$$\omega=\sum_{i_1< \cdot <i_k}\omega_{i_1,...,i_k}dx_{i_1}\wedge dx_{i_2}\wedge\cdots \wedge dx_{i_k}$$ entonces definimos la (k+1)-forma $d\omega$ como $$d\omega=\sum_{i_1< \cdot <i_k}\sum_{j=1}^{n}D_j(\omega_{i_1,...,i_k})dx_j\wedge dx_{i_1}\wedge dx_{i_2}\wedge\cdots \wedge dx_{i_k}$$
Se definen de esta manera para que cumplan las siguientes propiedades ($\Omega^{k}(A)$ denota el espacio de las k-formas en $A$)  :
Teorema
La transformación lineal $d:\Omega^{k}(A) \rightarrow \Omega^{k+1}(A)$ cumple con
$1)$ Si $f$ es una 0-forma, entonces $df$ es una 1-forma $$df(x)(x;v)=f'(x;v)$$
$2)$ Si $\omega$ y $\eta$ son formas de orden $k$ y $l$ respectivamente, entonces $$d(\omega \wedge \eta)=d\omega \wedge \eta + (-1)^k \omega \wedge d\eta$$
$3)$ Para cualquier forma $\omega$ $$d(d\omega)=0$$

Finalmente para "amarrar" todo falta conectar todo lo que ya sabemos de calculo vectorial y todo lo nuevo que tenemos, si consideramos el siguiente teorema:

Teorema
Si $A$ es un conjunto abierto de $\mathbb{R}^n$. Existen isomorfismos $\alpha_i$ y $\beta_j$ como el siguiente diagrama
$$\begin{matrix} Campos\quad escalares\quad en\quad A & \xrightarrow [ \alpha _{ 0 } ]{  }  & { \Omega  }^{ 0 }(A) \\ \begin{matrix} \downarrow  & grad \end{matrix} &  & \begin{matrix} \downarrow  & d \end{matrix} \\ Campos\quad vectoriales\quad en\quad A & \xrightarrow { \alpha _{ 1 } }  & { \Omega  }^{ 1 }(A) \end{matrix}$$
$$\begin{matrix} Campos\quad vectoriales\quad en\quad A & \xrightarrow [ \beta _{ n-1 } ]{  }  & { \Omega  }^{ n-1 }(A) \\ \begin{matrix} \downarrow  & div \end{matrix} &  & \begin{matrix} \downarrow  & d \end{matrix} \\ Campos\quad escalares\quad en\quad A & \xrightarrow { \beta _{ n } }  & { \Omega  }^{ n }(A) \end{matrix}$$
Tales que
$d(\alpha_0)=\alpha_1(grad)$   y   $d(\beta_{n-1})=\beta_n(div)$
Demostración: Solo basta definir los 4 isomorfismos, sean $f$ y $g$ campos escalares y $F$ y $G$ campos vectoriales.  
$\alpha_0 f =f$ 
$\alpha_1 F =\sum_{i=1}^{n}f_i dx_i$
$\beta_{n-1} G=\sum_{i=1}^{n} (-1)^{i-1}g_i dx_{1}\wedge\cdots\hat{ dx_{i}}\wedge\cdots \wedge dx_{n}$
$\beta_n g=gdx_{1}\wedge \cdots \wedge dx_{n}$
Donde $f_i$ y $g_i$ son los componentes de $F$ y $G$ y $\hat{a_i}$ denota que se salta ese termino. Con eso bastaría para demostrarlo.

Así todos los teoremas que se encuentren en campos vectoriales y escalares son validos en la teoría de formas diferenciales y viceversa, y vemos ahora que $\nabla  f=df$, $\nabla \times F=dF$ y $\left<  \nabla, F \right>=dF$ abusando un poco de que cada "$d$" esta definido en diferentes espacios pero es el mismo concepto.

Bibliografia:
-James R. Munkres. (1991). Analysis on Manifolds. USA: Addison-Wesley (https://drive.google.com/open?id=0B89UX5GhyB83SFJRVXdWbHhjRzA)
-Michael Spivak. (1988). Cálculo en variedades. Barcelona, España: Reverté (https://drive.google.com/open?id=0B89UX5GhyB83RGl1V3k3ZVJURHM)
-David Bachman (2003), A Geometric Approach to Differential Forms http://www.math.ust.hk/~mamyan/ma4033/Bachman.pdf

Comentarios