⊗ Álgebra Lineal

Fundamentos matemáticos esenciales para machine learning, análisis de datos y transformaciones geométricas

Contenido

1. Introducción

El álgebra lineal es una rama fundamental de las matemáticas que estudia vectores, espacios vectoriales, transformaciones lineales y sistemas de ecuaciones lineales. Es la base matemática sobre la cual se construyen muchos algoritmos de machine learning y métodos de análisis de datos.

🎯 ¿Por qué es importante?

El álgebra lineal nos permite representar y manipular datos de manera eficiente, realizar transformaciones geométricas complejas, y entender el comportamiento de algoritmos de aprendizaje automático desde una perspectiva matemática rigurosa.

En este artículo exploraremos los conceptos fundamentales que todo científico de datos debe dominar para comprender profundamente los algoritmos modernos de ML.

2. Espacios Vectoriales

Un espacio vectorial es una estructura algebraica que generaliza las propiedades de los vectores en el plano y el espacio tridimensional.

📖 Definición Formal

Un espacio vectorial V sobre un campo F (usualmente ℝ o ℂ) es un conjunto equipado con dos operaciones:

  • Suma vectorial: u + vV
  • Multiplicación escalar: αvV para α ∈ F

2.1 Propiedades Fundamentales

Todo espacio vectorial debe satisfacer ocho axiomas fundamentales:

  1. Conmutatividad: u + v = v + u
  2. Asociatividad: (u + v) + w = u + (v + w)
  3. Elemento neutro: Existe 0 tal que v + 0 = v
  4. Elemento inverso: Para cada v existe -v tal que v + (-v) = 0

2.2 Combinaciones Lineales e Independencia

Una combinación lineal de vectores v₁, v₂, ..., vₙ es una expresión de la forma:

$$\alpha_1 \mathbf{v_1} + \alpha_2 \mathbf{v_2} + \cdots + \alpha_n \mathbf{v_n}$$

💡 Ejemplo: ℝ³

En el espacio tridimensional, los vectores canónicos son:

$$\mathbf{e_1} = \begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix}, \quad \mathbf{e_2} = \begin{pmatrix} 0 \\ 1 \\ 0 \end{pmatrix}, \quad \mathbf{e_3} = \begin{pmatrix} 0 \\ 0 \\ 1 \end{pmatrix}$$

Cualquier vector en ℝ³ puede expresarse como combinación lineal de estos vectores base.

3. Eigenvalores y Eigenvectores

Los eigenvalores y eigenvectores son conceptos centrales que revelan las direcciones principales de transformación de una matriz.

📖 Definición

Para una matriz A de n×n, un vector no nulo v es un eigenvector con eigenvalor λ si:

$$A\mathbf{v} = \lambda\mathbf{v}$$

3.1 Cálculo de Eigenvalores

Los eigenvalores se obtienen resolviendo la ecuación característica:

$$\det(A - \lambda I) = 0$$

Donde I es la matriz identidad de la misma dimensión que A.

💡 Ejemplo Práctico

Consideremos la matriz:

$$A = \begin{pmatrix} 3 & 1 \\ 1 & 3 \end{pmatrix}$$

La ecuación característica es:

$$\det\begin{pmatrix} 3-\lambda & 1 \\ 1 & 3-\lambda \end{pmatrix} = (3-\lambda)^2 - 1 = 0$$

Resolviendo: λ₁ = 4, λ₂ = 2

3.2 Interpretación Geométrica

Los eigenvectores representan las direcciones principales de la transformación, mientras que los eigenvalores indican cuánto se estira o comprime el espacio en esas direcciones.

4. Descomposición Matricial

La descomposición matricial es una técnica fundamental que expresa una matriz como producto de matrices más simples, revelando estructura interna y simplificando cálculos.

4.1 Descomposición Espectral

Para matrices simétricas, la descomposición espectral es particularmente útil:

$$A = Q\Lambda Q^T$$

Donde Q es una matriz ortogonal cuyos columnas son los eigenvectores normalizados, y Λ es una matriz diagonal con los eigenvalores.

4.2 Descomposición en Valores Singulares (SVD)

La SVD es una generalización poderosa que funciona para cualquier matriz rectangular:

$$A = U\Sigma V^T$$

🎓 Teorema SVD

Toda matriz A de m×n puede descomponerse como A = UΣV^T donde:

  • U: matriz ortogonal m×m
  • Σ: matriz diagonal m×n con valores singulares
  • V: matriz ortogonal n×n

4.3 Descomposición LU

La descomposición LU factoriza una matriz como producto de una matriz triangular inferior (L) y una superior (U):

$$A = LU$$

Esta descomposición es especialmente útil para resolver sistemas de ecuaciones lineales de manera eficiente.

5. Aplicaciones en Machine Learning

El álgebra lineal es fundamental en prácticamente todos los algoritmos de machine learning. Aquí exploramos las aplicaciones más importantes.

5.1 Principal Component Analysis (PCA)

PCA utiliza eigenvalores y eigenvectores para reducir la dimensionalidad de los datos manteniendo la máxima varianza:

🔧 Algoritmo PCA

  1. Centrar los datos: X̃ = X - μ
  2. Calcular la matriz de covarianza: C = (1/n)X̃X̃^T
  3. Encontrar eigenvalores y eigenvectores de C
  4. Ordenar por eigenvalor decreciente
  5. Seleccionar los k primeros eigenvectores

5.2 Regresión Lineal

La regresión lineal se resuelve usando álgebra lineal mediante la ecuación normal:

$$\boldsymbol{\theta} = (X^TX)^{-1}X^T\mathbf{y}$$

Donde X es la matriz de características y y es el vector de valores objetivo.

5.3 Redes Neuronales

En redes neuronales, cada capa realiza una transformación lineal seguida de una función de activación no lineal:

$$\mathbf{h} = f(W\mathbf{x} + \mathbf{b})$$

Donde W es la matriz de pesos, x es la entrada, b es el vector de sesgos, y f es la función de activación.

5.4 Transformaciones Geométricas

Las transformaciones como rotación, escalado y traslación se representan mediante matrices:

💡 Matriz de Rotación 2D

$$R(\theta) = \begin{pmatrix} \cos\theta & -\sin\theta \\ \sin\theta & \cos\theta \end{pmatrix}$$

Esta matriz rota un vector en el plano por un ángulo θ en sentido antihorario.

6. Ejemplos Prácticos

6.1 Compresión de Imágenes con SVD

La SVD permite comprimir imágenes manteniendo la información más importante:

🖼️ Algoritmo de Compresión

  1. Representar la imagen como matriz A
  2. Calcular SVD: A = UΣV^T
  3. Mantener solo los k valores singulares más grandes
  4. Reconstruir: A_k = U_k Σ_k V_k^T

La imagen reconstruida tendrá menor tamaño pero mantendrá las características principales.

6.2 Sistema de Recomendación

Los sistemas de recomendación utilizan factorización matricial para predecir preferencias:

$$R \approx UV^T$$

Donde R es la matriz usuario-ítem, U representa características de usuarios y V características de ítems.

6.3 Análisis de Componentes Independientes (ICA)

ICA separa señales mezcladas encontrando componentes estadísticamente independientes, útil en procesamiento de señales y neurociencia.

7. Conclusión

El álgebra lineal proporciona las herramientas matemáticas fundamentales para:

✅ Próximos pasos

Para profundizar en álgebra lineal aplicada, considera explorar:

  • Métodos numéricos para factorización matricial
  • Álgebra lineal esparsa para big data
  • Tensores y álgebra multilineal
  • Aplicaciones en deep learning y computer vision

🔗 Recursos Recomendados

  • Libros: "Linear Algebra and Its Applications" - Gilbert Strang
  • Herramientas: NumPy, SciPy, MATLAB para implementación práctica
  • Visualización: 3Blue1Brown - Essence of Linear Algebra