Introducción a las Derivadas Parciales

Conceptos fundamentales sobre derivadas parciales y su aplicación en optimización de funciones multivariables

1. Introducción

Las derivadas parciales son una extensión natural del concepto de derivada para funciones de múltiples variables. Mientras que la derivada ordinaria nos dice cómo cambia una función respecto a su única variable independiente, las derivadas parciales nos permiten analizar cómo cambia una función multivariable respecto a cada una de sus variables, manteniendo las demás constantes.

💡 ¿Por qué son importantes?

Las derivadas parciales son fundamentales en:

  • Machine Learning: Para entrenar modelos mediante gradiente descendente
  • Física: Para describir campos y fenómenos espaciales
  • Economía: Para análisis de sensibilidad en modelos econométricos
  • Optimización: Para encontrar máximos y mínimos de funciones complejas

2. Definición Formal

Sea $f(x, y)$ una función de dos variables. La derivada parcial de $f$ respecto a $x$ se define como:

$$\frac{\partial f}{\partial x} = \lim_{h \to 0} \frac{f(x+h, y) - f(x, y)}{h}$$

De manera similar, la derivada parcial respecto a $y$ es:

$$\frac{\partial f}{\partial y} = \lim_{h \to 0} \frac{f(x, y+h) - f(x, y)}{h}$$

⚠️ Notación importante

Observa que usamos el símbolo $\partial$ (parcial) en lugar de $d$ (diferencial). Esto indica que estamos derivando respecto a una variable mientras mantenemos las otras constantes.

3. Interpretación Geométrica

Geométricamente, la derivada parcial $\frac{\partial f}{\partial x}$ en un punto $(a, b)$ representa la pendiente de la recta tangente a la curva que se obtiene al cortar la superficie $z = f(x, y)$ con el plano $y = b$.

🎯 Ejemplo Visual

Imagina que tienes una colina representada por $z = f(x, y)$. Si caminas en la dirección del eje $x$ (manteniendo $y$ constante), la derivada parcial $\frac{\partial f}{\partial x}$ te dice qué tan empinada es la colina en esa dirección específica.

4. Cálculo de Derivadas Parciales

Para calcular derivadas parciales, aplicamos las reglas usuales de derivación, tratando las otras variables como constantes.

Reglas Básicas

5. Ejemplos Prácticos

📝 Ejemplo 1: Función Polinomial

Sea $f(x, y) = x^3 + 2xy^2 + y^3$. Calculemos sus derivadas parciales:

$$\frac{\partial f}{\partial x} = 3x^2 + 2y^2$$ $$\frac{\partial f}{\partial y} = 4xy + 3y^2$$

Procedimiento:

  • Para $\frac{\partial f}{\partial x}$: derivamos respecto a $x$, tratando $y$ como constante
  • Para $\frac{\partial f}{\partial y}$: derivamos respecto a $y$, tratando $x$ como constante
📝 Ejemplo 2: Función Exponencial

Sea $f(x, y) = e^{xy} + \sin(x) \cos(y)$. Las derivadas parciales son:

$$\frac{\partial f}{\partial x} = ye^{xy} + \cos(x)\cos(y)$$ $$\frac{\partial f}{\partial y} = xe^{xy} - \sin(x)\sin(y)$$

Implementación en Python

Podemos usar la biblioteca SymPy para calcular derivadas parciales simbólicamente:

import sympy as sp import numpy as np # Definir variables simbólicas x, y = sp.symbols('x y') # Definir la función f = x**3 + 2*x*y**2 + y**3 # Calcular derivadas parciales df_dx = sp.diff(f, x) df_dy = sp.diff(f, y) print(f"∂f/∂x = {df_dx}") print(f"∂f/∂y = {df_dy}") # Evaluar en un punto específico punto = {x: 1, y: 2} print(f"∂f/∂x en (1,2) = {df_dx.subs(punto)}") print(f"∂f/∂y en (1,2) = {df_dy.subs(punto)}")

6. Aplicaciones

6.1 Optimización

Las derivadas parciales son esenciales para encontrar puntos críticos de funciones multivariables. Un punto $(a, b)$ es crítico si:

$$\frac{\partial f}{\partial x}(a, b) = 0 \quad \text{y} \quad \frac{\partial f}{\partial y}(a, b) = 0$$

6.2 Gradiente Descendente

En machine learning, el gradiente (vector de derivadas parciales) indica la dirección de mayor crecimiento de la función de costo. El algoritmo de gradiente descendente se mueve en la dirección opuesta:

$$\theta_{new} = \theta_{old} - \alpha \nabla f(\theta)$$

donde $\nabla f = \left(\frac{\partial f}{\partial \theta_1}, \frac{\partial f}{\partial \theta_2}, \ldots\right)$

🤖 Aplicación en Machine Learning

En regresión lineal, minimizamos la función de costo:

$$J(\theta_0, \theta_1) = \frac{1}{2m}\sum_{i=1}^m (h_\theta(x^{(i)}) - y^{(i)})^2$$

Las derivadas parciales respecto a los parámetros nos dan la dirección para actualizar los pesos.

6.3 Análisis de Sensibilidad

En economía y finanzas, las derivadas parciales miden cómo cambia una variable de salida ante pequeños cambios en las variables de entrada, manteniendo todo lo demás constante.

7. Conclusión

Las derivadas parciales son una herramienta fundamental para el análisis de funciones multivariables. Su comprensión es esencial para:

✅ Próximos pasos

Ahora que comprendes las derivadas parciales, puedes explorar:

  • Derivadas parciales de orden superior
  • Regla de la cadena para funciones compuestas
  • Aplicaciones en optimización con restricciones
  • Ecuaciones diferenciales parciales