10. Apéndice C: ¿Cómo graficar un embedding en una hiperesfera normalizada?#
10.1. 1) Descripción general (definición y marco geométrico)#
Una hiperesfera unitaria en dimensión \(n\) es el conjunto de todos los vectores con norma euclidiana 1:
\(S^{n-1} = \{\, x \in \mathbb{R}^n \mid \|x\| = 1 \,\}\)
Por ejemplo:
Dimensión |
Nombre geométrico |
Ecuación |
Representación |
|---|---|---|---|
1D |
Dos puntos (\(-1\), \(+1\)) |
\(x^2 = 1\) |
🔹🔹 |
2D |
Circunferencia unitaria |
\(x^2 + y^2 = 1\) |
⭕ |
3D |
Esfera unitaria |
\(x^2 + y^2 + z^2 = 1\) |
🟢 |
\(d\)D |
Hiperesfera unitaria |
\(x_1^2 + \cdots + x_d^2 = 1\) |
(no visualizable) |
En el contexto de embeddings, un dato se representa por un vector \(x \in \mathbb{R}^d\). Para comparar por dirección (semántica) y no por magnitud, se normaliza L2 (norma L2 o norma euclideana) y se proyecta sobre la hiperesfera unitaria:
\(\hat{x} = \dfrac{x}{\|x\|}\)
Después de normalizar, se cumple \(\|\hat{x}\| = 1\). Así, la similitud entre embeddings se evalúa por su ángulo sobre la hiperesfera, típicamente vía similitud coseno:
\(\operatorname{sim}(u,v) = \hat{u} \cdot \hat{v} = \cos(\theta)\)
10.2. 2) Flujo práctico para visualizar embeddings#
Normalización L2 por vector: \(\hat{x} = x/\|x\|\).
Reducción de dimensionalidad si \(d > 3\) (PCA/UMAP/t-SNE) para obtener \(x_{\text{proj}} \in \mathbb{R}^3\) o \(\mathbb{R}^2\).
Re-normalización en el espacio reducido para que los puntos queden sobre la esfera/circunferencia unitaria: \(\tilde{x} = x_{\text{proj}}/\|x_{\text{proj}}\|\).
Gráfica: dibujar la esfera/circunferencia unitaria y superponer los puntos \(\tilde{x}\).
(Opcional) Medir proximidad entre embeddings con \(\operatorname{sim}(u,v) = \hat{u} \cdot \hat{v}\) o el ángulo \(\arccos(\hat{u}\cdot\hat{v})\).
Método |
Nombre completo |
Tipo de proyección |
Qué preserva |
|---|---|---|---|
PCA |
Principal Component Analysis |
Lineal |
La varianza global |
UMAP |
Uniform Manifold Approximation and Projection |
No lineal |
La estructura local y global |
t-SNE |
t-Distributed Stochastic Neighbor Embedding |
No lineal |
Las vecindades locales (clústeres) |
Conclusiones de la representación de un embedding \(\mathbb{R}^{n}\)
En términos prácticos, un embedding en \(\mathbb{R}^{64}\) no puede visualizarse directamente.
Para representarlo gráficamente, se aplica una reducción de dimensionalidad, como el Análisis de Componentes Principales (PCA), que transforma los vectores de \(\mathbb{R}^{64}\) en un nuevo espacio de \(\mathbb{R}^3\) conservando la mayor varianza posible.
De este modo, se muestran solo tres componentes —las tres primeras componentes principales— que capturan la estructura dominante del conjunto de embeddings.
Así, cada punto del gráfico tridimensional es una proyección aproximada de su posición original en el espacio de 64 dimensiones.
Proyección sobre la hiperesfera unitaria
La proyeccción sobre la hiperesfera unitaria se denomina normalización L2, también llamada proyección sobre la hiperesfera unitaria o mapa radial, y convierte un vector cualquiera en un vector unitario que conserva su dirección original.
Interpretación geométrica:
El proceso transforma todo el espacio \(\mathbb{R}^d\) (excepto el origen) en la superficie de la esfera \(S^{d-1}\):
Cada punto se proyecta radialmente sobre la superficie, manteniendo su dirección y descartando la magnitud.
10.3. 4) Resumen#
Un embedding \(x\) se proyecta a la hiperesfera unitaria con \(\hat{x} = x/\|x\|\).
Para visualizar embeddings de alta dimensión (\(d>3\)), primero se reduce (PCA/UMAP/t-SNE) y luego se re-normaliza.
La similitud coseno \(\hat{u}\cdot\hat{v}\) (o el ángulo \(\arccos(\hat{u}\cdot\hat{v})\)) es la métrica natural sobre la hiperesfera.