Embedding

¿Qué es embedding?

Un embedding es una representación numérica de palabras, frases o textos que captura su significado semántico, permitiendo que modelos de IA trabajen con lenguaje de forma más eficiente.

Definición extensa:

Un embedding es una forma de traducir texto a vectores de números que reflejan el significado semántico de ese texto. Por ejemplo, las palabras «perro» y «can» tendrán embeddings similares, mientras que «perro» y «tornillo» estarán lejos en ese espacio vectorial. Estos vectores permiten a los modelos de IA como GPT-4 entender relaciones entre conceptos y realizar búsquedas semánticas. El uso de embeddings se masificó con técnicas como Word2Vec (2013), GloVe (2014) y más tarde con modelos como BERT y GPT. Hoy son fundamentales para aplicaciones como motores de recomendación, búsqueda semántica y sistemas RAG.

Referencias:

jalammar.github.io; Google.com

Scroll al inicio