🧠 Atención (Attention Mechanism)

Mecanismo clave en Transformers que pondera la importancia de distintas partes de la entrada, “enfocándose” en lo relevante.

Scroll al inicio