🧠 Tokenización (Tokenization)

Divide un texto en tokens (palabras, caracteres o sub-palabras) como entrada para modelos.

Scroll al inicio