🧠 BERT (Bidirectional Encoder Representations from Transformers)
Modelo de lenguaje de Google que procesa texto en ambas direcciones simultáneamente para entender mejor el contexto.
Modelo de lenguaje de Google que procesa texto en ambas direcciones simultáneamente para entender mejor el contexto.
Método estadístico basado en el teorema de Bayes que trata la probabilidad como grado de creencia y actualiza con nueva
Algoritmo que permite a las redes ajustar pesos a partir del error de predicción, propagándolo hacia atrás por las capas.
Uso de tecnología para realizar tareas antes humanas. La IA permite automatizar procesos cognitivos como decisiones o atención al cliente.
Técnicas para ampliar artificialmente el conjunto de entrenamiento (rotar, recortar, ruido), mejorando robustez y reduciendo sobreajuste.
Mecanismo clave en Transformers que pondera la importancia de distintas partes de la entrada, “enfocándose” en lo relevante.
Diseño de la red neuronal: número de capas, neuronas por capa y conexiones. La arquitectura condiciona capacidad y rendimiento.
Modelo supervisado con estructura de árbol; cada rama es una condición y las hojas representan resultados.
El algoritmo se entrena con datos etiquetados por humanos (p. ej., imágenes marcadas como “gato”) para aprender a reconocerlos.
Subcampo del ML que usa redes neuronales profundas para reconocer patrones complejos en imágenes, audio y texto; base de los