
🧠 Agente Inteligente (Intelligent Agent)
Una entidad autónoma que percibe su entorno a través de sensores y actúa sobre él mediante actuadores para alcanzar sus […]
🧠 Ajuste Fino (Fine-Tuning)
El proceso de tomar un modelo de lenguaje pre-entrenado y re-entrenarlo con un conjunto de datos más pequeño y específico. […]
🧠 Algoritmo (Algorithm)
Un conjunto de reglas o instrucciones paso a paso que se le dan a un ordenador para resolver un problema […]
🧠 Algoritmo Genético (Genetic Algorithm)
Algoritmo de optimización inspirado en la selección natural. Utiliza procesos como mutación y selección para encontrar soluciones óptimas, evolucionando una […]
🧠 Análisis de Sentimiento (Sentiment Analysis)
Técnica de NLP para determinar el tono emocional de un texto (positivo, negativo o neutro). Muy usada en marketing para […]
🧠 Análisis Predictivo (Predictive Analytics)
Uso de datos y algoritmos de machine learning para identificar probabilidades de resultados futuros basándose en históricos. Se usa para […]
🧠 Aprendizaje Automático (Machine Learning – ML)
Subcampo de la IA donde los algoritmos no se programan explícitamente, sino que aprenden a partir de datos. El sistema […]
🧠 Aprendizaje Federado (Federated Learning)
Enfoque de ML donde el modelo se entrena en múltiples dispositivos descentralizados sin que los datos salgan de ellos, mejorando […]
🧠 Aprendizaje no Supervisado (Unsupervised Learning)
Tipo de ML con datos no etiquetados. El algoritmo busca patrones por sí mismo, como agrupar clientes con comportamientos similares […]
🧠 Aprendizaje por Refuerzo (Reinforcement Learning)
Método en el que un agente aprende mediante prueba y error, recibiendo recompensas y castigos, con el objetivo de maximizar […]
🧠 Aprendizaje Profundo (Deep Learning)
Subcampo del ML que usa redes neuronales profundas para reconocer patrones complejos en imágenes, audio y texto; base de los […]
🧠 Aprendizaje Supervisado (Supervised Learning)
El algoritmo se entrena con datos etiquetados por humanos (p. ej., imágenes marcadas como “gato”) para aprender a reconocerlos.
🧠 Árbol de Decisión (Decision Tree)
Modelo supervisado con estructura de árbol; cada rama es una condición y las hojas representan resultados.
🧠 Arquitectura (de Red Neuronal)
Diseño de la red neuronal: número de capas, neuronas por capa y conexiones. La arquitectura condiciona capacidad y rendimiento.
🧠 Atención (Attention Mechanism)
Mecanismo clave en Transformers que pondera la importancia de distintas partes de la entrada, “enfocándose” en lo relevante.
🧠 Aumento de Datos (Data Augmentation)
Técnicas para ampliar artificialmente el conjunto de entrenamiento (rotar, recortar, ruido), mejorando robustez y reduciendo sobreajuste.
🧠 Automatización (Automation)
Uso de tecnología para realizar tareas antes humanas. La IA permite automatizar procesos cognitivos como decisiones o atención al cliente.
🧠 Backpropagation (Retropropagación)
Algoritmo que permite a las redes ajustar pesos a partir del error de predicción, propagándolo hacia atrás por las capas.
🧠 Bayesiano (Enfoque)
Método estadístico basado en el teorema de Bayes que trata la probabilidad como grado de creencia y actualiza con nueva […]
🧠 BERT (Bidirectional Encoder Representations from Transformers)
Modelo de lenguaje de Google que procesa texto en ambas direcciones simultáneamente para entender mejor el contexto.
🧠 Big Data
Conjuntos de datos muy grandes y complejos que requieren nuevas herramientas. IA/ML son clave para analizarlos y extraer valor.
🧠 Caja Negra (Black Box)
Modelos (sobre todo de Deep Learning) cuyo funcionamiento interno es difícil de interpretar para los humanos.
🧠 Capa (Layer)
Conjunto de neuronas que procesan información en bloque. Redes profundas: entrada, varias ocultas y salida.
🧠 Capa Oculta (Hidden Layer)
Capa entre entrada y salida donde ocurre la mayor parte del aprendizaje de características.
🧠 Ciencia de Datos (Data Science)
Disciplina que usa métodos científicos y algoritmos para extraer conocimiento de datos; ML es una herramienta central.
🧠 Clasificación (Classification)
Tarea supervisada que asigna una etiqueta a cada entrada (spam/no spam, perro/gato…).
🧠 Clustering (Agrupamiento)
Tarea no supervisada que agrupa datos en clústeres de alta similitud interna.
🧠 Cognición (Cognition)
Procesos mentales de adquirir conocimiento. La IA busca replicarlos (razonamiento, resolución de problemas…).
🧠 Computación en la Nube (Cloud Computing)
Provisión de servicios informáticos por Internet; fundamental para IA por la capacidad de cómputo y escalado.
🧠 Conjunto de Datos (Dataset)
Colección organizada de datos para entrenar/validar/probar modelos. Calidad y tamaño son cruciales.
🧠 Conjunto de Entrenamiento (Training Set)
Porción del dataset usada para entrenar el modelo.
🧠 Conjunto de Pruebas (Test Set)
Porción separada que se usa tras el entrenamiento para evaluar la generalización.
🧠 Conjunto de Validación (Validation Set)
Porción usada durante el entrenamiento para ajustar hiperparámetros y evitar sobreajuste.
🧠 Corpus
Gran colección de textos para entrenar modelos de NLP (libros, Wikipedia, noticias…).
🧠 Detección de Anomalías (Anomaly Detection)
Identifica elementos que se desvían del patrón esperado (fraude, ciberataques, fallos industriales…).
🧠 Detección de Objetos (Object Detection)
Identifica y localiza objetos en imágenes o vídeo dibujando cuadros alrededor de ellos.
🧠 Ética de la IA (AI Ethics)
Estudia implicaciones morales y sociales: sesgo algorítmico, privacidad, responsabilidad y efectos laborales.
🧠 Explicabilidad (Explainable AI – XAI)
Técnicas para hacer comprensibles las decisiones de modelos complejos. Crucial en ámbitos críticos.
🧠 Extracción de Características (Feature Extraction)
Transforma datos brutos en características numéricas útiles para los modelos.
🧠 Función de Activación (Activation Function)
Función que decide si una neurona se activa, permitiendo aprender relaciones no lineales.
🧠 Función de Coste o Pérdida (Cost/Loss Function)
Mide la discrepancia entre predicción y realidad; el entrenamiento busca minimizarla.
🧠 Generalización (Generalization)
Capacidad de rendir bien con datos nuevos tras entrenar con un conjunto limitado.
🧠 GPT (Generative Pre-trained Transformer)
Familia de LLMs de OpenAI: generativos y pre-entrenados en grandes corpus.
🧠 GPU (Unidad de Procesamiento Gráfico)
Acelera cálculos masivos de Deep Learning, reduciendo tiempos de entrenamiento.
🧠 Gradiente Descendente (Gradient Descent)
Algoritmo de optimización que ajusta parámetros en la dirección que más reduce el error.
🧠 Heurística (Heuristic)
Atajos o reglas prácticas para resolver problemas cuando la solución perfecta es impracticable.
🧠 Hiperparámetro (Hyperparameter)
Parámetro de configuración fijado antes del entrenamiento (tasa de aprendizaje, capas…).
🧠 IA Débil (Weak/Narrow AI)
IA enfocada en tareas específicas; no posee inteligencia general ni conciencia.
🧠 IA Fuerte / IA General (AGI)
Hipotética IA con capacidad cognitiva comparable o superior a la humana en cualquier tarea.
🧠 IA Generativa (Generative AI)
Modelos que crean contenido nuevo (texto, imágenes, música, código) a partir de patrones aprendidos.
🧠 Incrustación de Palabras (Word Embedding)
Representa palabras como vectores; términos similares quedan cercanos en el espacio semántico.
🧠 Inferencia (Inference)
Uso de un modelo ya entrenado para predecir sobre datos nuevos (fase de “uso”).
🧠 Inteligencia Artificial (IA)
Campo dedicado a crear máquinas capaces de realizar tareas que requieren inteligencia humana.
🧠 Inteligencia Artificial Simbólica (Symbolic AI)
Enfoque clásico basado en símbolos y reglas lógicas explícitas programadas por expertos.
🧠 IoT (Internet de las Cosas)
Red de objetos con sensores y software conectados a Internet; la IA analiza sus datos para actuar.
🧠 Lematización (Lemmatization)
Reduce una palabra a su lema teniendo en cuenta el contexto (a diferencia del stemming).
🧠 LLM (Large Language Model)
Modelo de lenguaje entrenado con grandes cantidades de texto para comprender y generar lenguaje humano.
🧠 LSTM (Long Short-Term Memory)
Tipo de RNN capaz de “recordar” durante más tiempo; útil en texto y series temporales.
🧠 Markov (Cadena de)
Modelo donde cada evento depende solo del estado inmediatamente anterior; útil en secuencias.
🧠 Minería de Datos (Data Mining)
Descubre patrones y correlaciones en grandes datos combinando estadísticas, BBDD e IA.
🧠 Modelo (Model)
Resultado del entrenamiento de un algoritmo; contiene el “conocimiento” aprendido para predecir.
🧠 N-grama (N-gram)
Secuencia contigua de n elementos (palabras, letras). Útil en modelos de lenguaje.
🧠 Neurona (Artificial)
Unidad básica de una red neuronal; aplica función de activación a sus entradas y produce una salida.
🧠 NLP (Procesamiento del Lenguaje Natural)
Interacción entre ordenadores y lenguaje humano: entender, interpretar y generar texto/voz.
🧠 Nube Neuronal (Neural Cloud)
Infraestructura de nube optimizada para cargas de IA (entrenamiento e inferencia).
🧠 OCR (Reconocimiento Óptico de Caracteres)
Convierte imágenes o PDFs de texto en texto editable y buscable.
🧠 Parámetro (Parameter)
Valores internos que el modelo aprende durante el entrenamiento (p. ej., pesos en redes).
🧠 Perceptrón (Perceptron)
Red neuronal más simple (clasificador binario); base de arquitecturas más complejas.
🧠 Poda (Pruning)
Reduce tamaño del modelo eliminando parámetros o conexiones poco importantes, ganando eficiencia.
🧠 Prompt
Instrucción o texto inicial que se da a un modelo generativo. Su calidad determina la salida.
🧠 Prompt Engineering
Diseño de prompts efectivos para guiar modelos generativos hacia mejores resultados.
🧠 Reconocimiento de Entidades Nombradas (NER)
Localiza y clasifica entidades (personas, organizaciones, lugares, fechas, etc.) en un texto.
🧠 Reconocimiento de Imágenes (Image Recognition)
Identifica y clasifica objetos, personas, lugares y acciones en imágenes.
🧠 Reconocimiento de Patrones (Pattern Recognition)
Identifica regularidades y estructuras en datos; base de aplicaciones como reconocimiento facial.
🧠 Reconocimiento del Habla (Speech Recognition)
Convierte voz hablada en texto; base de asistentes como Siri, Alexa o Google Assistant.
🧠 Red Generativa Antagónica (GAN)
Dos redes compiten: un generador crea datos y un discriminador intenta detectarlos; así el generador mejora.
🧠 Red Neuronal Artificial (RNA)
Modelo inspirado en el cerebro; neuronas interconectadas en capas que aprenden de los datos.
🧠 Red Neuronal Convolucional (CNN)
Red especializada en datos visuales (imágenes). Muy eficaz en clasificación y detección.
🧠 Red Neuronal Recurrente (RNN)
Red para datos secuenciales; mantiene “memoria” de pasos anteriores.
🧠 Regresión (Regression)
Tarea supervisada para predecir valores numéricos continuos (p. ej., precio de una casa).
🧠 Robótica (Robotics)
Diseño, construcción y uso de robots. La IA aporta el “cerebro” para percibir, razonar y actuar.
🧠 Segmentación de Imágenes (Image Segmentation)
Divide una imagen en segmentos asignando cada píxel a una categoría.
🧠 Sesgo (Bias)
Tendencia de un algoritmo a producir resultados prejuiciosos por datos o supuestos sesgados.
🧠 Sesgo Algorítmico (Algorithmic Bias)
Variante de “Sesgo” centrada en efectos producidos por el propio sistema; véase la entrada «Sesgo (Bias)».
🧠 Singularidad Tecnológica (Technological Singularity)
Hipótesis de un punto en que el crecimiento tecnológico se vuelve incontrolable, con cambios imprevisibles.
🧠 Sistema de Recomendación (Recommendation System)
Predice preferencias de usuarios (Netflix, Amazon, Spotify) para sugerir contenidos o productos.
🧠 Sistema Experto (Expert System)
Programa clásico que emula decisiones de un experto en un dominio usando reglas y base de conocimiento.
🧠 Sobreajuste (Overfitting)
Cuando el modelo aprende el ruido del entrenamiento y falla al generalizar a datos nuevos.
🧠 Stemming
Reduce palabras a su raíz eliminando sufijos; más simple que la lematización y a veces menos preciso.
🧠 Stop Words (Palabras Vacías)
Palabras muy comunes (“el”, “un”, “en”) que a menudo se eliminan por aportar poco significado.
🧠 Subajuste (Underfitting)
Modelo demasiado simple para la complejidad de los datos; rinde mal en entrenamiento y prueba.
🧠 Tasa de Aprendizaje (Learning Rate)
Hiperparámetro que controla el tamaño de los pasos al ajustar pesos en cada iteración.
🧠 Tensor
Estructura de datos multidimensional (generaliza vectores y matrices) clave en Deep Learning.
🧠 TensorFlow
Biblioteca de ML/DL de Google para construir, entrenar y desplegar modelos a gran escala.
🧠 Test de Turing (Turing Test)
Prueba de Alan Turing para valorar si una máquina exhibe comportamiento indistinguible del humano.
🧠 Tokenización (Tokenization)
Divide un texto en tokens (palabras, caracteres o sub-palabras) como entrada para modelos.
🧠 Traducción Automática (Machine Translation)
Traduce texto o voz entre idiomas con IA; los Transformers han elevado mucho su calidad.
🧠 Transferencia de Estilo (Style Transfer)
Aplica el estilo artístico de una imagen al contenido de otra mediante redes neuronales.
🧠 Transformer
Arquitectura que revolucionó el NLP con su mecanismo de atención para capturar contexto de forma eficaz.
🧠 Visión por Computadora (Computer Vision)
Entrena máquinas para interpretar el mundo visual: identificar y clasificar objetos y reaccionar a lo que ven.