Diccionario de Inteligencia Artificial PDF - TN University
Document Details

Uploaded by QuietXylophone1314
University of Tennessee
2024
Alfonso Humberto Ruelas Ramos
Tags
Related
- Inteligencia Artificial para el Modelado Híbrido en Craqueo Catalítico Fluido (FCC) PDF
- Técnicas de Inteligencia Artificial PDF
- Técnicas de Inteligencia Artificial - Introducción - Tema 1 - PDF
- Técnicas de Inteligencia Artificial - Árboles de Decisión - PDF
- La Inteligencia Artificial como Herramienta en la Segmentación de Mercado PDF
- Inteligencia Artificial en la Educación (2024) PDF
Summary
Este diccionario de Inteligencia Artificial, publicado en marzo de 2024 por TN Editorial, ofrece 100 conceptos clave que definen la IA moderna. Dirigido a estudiantes y profesionales, proporciona una visión completa de algoritmos, software y herramientas esenciales para comprender los avances tecnológicos.
Full Transcript
DICCIONARIO SOBRE INTELIGENCIA ARTIFICIAL 100 conceptos claves sobre sistemas inteligentes Cuadernos IA 1 Rector M.D.N. Alfonso Humberto Ruelas Ramos Secretario General Dr. Samuel Rivera Gutiérrez Coordinación Académica Mtra. Diana Jazmín Acuña Contreras Co...
DICCIONARIO SOBRE INTELIGENCIA ARTIFICIAL 100 conceptos claves sobre sistemas inteligentes Cuadernos IA 1 Rector M.D.N. Alfonso Humberto Ruelas Ramos Secretario General Dr. Samuel Rivera Gutiérrez Coordinación Académica Mtra. Diana Jazmín Acuña Contreras Control Escolar Mtra. Miriam Miranda Chávez Coordinación Editorial Mtro. Josué Barrera Sarabia Diseño Editorial Lic. Michel Baez Lara Primera edición: marzo de 2024. Diccionario sobre inteligencia artificial tiene el objetivo de difundir un glosario con 100 conceptos claves sobre sistemas inteligentes. D. R. ©TN University 2024. TN Editorial. Marzo de 2024. No. 2 de Cuadernos IA. Cuadernos IA es una colección de libros digitales escritos con apoyo de Inteligencia Artificial y de acceso libre, que tiene una finalidad práctica y educativa sobre temas tecnológicos sin fines de lucro. El cuidado de la edición es de Josué Barrera Sarabia. E-mail: [email protected] www.tnuniversity.edu.mx/editorial https://creativecommons.org/licenses/by-nc-sa/4.0/ Diccionario sobre inteligencia artificial tiene licencia CC BY-NC 4.0. por TN Editorial. Página 4 Presentación A Índice Página 5 Página 6 B Pulse sobre la letra a la que desee ir. Página 7 C Página 8 D Página 9 E Página 10 F Página 11 G Página 12 H Página 13 I Página 14 J Página 15 K Página 16 L Página 17 M Página 18 N Página 19 O Página 20 P Página 21 Q Página 22 R Página 23 S Página 24 T Página 25 U Página 26 V Página 27 W Página 28 X Página 29 YZ Este diccionario cuenta con vinculación entre sus conceptos para facilitar la lectura y la cohesión de su contenido. Utilice los textos remarcados para una mejor comprensión lectora. Presentación El presente diccionario ofrece una visión completa y accesible de 100 conceptos clave que definen la Inteligencia Artificial en la actualidad, desde algoritmos de aprendizaje automáticos hasta software y herramientas que se utilizan en centros educativos. Con el crecimiento exponencial de la tecnología y su impacto en nuestras vidas, entender la IA se ha vuelto más importante que nunca. Tanto para un estudiante como para un profesional o cualquier interesado en la tecnología, este diccionario proporcionará el conocimiento necesario para comprender y participar en las conversaciones actuales sobre avances tecnológicos. Una de las ventajas de este diccionario es que se puede consultar en cualquier dispositivo inteligente, lo que brinda una experiencia única de lectura y exploración. A través del presente libro, TN University sigue proporcionando publicaciones de acceso abierto para fomentar el conocimiento y difundir el aprendizaje. Mtro. Alfonso Humberto Ruelas Ramos Rector de TN University A resultado deseado. Los algoritmos son utilizados en diversas áreas, desde las matemáticas y la informática hasta la ingeniería y la inteligencia artificial, y pueden ser expresados en diferentes formas, como diagramas de flujo, pseudocódigo o en lenguajes de programación. La eficiencia y la claridad en la definición de un Adversarial Network algoritmo son fundamentales para Es un concepto amplio que implica el garantizar su correcta implementación y uso de una red neuronal para modelar la comprensión. relación entre datos y etiquetas. En este contexto, la red neural es entrenada Aprendizaje Automático para aprender la relación entre los (Machine Learning) datos de entrada y las etiquetas Es un componente fundamental de deseadas, utilizando un enfoque la inteligencia artificial que permite competitivo para mejorar la precisión a las máquinas aprender patrones y de la clasificación. La red más común mejorar su rendimiento sin intervención es la llamada Generative Adversial humana explícita. Utiliza algoritmos Network, que por sus siglas también que permiten a las máquinas reconocer se conoce como GAN. Se utiliza para patrones en datos y tomar decisiones generar datos nuevos y realistas, como basadas en estos patrones, mejorando imágenes, sonidos o texto. Consta de su desempeño con la experiencia. dos redes neuronales enfrentadas entre sí: el generador y el discriminador. El Autoencoder generador crea datos falsos, mientras Es una red neuronal utilizada para que el discriminador intenta distinguir la reducción de dimensionalidad* y entre datos reales y falsos. Ambas la generación de datos. Consiste en redes se entrenan de forma adversarial, una arquitectura simétrica en la que lo que significa que el generador mejora la entrada y la salida son similares, y constantemente su capacidad para cuenta con una capa interna llamada generar datos realistas mientras que el “código latente”. Es útil para aprender discriminador mejora su capacidad para representaciones compactas de datos detectar datos falsos. y para la generación de nuevos datos similares a los de entrada. Algoritmo Conjunto finito de instrucciones precisas y bien definidas que describe un proceso o procedimiento para resolver un problema o llevar a cabo una tarea específica. Estas instrucciones son paso a paso y deben ser ejecutadas *Dimensionalidad. Dimensionalidad o reducción de la dimensión es el proceso de reducción del número de variables aleatorias en un orden específico para lograr el que se trate. 5 B obtienen promediando o votando entre los modelos individuales. Bias (Sesgo) En el contexto de aprendizaje automático, se refiere al prejuicio en los datos de entrenamiento que afecta la objetividad del modelo. Puede surgir de diversas fuentes, como la selección Backpropagation de datos sesgada, y puede resultar en Es un algoritmo utilizado en el decisiones o predicciones inexactas y entrenamiento de redes neuronales. discriminatorias. Consiste en ajustar los pesos de la red en función de la diferencia entre Big Data la salida predicha y la salida deseada. El manejo y análisis de conjuntos Se realiza en sentido contrario a través de datos masivos que superan la de la red, calcula gradientes y utiliza capacidad de las herramientas técnicas de optimización para minimizar tradicionales de procesamiento de el error y mejorar el rendimiento de la datos se denomina “Big Data”. Este red durante el entrenamiento. concepto implica el uso de tecnologías específicas para almacenar, gestionar Bagging y analizar grandes volúmenes de datos Técnica de ensamble en aprendizaje provenientes de diversas fuentes. El automático que combina múltiples objetivo fundamental del análisis de modelos para mejorar estabilidad y Big Data es extraer insights valiosos, precisión. Se crean varios conjuntos identificar patrones complejos y obtener de datos de entrenamiento mediante conocimientos significativos que de otra muestreo bootstrap, luego se manera podrían pasar desapercibidos. entrena un modelo en cada conjunto. Finalmente, las predicciones se C Chatbot Programa de computadora diseñado para simular conversaciones humanas a través de medios digitales. Utiliza algoritmos de generación de lenguaje natural (NLG) para comprender y responder a las consultas de los usuarios de manera automática. Los chatbots pueden ser utilizados en una Capsule variedad de aplicaciones, como servicio En el contexto de Capsule Networks, al cliente, asistencia en línea, ventas y una cápsula es una unidad de entretenimiento. procesamiento fundamental. Cada cápsula está diseñada para capturar Clasificación y representar una característica Es una tarea fundamental en el específica de un objeto en la imagen. aprendizaje automático, que implica La información se organiza de asignar una etiqueta o categoría a manera jerárquica, permitiendo una un conjunto de datos basado en sus representación más robusta y precisa características. Por ejemplo, en un de las relaciones entre características conjunto de datos de imágenes de en comparación con las arquitecturas animales, la tarea de clasificación podría convencionales. ser asignar cada imagen a una categoría específica, como “perro”, “gato” o Capsule Network “pájaro”. Los algoritmos de clasificación Tipo de arquitectura de red neuronal aprenden patrones a partir de los datos diseñada para superar limitaciones de entrenamiento y luego aplican estos de las Convolutional Neural Networks patrones para predecir la categoría de (CNN). Introduce “cápsulas”, unidades nuevos datos. de procesamiento, que capturan información jerárquica y relaciones espaciales entre características en una imagen. Esta arquitectura busca mejorar la interpretación de las relaciones espaciales en datos complejos. 7 D Deep Q-Network (DQN) Es una arquitectura de red neuronal utilizada en el aprendizaje por refuerzo, específicamente en el algoritmo de Q-learning profundo. DQN combina redes neuronales profundas con el algoritmo Q-learning para aprender a tomar decisiones óptimas en entornos complejos y dinámicos. Este enfoque Data Augmentation ha sido especialmente exitoso en También conocido como aumento aplicaciones de juegos de video, de datos, es una técnica utilizada donde los agentes de aprendizaje en el aprendizaje automático para pueden aprender a jugar juegos como aumentar el tamaño del conjunto Atari de manera autónoma a partir de datos mediante la aplicación de de la observación de la pantalla y la transformaciones a los datos existentes. retroalimentación de recompensa. Estas transformaciones pueden incluir rotaciones, traslaciones, zoom, volteos, Dendrograma cambios en el brillo, entre otros. El Es una representación gráfica de objetivo de la data augmentation los resultados de un análisis de es mejorar la generalización y el agrupamiento jerárquico en datos. rendimiento del modelo al proporcionar En este tipo de análisis, los datos más variedad en los datos de se agrupan en clústeres* o grupos entrenamiento, lo que ayuda a prevenir en función de sus similitudes. El el sobreajuste. dendrograma muestra la estructura jerárquica de estos clústeres, donde Deep Learning los elementos más similares se También conocido como aprendizaje agrupan juntos en niveles inferiores profundo, es un subcampo del del dendrograma, mientras que aprendizaje automático que se basa los elementos menos similares se en redes neuronales artificiales agrupan en niveles superiores. Es para realizar tareas complejas de una herramienta útil para visualizar la procesamiento de datos. A diferencia de estructura de los datos y comprender los modelos de aprendizaje automático las relaciones entre los elementos. tradicionales, que pueden tener una o dos capas ocultas, las redes neuronales profundas pueden tener múltiples capas ocultas, lo que les permite aprender representaciones jerárquicas de los datos. Esto hace que el deep learning sea especialmente eficaz en tareas como reconocimiento de imágenes, procesamiento de lenguaje natural y *Clúster. Un clúster se refiere a un grupo o conjunto de datos que reconocimiento de voz. comparten características similares entre sí. 8 E Evolutionary Algorithms Son métodos de optimización inspirados en los principios de la evolución biológica, como la selección natural y la reproducción. Estos algoritmos generan una población inicial de soluciones candidatas y aplican operadores de selección, cruce y mutación para evolucionar y mejorar las soluciones a Ensamble lo largo de múltiples generaciones. Se Es una técnica en el aprendizaje utilizan en una variedad de aplicaciones automático que combina múltiples de optimización, como diseño de modelos individuales para mejorar el sistemas, ingeniería, finanzas y rendimiento predictivo. Los modelos aprendizaje automático. individuales pueden ser del mismo tipo o de tipos diferentes. Al combinar las Explainable AI (XAI) predicciones de múltiples modelos, Es un enfoque de IA que busca hacer el ensamble puede reducir el sesgo y que los modelos de inteligencia la varianza, lo que lleva a un modelo artificial sean más comprensibles y más robusto y generalizable. Algunos transparentes para los humanos. Esto métodos comunes de ensamble implica desarrollar técnicas y métodos incluyen el bagging, boosting y la que expliquen cómo funciona un modelo combinación de modelos por voto. de IA, cómo llega a sus decisiones y qué características de los datos Ética de la IA influyen en esas decisiones. La XAI es Se refiere a los principios y normas importante para mejorar la confianza éticas que guían el desarrollo, la en los sistemas de IA, permitiendo que implementación y el uso de la IA. los usuarios comprendan y verifiquen el Esto incluye consideraciones sobre razonamiento detrás de las decisiones la equidad, transparencia, privacidad, automatizadas. seguridad, responsabilidad y el impacto social de los sistemas de IA. La ética de la IA busca garantizar que la tecnología se utilice de manera ética y responsable, teniendo en cuenta sus posibles implicaciones para los individuos, las comunidades y la sociedad en su conjunto. 9 F Función de Activación Función matemática que se aplica a la salida de una neurona en una red neuronal artificial. Esta función determina si una neurona debe activarse o no en función de su entrada ponderada y un umbral. Las funciones de activación comunes incluyen la función sigmoide, la función ReLU Federated Learning (Rectified Linear Unit), la función Es un modelo de aprendizaje tangente hiperbólica, entre otras. colaborativo donde el modelo de inteligencia artificial se entrena en Fuzzy Logic dispositivos locales, como teléfonos La lógica difusa es un sistema que móviles o dispositivos IoT, en lugar de maneja la incertidumbre en los datos, enviar datos a un servidor centralizado. permitiendo representar y manipular En lugar de entrenar el modelo conceptos vagos o imprecisos. A con datos centralizados, se envían diferencia de la lógica tradicional, que algoritmos de aprendizaje al dispositivo, opera con valores binarios (verdadero/ donde se entrena el modelo localmente. falso), la lógica difusa permite la Luego, los modelos locales se combinan representación de grados de verdad, para crear un modelo global actualizado. lo que la hace útil en situaciones donde Este enfoque permite el entrenamiento las decisiones deben tomarse en de modelos sin comprometer la condiciones inciertas o ambiguas. privacidad de los datos, ya que los datos permanecen en el dispositivo del usuario. FLOPS (Floating Point Operations Per Second) Medida de rendimiento que indica la cantidad de operaciones de punto flotante que un procesador o sistema puede realizar por segundo. Es una medida comúnmente utilizada para evaluar el rendimiento de las unidades de procesamiento en tareas que implican cálculos numéricos intensivos, como el entrenamiento de modelos de inteligencia artificial. 10 G GPT (Generative Pre-trained Transformer) Modelo de lenguaje de inteligencia artificial de última generación desarrollado por OpenAI. Utiliza la arquitectura de transformer y se entrena en grandes conjuntos de datos para generar texto de manera autónoma. GPT ha demostrado un rendimiento Gaussian Mixture Model (GMM) sobresaliente en una variedad de tareas Es un modelo estadístico utilizado de procesamiento de lenguaje natural, para describir la distribución de datos como generación de texto, traducción como una combinación de varias automática y respuesta a preguntas. distribuciones gaussianas (normales). Cada componente del modelo Gradient Descent representa una distribución gaussiana, Algoritmo de optimización utilizado y los datos se generan a partir de una para minimizar una función de pérdida combinación de estas distribuciones. en el entrenamiento de modelos de aprendizaje automático. El algoritmo Gaussian Process funciona ajustando iterativamente los Modelo estadístico utilizado para parámetros del modelo en la dirección modelar funciones probabilísticas, opuesta al gradiente de la función de donde se asume que la función pérdida, lo que permite encontrar los observada es una muestra de una valores óptimos de los parámetros que distribución gaussiana multivariada. minimizan la pérdida. Los procesos gaussianos son útiles en problemas de regresión no lineales, donde se necesita estimar la incertidumbre asociada con las predicciones. H Hierarchical Clustering (Agrupamiento Jerárquico) Método de agrupamiento que crea jerarquías de clústeres. En este enfoque, los datos se agrupan en función de su similitud, y los clústeres se organizan en una estructura de árbol o dendrograma. Hay dos tipos principales de agrupamiento jerárquico: Hadoop aglomerativo, donde cada observación Marco de software de código abierto comienza en su propio clúster y se utilizado para el procesamiento y fusionan gradualmente, y divisivo, almacenamiento distribuido de grandes donde todos los datos comienzan en un conjuntos de datos en clústeres solo clúster y se dividen en clústeres de computadoras. Proporciona una más pequeños. Este enfoque es útil plataforma para el procesamiento para explorar la estructura de los datos paralelo de datos a través de su sistema y visualizar relaciones de similitud entre de archivos distribuido (HDFS) y el observaciones. marco de procesamiento distribuido MapReduce. Hadoop es ampliamente Hiperparámetro utilizado en aplicaciones de big data y Parámetro que se configura antes del análisis de datos a gran escala. entrenamiento del modelo y afecta el proceso de aprendizaje, pero no Heurística se aprende automáticamente del Regla práctica o método de solución conjunto de datos. Los hiperparámetros de problemas que no garantiza una controlan aspectos como la complejidad solución óptima, pero que a menudo del modelo, la velocidad de aprendizaje es efectiva en la práctica. En el y la regularización. Algunos ejemplos contexto de la inteligencia artificial, las comunes de hiperparámetros incluyen heurísticas se utilizan en algoritmos de la tasa de aprendizaje en redes búsqueda y optimización para guiar la neuronales, el número de árboles en un exploración del espacio de soluciones modelo de bosque aleatorio y el valor de en busca de una solución satisfactoria K en el algoritmo de vecinos más cercanos en un tiempo razonable. Las heurísticas (K-nearest Neighbors). son particularmente útiles en problemas complejos donde encontrar una solución óptima es computacionalmente costoso o impracticable. 12 I Inception Network Arquitectura de red neuronal profunda diseñada para mejorar la eficiencia computacional y el rendimiento en tareas de visión por computadora, como la clasificación de imágenes. Esta arquitectura utiliza módulos de convolución múltiple con diferentes tamaños de filtro en paralelo para IA Débil/Fuerte capturar características a diferentes Se refiere a sistemas de IA diseñados escalas. La Inception Network ha sido para realizar tareas específicas dentro utilizada con éxito en competiciones de de un dominio limitado, mientras que reconocimiento de imágenes, como el la inteligencia artificial fuerte se refiere desafío ImageNet. a sistemas de IA con la capacidad de razonar, aprender y resolver problemas Inferencia Estadística en múltiples dominios de manera similar Proceso de extraer conclusiones a los humanos. La IA débil está más o hacer predicciones sobre una enfocada en tareas específicas y no población basándose en muestras busca replicar la inteligencia humana en de datos observados. Esto implica su totalidad, mientras que la IA fuerte estimar parámetros desconocidos, aspira a alcanzar o superar el nivel probar hipótesis y hacer predicciones de inteligencia humana en todas sus utilizando métodos estadísticos. La formas. inferencia estadística juega un papel fundamental en el análisis de datos y la Imbalanced Dataset toma de decisiones basada en evidencia Conjunto de datos desbalanceado en una amplia gama de disciplinas. es aquel donde las clases tienen cantidades significativamente diferentes de ejemplos. Esto puede ocurrir en situaciones donde una clase es mucho más común que otras, lo que puede sesgar el rendimiento del modelo hacia la clase dominante. Manejar conjuntos de datos desbalanceados es importante en el aprendizaje automático para evitar que el modelo ignore las clases minoritarias y tome decisiones sesgadas. 13 J Juego Estratégico Aplicaciones de la inteligencia artificial en juegos que involucran toma de decisiones y estrategia, como el ajedrez, el Go y el póker. Estos juegos son desafiantes para los sistemas de IA debido a la complejidad de las opciones y las posibles acciones que pueden tomar los jugadores. Los avances Jaccard Index en la inteligencia artificial en juegos Métrica utilizada para medir la similitud estratégicos han llevado a la creación entre dos conjuntos de datos. Se calcula de programas que pueden competir e dividiendo el tamaño de la intersección incluso superar a los mejores jugadores de los conjuntos entre el tamaño de humanos en ciertos juegos. la unión de los conjuntos. El índice de Jaccard proporciona una medida de la Jupyter Notebook similitud entre los conjuntos, donde un Entorno interactivo para la creación valor de 1 indica una similitud perfecta y y compartición de documentos un valor de 0 indica ninguna similitud. que contienen código, texto y visualizaciones. Permite a los usuarios Jacobian Matrix escribir y ejecutar código en bloques Matriz de derivadas parciales que se individuales llamados “celdas”, lo utiliza en cálculos relacionados con que facilita la exploración de datos, funciones vectoriales. En el contexto la experimentación con algoritmos y de las redes neuronales, la matriz la presentación de resultados en un Jacobiana se utiliza para calcular las formato interactivo y colaborativo. derivadas de las salidas del modelo con Jupyter Notebook es ampliamente respecto a sus entradas y parámetros. utilizado en ciencia de datos, educación Esto es útil en el entrenamiento de en informática y desarrollo de software. redes neuronales y en problemas de optimización. K Kernel Trick Técnica utilizada en aprendizaje automático para transformar datos en un espacio de características de mayor dimensión donde los datos son más fácilmente separables. Esta transformación permite que algoritmos de aprendizaje lineal, como el SVM (Support Vector Machine), puedan K-means realizar clasificaciones no lineales al K-means es un algoritmo de clustering introducir una función de kernel que utilizado en el campo del aprendizaje no calcula productos internos en el espacio supervisado. El objetivo del algoritmo de características transformado. es agrupar un conjunto de datos en K clústeres (donde K es un número Knowledge Graph predefinido de clústeres) basados en Representación gráfica de la similitud de las observaciones entre conocimientos y relaciones entre sí. El algoritmo asigna inicialmente entidades en forma de nodos y bordes. K centroides de manera aleatoria y Estos grafos capturan información luego asigna cada punto de datos al estructurada y semántica sobre un centroide más cercano. Los centroides dominio específico y se utilizan para se recalculan repetidamente y los realizar inferencias y responder puntos se reasignan a los centroides consultas complejas. Los grafos de más cercanos hasta que se alcanza la conocimiento son utilizados en una convergencia. Es ampliamente utilizado variedad de aplicaciones, como motores en tareas de segmentación de clientes, de búsqueda semántica, asistentes clasificación de texto y procesamiento virtuales y sistemas de recomendación. de imágenes, entre otras aplicaciones. K-nearest Neighbors (KNN) Algoritmo de clasificación basado en la proximidad a los puntos vecinos. En KNN, se clasifica un punto de datos asignándole la etiqueta más común entre sus K vecinos más cercanos en el espacio de características. KNN es un método de aprendizaje supervisado simple pero efectivo, que puede utilizarse tanto para clasificación como para regresión, y es especialmente útil en problemas con conjuntos de datos pequeños o no lineales. 15 L Lenguaje Natural Habilidad de las máquinas para entender, interpretar y generar texto en lenguaje humano. Esto incluye tareas como procesamiento de lenguaje natural (NLP), traducción automática, generación de texto y análisis de sentimientos. El procesamiento de lenguaje natural es un área importante Laplacian Eigenmap de investigación en inteligencia artificial Técnica de reducción de y tiene una amplia gama de aplicaciones dimensionalidad que se utiliza para en comunicaciones, asistencia al cliente, preservar la estructura local de análisis de redes sociales, entre otros. los datos en un espacio de menor dimensión. Esta técnica mapea los datos originales en un espacio de Logistic Regression características de menor dimensión Algoritmo de clasificación utilizado en utilizando los vectores propios del aprendizaje automático para predecir Laplaciano del grafo de vecindad de la probabilidad de que una instancia los datos. Laplacian Eigenmap es útil pertenezca a una clase determinada. para visualización de datos y análisis de A pesar de su nombre, la regresión datos de alta dimensión. logística se utiliza para problemas de clasificación binaria o multiclase, donde Latent Space se ajusta una curva logística a los Espacio de representación donde las datos para modelar la probabilidad de variables latentes capturan información pertenencia a cada clase. útil e interpretable de los datos. En el contexto del aprendizaje automático, el espacio latente es un espacio de características de menor dimensión donde se codifica la información relevante para la tarea en cuestión. Los modelos generativos, como las redes neuronales variacionales, suelen aprender un espacio latente que puede utilizarse para generar muestras nuevas y reconstruir datos originales. 16 M Model Drift Se refiere a los cambios en la distribución de datos que afectan la eficacia del modelo de aprendizaje automático. Estos cambios pueden deberse a diversos factores, como cambios en el comportamiento de los usuarios, cambios estacionales, cambios en el entorno, entre otros. El Model Memory Networks Drift puede llevar a una degradación Las redes de memoria son una en el rendimiento del modelo, ya que el arquitectura de red neuronal que utiliza modelo puede volverse menos preciso o una memoria externa para mejorar la relevante para los datos nuevos. retención de información y la capacidad de razonamiento de la red. Estos Modelo Predictivo modelos están diseñados para recordar Utiliza datos históricos para prever y recuperar información relevante eventos futuros. Estos modelos de largo plazo durante el proceso de son utilizados en una amplia gama inferencia. Las redes de memoria han de aplicaciones, como pronósticos demostrado ser efectivas en tareas de meteorológicos, análisis de riesgos razonamiento basadas en conocimiento financieros, recomendaciones de y en el procesamiento de lenguaje productos, diagnósticos médicos, entre natural. otros. Los modelos predictivos pueden ser construidos utilizando diferentes Meta Learning técnicas de aprendizaje automático, Método de aprendizaje automático que como regresión, clasificación, series se enfoca en la capacidad de aprender temporales, entre otras. y adaptarse velozmente a nuevas tareas o áreas de conocimiento. En lugar de entrenar un modelo para una tarea específica, el metaaprendizaje busca desarrollar algoritmos y técnicas que permitan a un modelo aprender a partir de experiencias pasadas y aplicar ese conocimiento para resolver nuevas tareas con poca o ninguna supervisión adicional. El metaaprendizaje es especialmente útil en situaciones donde los datos son escasos o las condiciones de la tarea cambian con el tiempo. 17 N Neuroevolution Técnica que utiliza algoritmos evolutivos (evolutionary algorithms) para entrenar redes neuronales. En lugar de utilizar métodos de optimización tradicionales como el descenso de gradiente, la neuroevolución utiliza algoritmos inspirados en la evolución biológica, como algoritmos genéticos o algoritmos Natural Language de optimización basados en la selección Generation (NLG) natural. Esto permite entrenar redes Proceso de crear automáticamente neuronales para tareas específicas de texto en lenguaje humano. Esta manera más eficiente y escalable. técnica se utiliza en una variedad de aplicaciones, como generación de Neurona Artificial resúmenes automáticos, creación de Unidad básica de procesamiento en contenido para sitios web, chatbots, las redes neuronales artificiales. Está informes automáticos, entre otros. inspirada en la neurona biológica y Los sistemas de NLG utilizan técnicas procesa entradas ponderadas para de procesamiento de lenguaje natural generar una salida. La neurona artificial y generación de texto para producir típicamente aplica una función de contenido que suene natural y activación a la suma ponderada de las coherente. entradas para determinar si se activa o no. Estas neuronas se organizan en Natural Language capas para formar redes neuronales, Processing (NLP) que pueden aprender y realizar tareas Campo de la inteligencia artificial complejas mediante el ajuste de sus que aborda la interacción entre las conexiones. computadoras y el lenguaje humano. NLP se centra en la comprensión, interpretación y generación de lenguaje humano de manera automatizada. Algunas aplicaciones comunes de NLP incluyen análisis de sentimientos, traducción automática, reconocimiento de voz, extracción de información, entre otros. 18 O Outlier Detection Es el proceso de identificar observaciones inusuales o atípicas en un conjunto de datos. Estas observaciones pueden indicar errores en los datos, comportamientos anómalos o información relevante pero no típica. La detección de valores atípicos es importante en aplicaciones Object Detection como detección de fraudes, Es la tarea de identificar y clasificar monitorización de sistemas, diagnóstico objetos dentro de imágenes o videos. médico y calidad de datos. Es una tarea fundamental en la visión por computadora y se utiliza en una Overfitting variedad de aplicaciones, como Es un fenómeno en el que un sistemas de seguridad, vehículos modelo de aprendizaje automático autónomos, reconocimiento facial, se ajusta demasiado a los datos de supervisión de tráfico, entre otros. Los entrenamiento, capturando el ruido y las algoritmos de detección de objetos características específicas de los datos identifican la presencia, ubicación y de entrenamiento en lugar de aprender clase de objetos dentro de una imagen patrones generales. Esto puede llevar o secuencia de video. a un rendimiento deficiente en datos nuevos o no vistos. El overfitting puede Ontología ocurrir cuando un modelo es demasiado Es una estructura formal que organiza complejo en relación con la cantidad de y representa el conocimiento en datos disponibles o cuando se entrena inteligencia artificial. Describe las durante demasiadas iteraciones. entidades en un dominio específico y las relaciones entre ellas en forma de clases, propiedades y axiomas. Las ontologías se utilizan para modelar el conocimiento en áreas como la web semántica, la ingeniería del conocimiento, la representación del conocimiento y la resolución de problemas. 19 P Prueba de Turing Es una prueba propuesta por Alan Turing en la década de 1950 para evaluar la capacidad de una máquina para exhibir un comportamiento inteligente similar al de un ser humano. La máquina pasa la prueba si un observador humano no puede distinguir si las respuestas provienen de una Precision-Recall Curve máquina o de un ser humano. Gráfico que muestra el equilibrio entre la precisión y la exhaustividad de un Pruning modelo en función de un umbral de Es el proceso de eliminación de decisión. La precisión se refiere a la conexiones no esenciales en proporción de instancias positivas redes neuronales para optimizar el correctamente identificadas, mientras rendimiento y la eficiencia del modelo. que la exhaustividad se refiere a la Durante el pruning, se identifican proporción de instancias positivas y eliminan las conexiones menos en el conjunto de datos que fueron importantes o redundantes en la red correctamente identificadas por el neuronal, lo que reduce la complejidad modelo. La curva de precisión-recall es del modelo y el costo computacional útil para evaluar el rendimiento de un asociado con su ejecución. El clasificador en problemas con clases pruning puede ayudar a mejorar la desbalanceadas. generalización del modelo y reducir el riesgo de overfitting. Principal Component Analysis (PCA) Método de reducción de dimensionalidad utilizado para simplificar conjuntos de datos manteniendo la mayor cantidad posible de información. PCA transforma el conjunto de datos original en un conjunto de componentes principales, que son combinaciones lineales de las variables originales. Estas componentes principales capturan la variabilidad de los datos de manera ordenada, lo que facilita la visualización y el análisis de datos de alta dimensión. 20 Q Quantum Computing Paradigma de computación que utiliza principios de la mecánica cuántica, como la superposición y el entrelazamiento, para realizar operaciones computacionales. Los computadores cuánticos pueden procesar y almacenar información de manera radicalmente diferente a los Q-Learning computadores clásicos, lo que les Algoritmo de aprendizaje por refuerzo permite realizar cálculos en paralelo utilizado en inteligencia artificial. Se y resolver problemas que son difíciles utiliza para aprender una política óptima o imposibles de abordar con la para tomar decisiones secuenciales en computación clásica. entornos basados en recompensas y penalizaciones. Q-Learning utiliza una Quantum Machine Learning función de valor llamada Q-function Aplicación de principios cuánticos en para estimar el valor esperado de una algoritmos de aprendizaje automático. acción en un estado dado. El algoritmo Utiliza la computación cuántica para ajusta iterativamente los valores de realizar cálculos relacionados con Q-function a medida que explora el el aprendizaje automático, como la entorno y aprende a maximizar las optimización, la clasificación y la recompensas a largo plazo. generación de modelos. El aprendizaje automático cuántico tiene el potencial Quantization de resolver problemas complejos de Técnica utilizada para reducir la manera más eficiente que los enfoques precisión de los números en modelos clásicos de aprendizaje automático en de aprendizaje automático. Esto se ciertas aplicaciones. logra mediante la representación de números con menos bits de precisión, lo que reduce el tamaño del modelo y la cantidad de recursos computacionales necesarios para su ejecución. La cuantificación puede mejorar la eficiencia y la velocidad de los modelos, especialmente en dispositivos con recursos limitados como dispositivos móviles o sistemas embebidos. 21 R Redes Neuronales Modelos computacionales inspirados en el cerebro humano que están diseñados para realizar tareas de aprendizaje automático. Consisten en una red de unidades de procesamiento llamadas neuronas, que están organizadas en capas y conectadas entre sí mediante conexiones ponderadas. Estas Recurrent Neural conexiones permiten que las redes Network (RNN) neuronales aprendan a partir de datos Tipo de red neuronal diseñada para de entrada, ajustando los pesos de las procesar datos secuenciales o conexiones para realizar tareas como temporales. A diferencia de las redes clasificación, regresión, reconocimiento neuronales convencionales, las RNN de patrones, entre otras. tienen conexiones retroalimentadas que les permiten mantener estados internos Reinforcement Learning y procesar secuencias de longitud Es un paradigma de aprendizaje donde variable. Esto las hace adecuadas para un agente aprende a tomar decisiones tareas como traducción automática, secuenciales para maximizar una reconocimiento de voz, generación recompensa acumulada en un entorno de texto y modelado de series dado. El agente toma acciones en el temporales. Las RNN se utilizan en una entorno y recibe retroalimentación en variedad de aplicaciones en campos forma de recompensas o penalizaciones como el procesamiento del lenguaje en función de las acciones que realiza. natural, la visión por computadora y la El objetivo del aprendizaje por refuerzo bioinformática. es aprender una política óptima para tomar decisiones que maximicen la recompensa a largo plazo. S Sigmoid Function Función de activación que transforma valores de entrada a un rango entre 0 y 1. Se utiliza comúnmente en redes neuronales para introducir no linealidad en la salida de una neurona. La función sigmoide tiene la forma de una curva S y es útil en tareas donde se necesita modelar la probabilidad de una salida Self-Organizing Maps (SOM) binaria, como la clasificación binaria. Son un algoritmo de agrupamiento utilizado para organizar datos en Singular Value una topología bidimensional. En un Decomposition (SVD) SOM, los datos se representan como Técnica de factorización matricial puntos en un espacio multidimensional que se utiliza en la reducción de y se asignan a neuronas en una dimensionalidad y el análisis de datos. red bidimensional. Durante el Consiste en descomponer una matriz en entrenamiento, las neuronas se ajustan tres matrices: una matriz de vectores para que las regiones de la red con singulares izquierdos, una matriz patrones similares en los datos estén diagonal de valores singulares y una más próximas entre sí, lo que permite matriz de vectores singulares derechos. visualizar y analizar la estructura La SVD se utiliza en aplicaciones subyacente de los datos. como la compresión de imágenes, la recuperación de información y la Sesgo Algorítmico eliminación de ruido de datos. (Algorithmic Bias) Se refiere a la presencia de prejuicios Sistemas Expertos en los resultados de los algoritmos Programas de inteligencia artificial de inteligencia artificial. Estos que imitan el razonamiento humano prejuicios son el resultado de sesgos en tareas específicas. Utilizan bases existentes en los datos utilizados para de conocimiento explícito y reglas de entrenar el algoritmo. Pueden llevar a inferencia para realizar tareas como decisiones discriminatorias o injustas, diagnósticos médicos, soporte técnico, especialmente en sistemas que influyen planificación y toma de decisiones. en la toma de decisiones críticas, Los sistemas expertos son capaces como el reclutamiento o la evaluación de tomar decisiones basadas en el crediticia. conocimiento acumulado y pueden explicar su razonamiento a los usuarios. 23 T Text Mining Proceso de descubrir patrones y conocimientos en grandes conjuntos de datos de texto. Utiliza técnicas de procesamiento de lenguaje natural, análisis de texto y aprendizaje automático para extraer información útil y relevante de documentos de texto no estructurados. La minería de Temporal Difference Learning texto se utiliza en aplicaciones como Método de aprendizaje por refuerzo análisis de sentimientos, clasificación de que actualiza las estimaciones de documentos, extracción de información, valor utilizando la diferencia entre resumen automático y más. estimaciones sucesivas. En lugar de esperar a recibir una recompensa final, Transfer Learning el algoritmo actualiza continuamente Técnica en la que se aplican sus estimaciones de valor basándose en conocimientos aprendidos en una tarea la retroalimentación inmediata recibida a otra tarea relacionada. En lugar de del entorno. Este enfoque permite un entrenar un modelo desde cero para aprendizaje más rápido y eficiente en cada tarea, se utiliza un modelo pre- entornos donde las recompensas son entrenado como punto de partida y se escasas o demoradas. ajusta para adaptarse a la nueva tarea. El aprendizaje de transferencia es útil TensorFlow cuando se dispone de conjuntos de Biblioteca de código abierto para datos pequeños o cuando las tareas implementar algoritmos de aprendizaje comparten características comunes. automático y aprendizaje profundo. Desarrollada por Google, TensorFlow proporciona una interfaz flexible y eficiente para construir y entrenar modelos de aprendizaje automático en una variedad de plataformas, incluidas CPU, GPU y TPU. TensorFlow es ampliamente utilizado en aplicaciones de investigación y producción en campos como visión por computadora, procesamiento de lenguaje natural, reconocimiento de voz y más. 24 U Universal Turing Machine Concepto teórico en informática y matemáticas que describe una máquina capaz de simular cualquier computadora o algoritmo computacional. Propuesto por Alan Turing, este concepto es fundamental en la teoría de la computación y demuestra la capacidad de un modelo computacional para Underfitting realizar cualquier cálculo computacional Fenómeno en el que un modelo es posible. demasiado simple para los datos, lo que resulta en un rendimiento deficiente en Unsupervised Learning los datos de entrenamiento y prueba. Enfoque de aprendizaje automático El subajuste puede ocurrir cuando un donde los algoritmos aprenden patrones modelo es demasiado restrictivo o en datos sin etiquetas o supervisión cuando no tiene suficientes parámetros externa. En lugar de tener ejemplos para capturar la complejidad de los etiquetados, el algoritmo busca datos. Esto puede llevar a una falta de encontrar estructuras y regularidades capacidad del modelo para generalizar a inherentes en los datos. Esto incluye datos nuevos y no vistos. técnicas como clustering, reducción de dimensionalidad y detección de Univariate Analysis anomalías. Enfoque estadístico que se centra en el estudio de una sola variable en un conjunto de datos. Busca describir y comprender las características de una variable individual, como su distribución, tendencia central, dispersión y relación con otras variables. El análisis univariado es útil para explorar y entender las propiedades de una variable antes de realizar análisis más complejos o multivariados. 25 V Visión Artificial Campo de la inteligencia artificial centrado en la interpretación de imágenes y videos por parte de los ordenadores. Utiliza técnicas de procesamiento de imágenes, aprendizaje automático y visión por computadora para analizar y comprender el contenido visual. Algunas Variance-Bias Tradeoff aplicaciones comunes de la visión Concepto fundamental en el aprendizaje artificial incluyen reconocimiento facial, automático que describe el compromiso detección de objetos, seguimiento de entre la capacidad de un modelo para movimiento, segmentación de imágenes ajustarse a los datos y su capacidad y diagnóstico médico basado en para generalizar a nuevos datos. La imágenes. varianza se refiere a la sensibilidad del modelo a pequeñas variaciones en Von Neumann Architecture los datos de entrenamiento, mientras Modelo de computadora que consta de que el sesgo se refiere a la tendencia una unidad central de procesamiento del modelo a hacer suposiciones (CPU), una unidad de control, memoria simplificadas sobre los datos. En de acceso aleatorio (RAM) y memoria general, hay un trade-off entre de almacenamiento secundario. En reducir la varianza y reducir el sesgo, este modelo, los programas y los y encontrar el equilibrio correcto es datos se almacenan en la memoria crucial para el rendimiento del modelo. y se transfieren a la CPU para su procesamiento. La arquitectura de Von Variational Autoencoder (VAE) Neumann es la base de la mayoría de Modelo generativo en el aprendizaje los ordenadores modernos y se utiliza profundo que se utiliza para aprender en una amplia gama de dispositivos, representaciones de datos de alta desde ordenadores personales hasta dimensionalidad. A diferencia de un supercomputadoras. autoencoder convencional, que aprende una representación comprimida de los datos de entrada, un VAE aprende una distribución probabilística en el espacio latente. Esto permite generar nuevas muestras de datos similares a las muestras de entrenamiento y es útil en aplicaciones de generación de imágenes, reconstrucción de datos y modelado de distribuciones de datos complejas. 26 W Word Embedding Técnica en el procesamiento del lenguaje natural (NLP) que representa palabras como vectores numéricos en un espacio de características de alta dimensión. Estos vectores capturan el significado semántico y las relaciones entre palabras en función de su contexto en el texto. Las incrustaciones Weight Initialization de palabras se utilizan en una variedad Proceso de establecer valores iniciales de aplicaciones de NLP, como la en los pesos de una red neuronal antes traducción automática, el análisis de comenzar el entrenamiento. Una de sentimientos, la recuperación de inicialización adecuada de los pesos información y la generación de texto. puede ayudar a mejorar la convergencia del modelo y evitar problemas como el Word2vec estancamiento en mínimos locales. Las Técnica específica de incrustación de técnicas comunes de inicialización de palabras que asigna representaciones pesos incluyen la inicialización aleatoria, vectoriales a palabras basadas en su la inicialización con distribuciones contexto en un corpus de texto. Utiliza específicas como la normal o la modelos de aprendizaje profundo, uniforme, y la inicialización utilizando como redes neuronales, para aprender métodos como la inicialización de Xavier incrustaciones de palabras entrenando o la inicialización de He. un modelo para predecir palabras vecinas a partir de una palabra Weight Regularization de entrada. Esto permite capturar Técnica utilizada en modelos de relaciones semánticas y similitudes aprendizaje automático para penalizar entre palabras en función de su uso en los pesos grandes o complejos que el texto. pueden conducir al sobreajuste. El objetivo de la regularización de pesos es evitar que los modelos se vuelvan demasiado sensibles a pequeñas variaciones en los datos de entrenamiento y promover la generalización a nuevos datos. Dos métodos comunes de regularización de pesos son la regularización L1 (Lasso) y la regularización L2 (Ridge). 27 X XML (eXtensible Markup Language) Lenguaje de marcado que define reglas para codificar documentos en un formato legible por humanos y máquinas. Se utiliza para estructurar, almacenar y transportar datos de manera jerárquica utilizando etiquetas personalizadas. XML es X-means ampliamente utilizado en la web para Extensión del algoritmo de intercambiar datos entre diferentes agrupamiento K-means que determina plataformas y aplicaciones, así como automáticamente el número óptimo de en la configuración de documentos y la clústeres en un conjunto de datos. A representación de datos diferencia de K-means, que requiere semi-estructurados. que se especifique el número de clústeres de antemano, X-means utiliza XOR criterios, como el criterio de información Operación lógica utilizada en problemas bayesiano para determinar el número no lineales en aprendizaje automático óptimo de clústeres de manera y redes neuronales. Representa la automatizada durante el proceso de operación “exclusivo o”, donde el agrupamiento. resultado es verdadero (1) si solo uno de los operandos es verdadero, XGBoost y falso (0) en todos los demás casos. Implementación eficiente de algoritmos XOR es un problema clásico en el de ensamble en aprendizaje automático, contexto de redes neuronales porque especialmente árboles de decisión no es linealmente separable y requiere potenciados (boosted trees). Utiliza modelos más complejos para ser técnicas como el aumento de resueltos. gradiente para entrenar modelos que combinan múltiples árboles de decisión débiles para mejorar la precisión y el rendimiento. XGBoost es ampliamente utilizado en competiciones de ciencia de datos y en aplicaciones del mundo real debido a su velocidad y precisión. 28 Y Yield Curve Representación gráfica de las tasas de interés a diferentes vencimientos, generalmente para bonos del mismo Z Zero-Day Exploit Ataque informático que aprovecha una vulnerabilidad de seguridad en un software o sistema operativo antes emisor y calidad crediticia. La curva de de que se conozca públicamente rendimiento muestra la relación entre y se pueda desarrollar un parche o el rendimiento (o interés) y el plazo de solución. Estos ataques suelen ser vencimiento de los bonos y es utilizada difíciles de detectar y pueden causar por los inversores y analistas para daños significativos a sistemas y evaluar las condiciones del mercado datos comprometidos. La mitigación financiero, las expectativas económicas de exploits de día cero requiere una y las políticas monetarias. respuesta rápida y la implementación de medidas de seguridad proactivas. Yottabyte Unidad de medida de almacenamiento Zero-Shot Learning de datos equivalente a 1 trillón Capacidad de un modelo para realizar de terabytes o 1024 bytes. Es una tareas sin ejemplos de entrenamiento medida extremadamente grande y se directo. En lugar de entrenar el modelo utiliza para describir la capacidad de con ejemplos etiquetados para cada almacenamiento a escala masiva, como clase o tarea, el aprendizaje sin en el contexto de grandes centros de ejemplos utiliza información auxiliar, datos, almacenamiento en la nube y como descripciones de clases o análisis de big data. atributos, para inferir y generalizar a nuevas tareas o clases no vistas durante el entrenamiento. Esta capacidad es útil en escenarios donde recopilar ejemplos de entrenamiento es costoso o impracticable. 29 Diccionario sobre inteligencia artificial: 100 conceptos claves sobre sistemas inteligentes se editó en marzo de 2024, por TN Editorial.