Los Orígenes de la IA y su Desarrollo en la década de 1980 (PDF)

Summary

Este documento PDF presenta un estudio de los orígenes de la Inteligencia Artificial (IA) y su desarrollo hasta la década de 1980. Se profundiza en conceptos claves como los algoritmos, la máquina de Turing, y la creación de modelos matemáticos de neuronas artificiales. Ofrece una visión histórica del surgimiento de la IA, incluyendo las aportaciones cruciales de Alan Turing, Warren McCulloch y Walter Pitts. El contenido está dirigido a lectores interesados en la historia y fundamentos de la IA.

Full Transcript

ChatGPT – Impacto de la IA y su implementación responsable en la educación y el entorno laboral. Los orígenes de la IA y su desarrollo hasta la década de 1980 Los orígenes de la IA y su desarrollo hasta la década de 1980 Subtema 1.1: Orígenes, hitos, y aplicaciones de la Inteligencia Ar...

ChatGPT – Impacto de la IA y su implementación responsable en la educación y el entorno laboral. Los orígenes de la IA y su desarrollo hasta la década de 1980 Los orígenes de la IA y su desarrollo hasta la década de 1980 Subtema 1.1: Orígenes, hitos, y aplicaciones de la Inteligencia Artificial La Inteligencia Artificial (IA, o AI por sus siglas en inglés), puede entenderse como procedimientos informáticos y tecnológicos que permiten a las máquinas ejecutar tareas y procesos que comúnmente requieren de la inteligencia humana. No obstante, la IA engloba diferentes disciplinas de estudio como las matemáticas, la estadística, la informática, la ciencia de datos, y la neurociencia, entre otras. Los inicios de la IA se pueden remontar al año 1936 cuando el matemático inglés Alan Mathison Turing, conocido como el padre teórico de las computadoras y el precursor de la IA, presentó el concepto del algoritmo y la máquina de Turing en su trabajo “Los números computables”. En esencia, un algoritmo es un conjunto de operaciones y cálculos sistematizados que permiten la solución de un problema, mientras que la máquina de Turing se puede entender como un dispositivo hipotético que representa una máquina autómata capaz de implementar y resolver cualquier problema matemático mediante la utilización de algoritmos. Cabe destacar que los estudios y desarrollos de Alan Turing permitieron a las fuerzas aliadas descifrar los mensajes encriptados del ejército nazi durante la segunda guerra mundial, acelerando aproximadamente dos años, el desenlace del conflicto global a favor de los aliados en 1945. Imagen 2. Retrato de Alan Mathison Turing, National Portrait Gallery, Londres (https://www.npg.org.uk/collections/search/use-this-image/?mkey=mw165875) La segunda aportación relevante para la IA data del año 1943, cuando el neurólogo estadounidense Warren McCulloch y el matemático Walter Pitts presentaron el primer modelo matemático para representar una neurona artificial. 1 En su modelo, McCulloch y Pitts, representan a la neurona mediante canales de entrada denominados “dendritas” y un canal de salida denominado “axón”, el cual puede ramificarse para posteriormente unirse a otras neuronas a través de una conexión denominada “sinapsis”. El funcionamiento del modelo hace la distinción entre sinapsis “excitadas” e “inhibidas” mediante los valores 1 y -1, las cuales respectivamente excitan (suman) o inhiben (restan) a la siguiente neurona. Para determinar si la siguiente neurona se activa, se suman los valores de las sinapsis entrantes en las dendritas y se comparan contra un valor de umbral (o límite), el cual al ser superado se traduce en una salida con valor de 1 en el axón. La aportación de McCulloch y Pitts fue una pieza clave para el desarrollo de los modelos matemáticos que representan redes neuronales (cerebros) artificiales y los algoritmos que hoy en día permiten muchas de las aplicaciones de la IA. Algunos años después en 1950, Alan Turing presentó en su trabajo “Maquinaria de cómputo e inteligencia” el “Test de Turing”, el cual plantea una prueba donde un evaluador humano debe discernir entre un humano y una computadora teniendo una conversación a través de un lenguaje natural en forma de texto. La finalidad de la prueba es la de evaluar si una máquina es capaz de mostrar un comportamiento inteligente similar al de un ser humano. Por tanto, si el evaluador no es capaz de identificar a la computadora en la conversación, entonces la máquina habría pasado la prueba. Los trabajos de Turing, McCulloch y Pitts, sentaron las bases de los desarrollos que la IA tuvo a través de las siguientes décadas. Imagen 3. Test de Turing (Creada con Adobe Firefly) 2 Tras el planteamiento del Test de Turing, inició una época de investigación sin precedente. No obstante, el término “Inteligencia Artificial” no fue acuñado hasta el año 1955, cuando el informático John McCarthy, junto con Marvin L. Minsky, Nathaniel Rochester, y Claude E. Shannon presentaron la propuesta para una conferencia titulada “Proyecto de investigación de verano de Dartmouth sobre inteligencia artificial”, misma que se llevó a cabo un año después en la Universidad de Dartmouth en Hanover, Estados Unidos. La conferencia partió con la premisa de que “la conjetura de que cada aspecto del aprendizaje o cualquier otra característica de la inteligencia puede, en principio, ser descrito con tanta precisión que puede fabricarse una máquina para simularlo”, lo cual complementa lo planteado años antes por Alan Turing, y describe la esencia de la IA. El siguiente hito clave en el desarrollo de la IA fue la creación del primer bot conversacional (o chatbot en inglés) por el informático alemán Joseph Weizenbaum en su trabajo “ELIZA-un programa informático para el estudio de la comunicación en lenguaje natural entre el hombre y la máquina”, publicado en 1966. ELIZA, que puede considerarse un pariente lejano de lo que hoy conocemos como ChatGPT, es un programa computacional que se comunica con un interlocutor humano por medio de texto, buscando emular la conversación que tendría una psicoterapeuta durante una sesión con un paciente. 3 Utilizando palabras clave para formular preguntas, y frases predeterminadas para dirigir al interlocutor hacia otras palabras clave, ELIZA tenía el propósito de hacer sentir al interlocutor que lo entendía y sentía empatía. A pesar de que el programa tenía limitaciones en cuanto al aprendizaje y memoria de las diferentes conversaciones con sus usuarios, representó un gran avance hacia la humanización de los programas informáticos y el posterior desarrollo de asistentes virtuales como Siri o Alexa. Imagen 4. Conceptualización de ELIZA (Creada con Microsoft Bing Image Creator) Durante la década de 1970, las investigaciones en torno a la IA se vieron ralentizadas alrededor del mundo, conociéndose como el “Invierno de la IA”, principalmente por las limitaciones que los informáticos encontraban para hacerlas realidad. Por un lado, las implementaciones de la IA requerían de equipos de cómputo complejos que involucraban costos muy elevados, mientras que, por el otro, se demostraron sus capacidades limitadas al no poder cumplir con las expectativas de diferentes proyectos alrededor del mundo. Un ejemplo es el “Proyecto de Investigación en Reconocimiento del Habla” de la Agencia de Proyectos de Investigación Avanzados de Defensa (DARPA por sus siglas en inglés) en Estados Unidos, el cuál fracasó en desarrollar programas efectivos para la transcripción y traducción de lenguaje hablado. Ejemplos como éste, llevaron a una reducción considerable de los esfuerzos y recursos financieros destinados, hasta ese entonces, a la investigación de la IA. La investigación de la IA volvió a tomar auge en la década de 1980, cuando en 1982 la empresa estadounidense “Digital Equipment Corporation” (DEC) comenzó a sacar provecho del primer sistema experto comercial denominado “R1”. El sistema de producción R1 asistía a los clientes de DEC en la selección de los componentes requeridos para completar el pedido de un equipo de cómputo personalizado, reduciendo en millones de dólares los costos operativos anuales de la empresa e incrementando la satisfacción de los clientes. 4 Otra aportación importante a finales de la década de 1980 fue la del informático francés Yann LeCun, quien propuso la primera “Red Neuronal Convolucional” (o CNN por sus siglas en inglés) en 1989. Las CNN son redes que se inspiran en la corteza visual del cerebro de los animales, donde varias capas de la red neuronal extraen características de un patrón de entrada, para luego simplificarlas conservando la información más relevante. El proceso se repite y tras varias convoluciones, finaliza con la clasificación de un resultado. Las CNN abrieron un mundo de posibilidades para las redes neuronales artificiales, permitiendo aplicaciones de la IA como el reconocimiento de imágenes y el Procesamiento del Lenguaje Natural (o NLP por sus siglas en inglés), disciplina de estudio que da vida a lo que hoy conocemos como ChatGPT. 5 Más adelante continuaremos con los hitos y aplicaciones más relevantes para la IA en décadas posteriores, las cuales no solo comenzaron a materializar los planteamientos iniciales de Turing, McCulloch, y Pitts, sino que, además, comenzaron a ofrecer resultados y beneficios latentes para las y los usuarios de las tecnologías en los entornos personales, educativos, laborales, e industriales. Imagen 5. Aprendizaje Automático aplicado (Creada con Adobe Firefly) Referencias: ! Hinton, G.E, Osindero, S., & Teh, Y.W. (2006). A fast learning algorithm for deep belief nets. Neural Computation, 18(7), 1527-54. https://doi.org/10.1162/neco.2006.18.7.1527 ! McCarthy, J., Minsky, M. L., Rochester, N., & Shannon, C. E. (2006). A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence, August 31, 1955. AI Magazine, 27(4), 12. https://doi.org/10.1609/aimag.v27i4.1904 ! McCulloch, W. S., Pitts, W. (1943). A logical calculus of the ideas immanent in nervous activity. Bulletin of Mathematical Biophysics, 5, 115–133. https://doi.org/10.1007/BF02478259 ! McDermott, J. (1982). R1: A rule-based configurer of computer systems. Artificial Intelligence, 19(1), 39-88. https://doi.org/10.1016/0004-3702(82)90021-2 ! Rosenblatt, F. (1957). The Perceptron, a Perceiving and Recognizing Automaton (Project PARA). Report No. 85-460-1. Cornell Aeronautical Laboratory. https://blogs.umass.edu/brain-wars/files/2016/03/rosenblatt-1957.pdf ! Rumelhart, D., Hinton, G. & Williams, R. (1986). Learning representations by back-propagating errors. Nature, 323, 533–536. https://doi.org/10.1038/323533a0 6  9ZWNSL&2 4S(TRUZYFGQJ3ZRGJWX\NYMFS&UUQNHFYNTSYTYMJ *SYXHMJNIZSLXUWTGQJR5WTHJJINSLXTKYMJ1TSITS2FYMJRFYNHFQ8THNJY^   MYYUXITNTWLUQRXX  9ZWNSL&2 .(TRUZYNSL2FHMNSJW^FSI.SYJQQNLJSHJ2NSI  ўMYYUXITNTWLRNSI1.=  1JHZS1'TYYTZ>'JSLNT 5-FKKSJW ,WFINJSYGFXJIQJFWSNSL FUUQNJIYTITHZRJSYWJHTLSNYNTS*S5WTHJJINSLXTKYMJ.***  MYYUXITNTWL  7 Se prohíbe la reproducción total o parcial de esta obra por cualquier medio sin previo y expreso consentimiento por escrito del Instituto Tecnológico y de Estudios Superiores de Monterrey. D.R. © Instituto Tecnológico y de Estudios Superiores de Monterrey, México. 2024 Ave. Eugenio Garza Sada 2501 Sur Col. Tecnológico C.P. 64849 Monterrey, Nuevo León | México

Use Quizgecko on...
Browser
Browser