Full Transcript

Fundamentos de la IA. Bases y disciplinas Se elaboró el breve relato que se presenta a continuación con la intención de que el lector descubra gradualmente lo que puede esperar de la inteligencia artificial para así avanzar en sus características e implicancias. Introducción a la inteligencia arti ci...

Fundamentos de la IA. Bases y disciplinas Se elaboró el breve relato que se presenta a continuación con la intención de que el lector descubra gradualmente lo que puede esperar de la inteligencia artificial para así avanzar en sus características e implicancias. Introducción a la inteligencia arti cial De niendo a la inteligencia arti cial Distinguiendo las conductas inteligentes de las automáticas Identi cando las disciplinas que contribuyeron a la IA Explorando clasi caciones de la inteligencia arti cial Referencias Lección 1 de 6 Introducción a la inteligencia artificial Hans Moravec (1993) presentó en su libro El Hombre Mecánico: el futuro de la robótica y la inteligencia humana una serie de ideas interesantes sobre la posibilidad de que robots inteligentes nos sustituyan en el futuro y sean ellos los destinatarios de la evolución de las especies. Esta podría ser considerada una opinión fantástica más, como tantas otras, pero el Dr. Moravec era en aquel momento el Jefe del Laboratorio de Robots Móviles de la Universidad Carnegie Mellon, una de las instituciones más prestigiosas y que más se ha distinguido en el mundo en el campo de la inteligencia artificial. Ya varios años antes, en 1950, el eminente matemático John von Neumann había sorprendido al mundo científico con sus reflexiones sobre la posibilidad de que un ser no biológico, un autómata, se replicara a sí mismo sin degradar sus aptitudes ni cualidades. En aquella época, von Neumann solo intentó hacer una demostración formal sobre su teoría en apariencia descabellada, pero su prematura muerte le impidió completarla. Sin embargo, veinte años después (1970), en el Palo Alto Research Center (PARC) de Xerox, se logró por primera vez la autoréplica de seres artificiales. Solo que, en este caso, se trató de software en lugar de seres tangibles. De esta forma, el camino quedó abierto para una rápida evolución de criaturas capaces de reproducirse, ocultarse, comunicarse entre sí y desarrollar conductas cada vez más complejas e interesantes, que incluyen acciones colectivas de alcance aún hoy insospechado. Estos inteligentes y a la vez dañinos “agentes”, que hoy denominamos “virus informáticos”, son un testimonio de lo acertado de aquellas predicciones de von Neumann. Treinta años después, en julio de 2003, se estrenó en los cines de la ciudad de Córdoba la película Terminator 3: La rebelión de las máquinas. Esta película abordaba, desde el campo de la ciencia ficción, una temática que continúa y perfecciona aquella idea original de von Neumann y el posterior pronóstico del Dr. Moravec: un futuro cercano con un mundo dominado por robots. Se debe reconocer que muchas veces la literatura y el cine de ciencia ficción han anticipado los progresos en la inteligencia artificial. En el caso de esta disciplina: lo que hoy parece fantástico tendrá en poco tiempo muchas posibilidades de convertirse en premonitorio. Debe, sin embargo, reconocerse que algunos otros pronósticos fueron exageradamente optimistas o emitidos con demasiada anticipación, como es el caso de la afirmación: “Existen en el mundo máquinas que pueden pensar, que pueden aprender y que pueden crear”. Esta idea fue vertida por Herbert Simon, eminente científico, precursor de importantes desarrollos de la inteligencia artificial y Premio Nobel de Economía. Es opinión unánime que este comentario, realizado en 1985, fue extremadamente anticipado, pero ¿se anima alguien a afirmar que fue errado? Todo esto lleva a comprobar que el señalado vínculo de lo real con lo fantástico incorpora cierta confusión a la hora de distinguir los esfuerzos y realizaciones concretas de aquellas otras que representan expectativas futuras o de aquellas que simplemente están equivocadas. A esta confusión contribuye también que la inteligencia artificial haya sido adoptada como un recurso de marketing, atribuyéndose inteligencia a los productos más variados. Además, está la progresiva pérdida de nuestra capacidad de asombro ante el continuo avance de la ciencia y la tecnología. Pero no debe pensarse que todas las aplicaciones de la inteligencia artificial están necesariamente asociadas a lo fantástico. Muy por el contrario, todos los días el ser humano se ve beneficiado con la creciente incorporación de “inteligencia artificial” en aplicaciones cotidianas. Por ejemplo, podemos mencionar a los sistemas de diagnóstico médico como uno de tantos casos. La función de este tipo de sistemas, denominados “expertos”, es la de brindar todo el conocimiento posible en un campo muy específico y alcanzar o superar en desempeño a cualquier experto humano. Estos tipos de sistemas expertos están prestando diariamente su función altamente especializada, asesorando y contribuyendo a la toma de decisiones en otros muchos campos tales como el financiero, geofísico, agrícola, etc. Otros ejemplos de aplicación de la inteligencia artificial son el caso de Deep Blue (la supercomputadora que derrotó al campeón mundial de ajedrez Garri Kaspárov en mayo de 1997), la comprensión del lenguaje natural y la interpretación de imágenes altamente complejas. Para introducir al estudiante en el vasto campo de la inteligencia artificial, comenzamos con definiciones de la disciplina y apreciaciones de sus más prestigiosos precursores. De este modo, realizamos un agrupamiento de conceptos que contribuye a aclarar las ideas y que se considera “clásico” en la literatura especializada. Luego, se distinguen las conductas inteligentes de las automáticas, por considerarse que es fundamental reconocer con claridad las diferencias entre estas cualidades. El paso siguiente es revisar los campos de estudio o disciplinas que manifiestan estrecho vínculo con la IA. Y, para cerrar esta primera lectura, se comparten algunas clasificaciones, recurso que demuestra ser de mucha ayuda para consolidar los conceptos anteriores. Es necesario aclarar que las ideas presentadas buscan orientar y estimular al lector a continuar leyendo en la bibliografía básica del módulo, que en esta primera lectura está representada por dos libros: el primero de Russell y Norvig (2008), y el segundo de García Serrano (2012). Cabe acotar que, en la lectura y en los libros citados, se consideran desde diferentes ópticas los mismos temas. Esto significa que ambos materiales se complementan. En algunos casos, con diferente profundidad y, en otros, con distinta amplitud. Por tanto, estos materiales de lectura no son reemplazables entre sí. En el próximo apartado, se continuará avanzando en la intención de que el lector reconozca por sí mismo las características e implicancias de esta apasionante disciplina denominada IA. Parece oportuno ahora dar una calurosa bienvenida al lector y estimularlo a seguir avanzando en la profundidad de este mundo sorprendente. C O NT I NU A R Lección 2 de 6 Definiendo a la inteligencia artificial El punto de partida es definir el concepto de inteligencia artificial. Para comenzar, seleccionamos y destacamos dos apreciaciones de eminentes precursores de esta nueva área del conocimiento. Figura 1: Definiciones de inteligencia artificial Fuente: elaboración propia. Elaine Rich y Kevin Knight (1991) son autores de un libro clásico sobre el tema. Por su parte, Marvin Minsky es uno de los precursores de la inteligencia artificial. Entre ambas definiciones, transcurrieron casi treinta años. Cabe notar que estas definiciones toman como referencia al hombre y a su capacidad de hacer, pero en el caso de Rich y Knight incorporan una referencia temporal: “que, por el momento, son realizadas mejor por los seres humanos”. O sea que los autores proponen una frontera de la IA que se desplaza con el tiempo: lo que hasta ahora constituye un campo de interés, quizás mañana ya no lo sea. Una apreciación que resultó novedosa y muy apropiada. Otras definiciones de inteligencia artificial, enunciadas por especialistas y también presentadas en diccionarios, son reproducidas para estimular al lector a que forme su propia idea sobre la finalidad de esta disciplina. Estas son: 1 Haugeland: “El nuevo y excitante esfuerzo de hacer que las computadoras piensen, máquinas con mentes, en el amplio sentido literal” (1985). 2 Chamiak: “El estudio de las facultades mentales mediante el uso de modelos computacionales” (1985). 3 Schalkoff: “Un campo de estudio que se enfoca en la explicación y emulación de conductas inteligentes a través de procesos computacionales” (1993). 4 Winston: “El estudio de los cálculos que hacen posible percibir, razonar y actuar” (1992). 5 English Oxford Living Dictionary: “La teoría y el desarrollo de sistemas computacionales para llevar a cabo tareas que normalmente requieren de inteligencia humana, como percepción visual, reconocimiento de voz, toma de decisiones o traducción de lenguajes". 6 Merriam-Webster: “Rama de la ciencia computacional que introduce la simulación de comportamiento inteligente en los ordenadores y la capacidad de una máquina de imitar el comportamiento humano”. 7 Nilsson: “La IA está relacionada con conductas inteligentes en artefactos” (1998). 8 Diccionario de la Real Academia Española: “Disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o https://n9.cl/afcm1). el razonamiento lógico” (2020, Puede comprobarse que las definiciones cambian a partir de la orientación de los objetivos que se procuran alcanzar a través de la inteligencia artificial. En este sentido, se destacan: 1) los procesos mentales y 2) las conductas. También se distinguen las clasificaciones según las referencias adoptadas, pudiendo ser: 1) el ser humano y 2) la racionalidad. A partir de estos objetivos y referencias, Stuart Russell y Peter Norvig (2004) presentaron un agrupamiento de definiciones que se convirtió en un clásico en la literatura sobre el tema y en el que se establecen cuatro categorías, tal como se muestra en la siguiente tabla. Tabla 1: Definiciones organizadas en cuatro categorías Eficiencia humana Racionalidad Procesos mentales Sistemas que piensan como humanos Sistemas que piensan racionalmente Conductas Sistemas que actúan como humanos Sistemas que actúan racionalmente Fuente: elaboración propia con base en Russell y Norvig, 2004, p. 2. Como ejercitación, se invita al lector a analizar todas las definiciones anteriores y asignarlas a algún cuadrante de la tabla, pudiendo hacer luego su autocorrección a partir de las categorías presentadas por Russell y Norvig en su libro. C O NT I NU A R Lección 3 de 6 Distinguiendo las conductas inteligentes de las automáticas Conductas automáticas Todo sistema que desarrolle acciones basadas en instrucciones que nunca fueron aprendidas de la experiencia tendrá un comportamiento inevitablemente automático y operará según las intenciones de su diseñador. Se trata de un modelo de inteligencia explícita y a su desempeño se lo denomina “inteligencia computacional” o “inteligencia explícita”. Conductas inteligentes Según Brooks (1991), las formas de inteligencia quedan determinadas por la dinámica de la interacción del sistema con su entorno, emergiendo de esta interacción y de la de sus componentes. En un sistema, la inteligencia emergente se revelará con las desviaciones de su comportamiento con respecto a su concepción original. Para Cariani (1992), el comportamiento de sistemas con inteligencia intrínseca o emergente no está condicionado por su definición inicial. Automatismo y autonomía Los autómatas exhiben comportamientos automáticos, es decir, que estos han sido establecidos con anticipación al momento de su diseño y construcción. Su modificación está fuera del alcance del propio autómata. Se trata de automatismos que para desempeñar un comportamiento diferente deben ser rediseñados. En otras palabras, en la conducta de un sistema automático no habrá nada que no haya sido oportunamente previsto por su creador. Por el contrario, autonomía implica la capacidad de alterar por sí solo el propio comportamiento y esto surge de la interacción del sistema con su entorno. Los sistemas autónomos comienzan a operar como automáticos y se distinguirán de estos últimos de manera progresiva, a lo largo de su operación. El comportamiento autónomo requiere la incorporación de nuevas conductas en forma dinámica, o más aún, incorporar el reconocimiento de nuevos estímulos. A partir de lo expuesto, se rescatan tres ideas centrales: i) El comportamiento de los sistemas automáticos está completamente predeterminado. ii) Para que un sistema sea autónomo debe ser antes automático. iii) En los sistemas autónomos, el comportamiento es una propiedad emergente de la interacción del sistema y su ambiente. (Giró, Vázquez, Meloni y Constable, 2015, https://n9.cl/xjnth). En resumen, para que una máquina pueda ser calificada como inteligente debe exhibir autonomía. Estas apreciaciones y la posibilidad de distinguir el concepto de “inteligencia” son muy importantes para un futuro profesional en sistemas. En especial, cuando la inteligencia artificial se ha convertido en una cualidad utilizada como recurso de marketing, atribuyéndosela a los productos más variados: desde edificios hasta jabón para lavar la ropa. También hay una marcada tendencia a expresarse con palabras extrañas, en particular en idioma inglés, por lo que son habituales las opiniones de expertos sobre machine learning. Como mínimo, el profesional en sistemas debe distinguir sin dudar entre un sistema inteligente y uno automático, como así también reconocer de qué se está hablando cuando se cita al reiterado machine learning. Este es un objetivo básico de esta materia: que quede claramente definida la inteligencia artificial y que se reconozca que el machine learning (aprendizaje de máquinas) no es más que un agrupamiento de líneas de investigación de la inteligencia artificial. La mayoría de estas líneas de investigación se refieren a modelos neuronales y, en menor medida, a lógica difusa y a algoritmos genéticos. Todos estas investigaciones abordan temas de mucha vigencia, la mayoría con el respaldo de muchos años de desarrollo y que requieren una formación muy especializada. C O NT I NU A R Lección 4 de 6 Identificando las disciplinas que contribuyeron a la IA Un próximo paso en el ingreso al mundo de la inteligencia artificial es reconocer las afinidades con otras disciplinas, en especial con aquellas que ya nos resultan familiares. Con este fin, a continuación se revisan los vínculos de la IA con nueve disciplinas que han tenido y continúan teniendo una estrecha relación: ya sea por compartir ideas, estimular puntos de vista novedosos o por intercambiar recursos técnicos. Como se comprobará, en la historia de la humanidad los puntos de contacto de estas disciplinas con la inteligencia artificial y sus protagonistas son innumerables. Por lo tanto, todo intento de enumerar las contribuciones a su desarrollo será siempre incompleto. El cuadro que se muestra a continuación presenta algunos de los muchos posibles enfoques en cuanto a aportes al estudio y desarrollo de la inteligencia artificial de cada una de estas disciplinas. Tabla 2: Nueve disciplinas DISCIPLINA PUNTO DE CONTACTO CON LA INTELIGENCIA ARTIFICIAL Desde siempre, la filosofía ha tratado de responder preguntas referidas a la manera en que se desarrolla la inteligencia o sobre el origen del conocimiento. Aquí, cabe destacar las ideas que consideran a la mente como una máquina codificado que funciona con un utilizando lenguaje el interno conocimiento y donde el pensamiento sirve para seleccionar las acciones a llevarse a cabo. Es decir, no ha sido inusual que se establezcan relaciones entre las mentes y las máquinas. (1) Filosofía Más recientemente, cabe destacar al posthumanismo (que busca armonizar una relación con la tecnología) y al transhumanismo (que plantea la optimización de nuestras propias capacidades a partir de la fusión con máquinas inteligentes). Se desarrolla así la expectativa de un mundo en el que convivan humanos y máquinas. En ese sentido, el concepto de humano corre el riesgo de volverse obsoleto frente a lo que el futuro nos depara. Esta última es una muy breve reflexión que invita a pensar sobre las posibles visiones de la inteligencia artificial desde la filosofía. El vínculo entre las matemáticas y la filosofía es casi tan antiguo como la historia de la humanidad. Y el de filosofía (2) con la IA ya fue argumentado en el punto anterior, por lo que justificar el vínculo entre las matemáticas y la Matemáticas inteligencia artificial es mero carácter transitivo. No es casualidad que un matemático de la jerarquía de Alan Turing haya dedicado sus últimos años (1950-1954) a explorar la posibilidad y alcance de máquinas (computadoras) inteligentes. Ni que John von Neumann, considerado el matemático más brillante que conoció la humanidad, haya estado desvelado asegurando la posibilidad de la autoréplica de un elemento artificial (a la postre el software), un paso previo a la aceptación de su posible evolución. Tampoco que los primeros esfuerzos de la IA estuvieron orientados a la demostración de teoremas y aplicaciones para la resolución general de problemas. Los aportes de las matemáticas corresponden a tres campos: lógica, cálculo y probabilidad. Todo ello es de gran importancia, haciendo imposible establecer un orden. Sin embargo, nunca podrían dejar de mencionarse los esfuerzos conducentes a la teoría de la computabilidad y la teoría de la complejidad, de la que participaron los mejores matemáticos del siglo XX. (3) Al aceptar el natural vínculo entre la economía y las matemáticas, y el de las matemáticas con la inteligencia Economía artificial, nuevamente es de carácter transitivo la forma de confirmar el nuevo vínculo. Entre los precursores de la IA no faltaron los economistas y, entre ellos, merecen ser citados Allen Newell y Herbert Simon. Ambos con sólido respaldo en desarrollos sobre computadores, autores de programas tales como “Logic Theory Machine” y “General Problem Solver” destinados a demostrar teoremas y a resolver problemas. Fueron también autores del lenguaje de programación utilizado (IPL) y cabe acotar que Simon fue Premio Nobel de Economía en 1978. Un vaso comunicante de enorme importancia entre la economía y la inteligencia artificial fue la teoría de juegos, constituyendo el núcleo de modelos de estimación, muy apropiados tanto para simular comportamientos macroeconómicos como para explorar desempeños de algoritmos en entornos que faciliten su seguimiento. Para dar una idea de la importancia de la teoría de juegos, en la que se destacó el ya citado John von Neumann, puede acotarse que este tema originó otros cuatro premios Nobel (1994, 2005, 2007 y 2012). Por último, esta breve reseña no estaría completa si no se mencionan los sistemas expertos, primer producto comercial de la IA. Algunos de estos sistemas están destinados a operar sobre dominios macroeconómicos. (4) Justificar un vínculo entre la neurociencia y la inteligencia artificial parece innecesario: la primera estudia la base de Neurociencia la capacidad intelectual de los seres vivos, que es lo que la segunda espera poder recrear en las máquinas. En una breve reseña, cabe mencionar a Ramón y Cajal, considerado el padre de la neurociencia moderna y Premio Nobel de Medicina (1904), que con sus aportes motivó el estudio de los primeros modelos neuronales artificiales (McCulloch y Pitt, 1944). Una vez nacida la inteligencia artificial (1956), surgió lo que se denominó la “corriente subsimbólica o conexionista”. Esta corriente rivalizó y fue postergada durante los primeros veinticinco años de la IA por la corriente simbólica o descendente. Superado este período conflictivo, los modelos neuronales volvieron a posicionarse y puede decirse, sin riesgo de error, que representan el recurso más importante y promisorio de la IA. Aquí cabe destacar la dificultad de operar y emular el desempeño de un dominio todavía en proceso de descubrimiento, como es el del tejido neuronal biológico. En efecto, el propio Hassabis (experto de IA de Google) ha dicho: “sólo podremos expandir los límites de los intelectos comprensión artificiales de la mediante inteligencia una mejor humana” (2017, https://n9.cl/9231). (5) De la misma forma que la neurología aporta información a la IA en cuanto a la arquitectura de soporte a las Psicología funciones cognitivas, la psicología realiza aportes referidos al pensamiento, el razonamiento y la actuación de los seres humanos. En sentido inverso, la inteligencia artificial contribuye al estudio de las facultades mentales usando modelos computacionales. El objeto es simular los procesos llevados a cabo en el cerebro y ayudar en su entendimiento. En cuanto a los precursores, cabe aquí nuevamente citar a Alan Turing. Este autor cuestionó la posibilidad de que las máquinas piensen en su famoso artículo Computing Machinery and Intelligence. Para dar respuesta a este interrogante propuso un juego de imitación que constituyó el test que lleva su nombre (test de Turing). Otro aporte sustancial fue el de John Watson, referente del modelo conductista que orientó la psicología moderna durante gran parte del siglo XX. Por último, cabe citar como circunstancia trascendente el Congreso de Hixon (California, 1948) sobre "Mecanismos cerebrales del comportamiento" que dio lugar al nacimiento de la ciencia cognitiva. Allí asistieron numerosos matemáticos, tales como John von Neuman y Warren McCulloch, que presentaron sendos trabajos estableciendo paralelismos entre la computadora y el cerebro. (6) Quizás es más apropiado hablar de ciencia de la computación, ya que es el dominio que abarca todos los Ingeniería aspectos que hacen posible el procesamiento de datos, computaciona incluyendo investigación y producción. l Aquí resulta oportuno advertir que la IA nace el mismo año (1956) en el que fue presentado el primer lenguaje superior y compilador (Fortran) por parte de John Backus. Eso significa que todos los esfuerzos realizados en materia de programación hasta entonces fueron concretados sobre lenguajes máquina o en el mejor de los casos sobre lenguajes ensambladores. Si a esto se agrega la muy escasa capacidad de memoria y procesamiento de los computadores de entonces, sorprende el entusiasmo de parte de los precursores de la inteligencia artificial y sus ambiciosos proyectos. También son admirables sus esfuerzos y logros. También cabe advertir que desde entonces ha habido enormes progresos en los recursos disponibles, tanto en software como en hardware. Sin embargo, la llamada complejidad temporal (tiempos de proceso) y complejidad espacial (memoria requerida) sigue siendo el factor limitante para la aplicación de muchos métodos. Esto es debido al paralelo crecimiento en la demanda de estos recursos. (7) Se denomina cibernética a la ciencia de los mecanismos de control y de las comunicaciones en los seres vivos y en Teoría de las máquinas. Esta ciencia nació en el “Congreso de control y Inhibición Cerebral” que tuvo lugar en Nueva York en cibernética 1942. Este evento puso el foco en temas muy variados, como el cálculo de trayectorias de artillería antiaérea, el control realimentado y las secuelas en las capacidades motrices a causa de daños en diferentes zonas del cerebro. Heridas muy frecuentes en época de guerra. En efecto, el foco en este problema y el control realimentado obedecía a que el mundo se encontraba en plena Segunda Guerra Mundial (1939-1945). El motivo de la vigencia del control realimentado era que, dada la velocidad y maniobrabilidad alcanzada por los aviones, resultaba imposible guiar manualmente a la artillería antiaérea. Por lo tanto, era necesario poder guiarla en forma automática. El principal referente de la cibernética fue Norbert Wiener, quién publicó un libro sobre el tema en 1948. La cibernética es considerada una de las corrientes que dieron lugar a la inteligencia artificial y al poco tiempo fue absorbida por ella, prácticamente desapareciendo como disciplina. En parte, lo explica la excesiva amplitud de sus objetivos. (8) “Si estamos construyendo sistemas inteligentes, lo primero que queremos es que se puedan comunicar con Lingüística nosotros y hablen en nuestro lenguaje” (Torrijos, 2019, https://n9.cl/uks8n). “Una realidad completamente consolidada es que la facultad del lenguaje es una capacidad propia de la especie humana. Hay motivos para sostener que la mayor parte del lenguaje/pensamiento no se exterioriza en absoluto” (Chomsky, 2016, p. 54). Dos visiones válidas, completamente diferentes, y, sin embargo, complementarias. La primera referida a la función “clásica” atribuida al lenguaje, que hace posible la comunicación entre individuos de una misma especie. Y la necesidad de extenderla a las máquinas si planeamos convivir con ellas. La segunda es una apreciación novedosa y sorprendente. El lenguaje es el recurso clave que hace posible el pensamiento, es decir, la comunicación del individuo consigo mismo. La incorporación de este recurso permitió marcar diferencias entre los seres humanos y otros seres vivos en lo que hace a la facultad de la inteligencia. (9) La designación de “robot” aparece por primera vez en 1921 y deriva de una palabra eslava “robota” que significa Robótica trabajo o servicio. Este término fue propuesto por el escritor checoslovaco Karel Capek en su obra Los robots universales de Rossum y pronto fue universalmente adoptado para designar “artefactos” que eran capaces de reemplazar al hombre en ciertas tareas. El impulso decisivo para esta denominación fue dado por el escritor Isaac Asimov que, en 1942, usó el término “robot” en uno de sus relatos de ciencia ficción. En realidad, el propio concepto es mucho más antiguo, ya que desde siempre el hombre ha tratado de prolongarse tanto en el plano físico como en el intelectual o metafísico. En el primer caso, lo ha hecho dotándose de mayores capacidades por medio de las herramientas y, para el segundo, ha planteado objetivos asociados a la creación. Este mito de rebasamiento encuentra numerosos testimonios en la literatura, como es el caso de Pinocho, el títere que poco a poco se anima hasta transformarse en un ser humano, o el de las creaciones del doctor Frankenstein. Dejando de lado los aspectos históricos, la robótica es el medio que hace posible la manifestación práctica de desempeño inteligente, indispensable en posibilitar el ciclo “percepción – decisión – acción”. Es decir, que el “ser artificial” pueda interactuar con los seres humanos en el mundo real. En la robótica confluyen dos disciplinas: la mecánica (que a través de la cinemática y la dinámica son indispensables para hacer posible la necesaria motricidad) y la propia inteligencia artificial (la encargada de dotar al nuevo ser de la capacidad de tomar decisiones). Es muy interesante comprobar que ambas disciplinas necesitaron complementarse. Esto ocurrió cuando debieron dar respuesta al desafío de los vuelos no tripulados al espacio. Era necesario disponer de vehículos que reunieran lo mejor de ambas áreas. Fuente: elaboración propia con base en Russell y Norvig, 2004. Esta breve reseña de las afinidades de la inteligencia artificial con otras nueve disciplinas brinda aspectos interesantes para comentar. En primer lugar, poner énfasis en que las ideas presentadas son necesariamente incompletas. Estas reflexiones deben complementarse con las apreciaciones que Russell y Norvig (2004, pp. 6-19) y García Serrano (2012, pp. 1-8) presentan en sus libros. Por lo tanto, se invita al lector a revisarlas detenidamente, ya que en su conjunto contribuirán a un mejor conocimiento de la nueva disciplina estudiada para reconocer sus características e implicancias. Luego un hecho curioso: Russell y Norvig (2004) hacen referencia solo a las contribuciones de ocho disciplinas, dejando de lado a la robótica. Esto a pesar de que la mencionan con anterioridad, reconociendo su importancia y dedicándole un capítulo entero. Nosotros la incluimos por considerarla anterior al nacimiento de la IA y por la importancia que reviste en la evolución de la misma. También es interesante destacar que cinco de las disciplinas presentadas están agrupadas en la llamada ciencia cognitiva: filosofía, neurología, psicología, computación y lingüística. En realidad, para completar la ciencia cognitiva, denominada “hexágono cognitivo”, habría que sumar a la antropología, que se ocupa de sumar la dimensión social y cultural. La finalidad de la ciencia cognitiva es trabajar sobre las interrelaciones entre los seis campos científicos citados. Además, es frecuente que los especialistas, y la literatura en general, atribuyan a tres vertientes o disciplinas del conocimiento ser las corrientes conducentes a la inteligencia artificial. Estas son: ciencia cognitiva, cibernética y robótica. Si se consideran ahora las cinco disciplinas agrupadas en la ciencia cognitiva y las restantes dos “vertientes” cibernética y robótica, se han sumado siete de las nueve disciplinas reconocidas en la tabla anterior, quedando afuera de esta propuesta la economía y las matemáticas. Sin embargo, lo ya expuesto en la misma tabla justifica ampliamente su presencia. Todo un juego de clasificaciones y reconocimiento de pertenencias que seguramente ayuda a dimensionar la amplitud del campo en el que se está ingresando. C O NT I NU A R Lección 5 de 6 Explorando clasificaciones de la inteligencia artificial Por ser la inteligencia artificial un campo del conocimiento tan amplio en objetivos y tan multifacético en cuanto a las disciplinas relacionadas, resulta natural ensayar clasificaciones desde diferentes puntos de vista. También, es conveniente hacerlo ya que las clasificaciones normalmente conducen a ordenar las ideas, plantear interrogantes y esclarecer los caminos apropiados para alcanzar los objetivos. De acuerdo a cómo se encuadren los objetivos, las principales clasificaciones son las siguientes: a. Perspectiva al plantearse los objetivos. – Se reconocen las siguientes dos: 1. Perspectiva pragmática: crear sistemas con capacidades habitualmente atribuidas a la inteligencia humana. 2. Perspectiva cognitiva: estudiar los mecanismos de la inteligencia, donde la IA suministra medios de análisis y simulación para evaluar modelos y teorías. b. Enfoques al plantearse los objetivos. – Se reconocen las siguientes dos: 1. Enfoque real: trabajar sobre sistemas destinados a formar parte del “mundo real”, es decir, a estar en contacto con el mundo exterior, percibiéndolo y actuando sobre este. Es el escenario de la robótica. 2. Enfoque virtual: trabajar sobre sistemas que se desempeñan formando parte de un “mundo simulado” o “mundo virtual”, completamente contenidos en el computador. Dentro de este enfoque se encuentra una importante rama de la IA que es la denominada vida artificial, destinada a recrear “ecosistemas” artificiales que en algunos casos llegan a ser metafóricos. c. Áreas a las que pertenecen los objetivos. – Se reconocen las siguientes dos grupos: 1. Área de productos finales: se ocupa de aplicaciones finales que tienen identidad propia. 2. Área intermedia o de soporte: se concentra en métodos y herramientas destinadas a aportar inteligencia en el tratamiento de la información, formando parte de productos que en muchos casos son en apariencia convencionales. Se consideró conveniente anticipar estas clasificaciones, pero se trabajará con ellas con mayor profundidad y se las relacionará entre sí en una próxima lectura. Desafío propuesto a partir de las notas anteriores Una vez leídas estas notas, se debe procurar responder a los interrogantes que se presentan a continuación. La finalidad es revisar aspectos centrales y comprobar que han sido bien interpretados. Luego, el siguiente paso será leer fragmentos de los capítulos 1 de Russell y Norvig (pp. 1- 19) y García Serrano (pp. 1-8). En estos capítulos se tratan estos mismos temas con mayor amplitud o enfoques diferentes. Por último, se debe volver sobre las preguntas formuladas y las respuestas propuestas con un espíritu de autoevaluación final. Esto es, hacer una mirada crítica sobre el trabajo realizado desde una posición de mayores conocimientos sobre los temas tratados. Se reitera que estas preguntas tienen como única finalidad contribuir a que el estudiante compruebe por sí mismo sus conocimientos. Se trata de un desafío personal, no de una instancia de evaluación. Las consignas son las siguientes: 1 Asignar las ocho definiciones de la inteligencia artificial (puntos 2.a a 2.h) a los cuadrantes de la clasificación propuesta por Russell y Norvig (ver Tabla 1). 2 Ensayar una definición propia de inteligencia artificial. 3 Distinguir los sistemas automáticos de los sistemas autónomos. Explica las diferencias y brinda ejemplos de cada uno. 4 Definir las características y condiciones de un sistema para que pueda ser considerado “inteligente”. Proponer una forma de comprobar esta cualidad y brindar un ejemplo. 5 Identificar las tres disciplinas que según tu criterio habrían sido las que tuvieron mayor impacto en el nacimiento y desarrollo inicial de la IA. Presenta estos hechos ordenados según su importancia y justifica tu propuesta. 6 Ordenar los criterios de clasificación de la IA según un orden de importancia. Justifica brevemente tu elección. 7 A partir de la Tabla 2, presentada en el punto 4 y el material expuesto por Russell y Norvig (pp. 6-19), selecciona las tres aplicaciones de la IA que te parezcan más interesantes. C O NT I NU A R Lección 6 de 6 Referencias Chomsky, N. (2016). ¿Qué clase de criaturas somos? Madrid: Editorial Ariel. Diccionario de la Real Academia Española (2020). Inteligencia artificial [Definición]. Recuperado de: https://dle.rae.es/inteligencia? m=form#2DxmhCT García Serrano, A. (2012). Inteligencia artificial. Fundamentos, práctica y aplicaciones. España Alfaomega. Giró, J., Vázquez, J., Meloni, B. y Constable, L. (2015). Lenguajes formales y teoría de autómatas. Buenos Aires: Alfaomega. Recuperado de: https://www.studocu.com/es-ar/document/universidad-tecnologicanacional/problematica-social-contemporanea/apuntes-de-clase/libro-teoricossl-lenguajes-formales-y-teoria-de-automatas/12852643/view Moravec, H. (1993). El hombre mecánico: el futuro de la robótica y la inteligencia humana. Buenos Aires: Editorial Salvat. Nilsson, N. (2001). Inteligencia artificial: una nueva síntesis. España: Mc GrawHill. Rich, E. y Knight K. (1991). Inteligencia artificial. Madrid: McGraw Hill. Russell, S. y Norvig, P. (2004). Inteligencia artificial. Un enfoque moderno. España: Pearson. Recuperado de: https://luismejias21.files.wordpress.com/2017/09/inteligencia-artificial-unenfoque-moderno-stuart-j-russell.pdf Winston, P. (1994). Inteligencia artificial. Madrid: Addison Wesley. C O NT I NU A R Orígenes de la Inteligencia Artificial En esta lectura 2, se pone el foco en el origen de la inteligencia artificial y se desarrolla una muy breve historia informal, destacando las motivaciones que contribuyeron a su nacimiento. Luego, se presentan los aciertos y dificultades iniciales que posibilitaron la progresiva consolidación de esta disciplina a lo largo de sus sesenta y cuatro años de vida. Esta revisión histórica tiene la finalidad de contribuir a entender mejor las características e implicancias de los problemas que la IA procura resolver. Génesis de la inteligencia arti cial Nacimiento de la inteligencia arti cial Inicio y expectativas La realidad Aportes del conocimiento Madurez de la inteligencia arti cial El regreso del conexionismo Consolidación de la IA como ciencia Agentes inteligentes Primeros cuarenta años de historia de la IA (esquema simpli cado) Desafío propuesto a partir de las notas anteriores Referencias Lección 1 de 12 Génesis de la inteligencia artificial Los años cuarenta fueron ricos en hechos trascendentes que sirvieron de base al nacimiento de la inteligencia artificial, ocurrida en la década siguiente. Para comenzar, debe citarse al “Congreso de Inhibición Cerebral” que tuvo lugar en Nueva York en 1942 y que dio lugar al nacimiento de la cibernética, una propuesta transdisciplinaria orientada al estudio de los mecanismos de control y de las comunicaciones en los seres vivos y en las máquinas. Sus precursores fueron Norbert Wiener y el neurólogo William Ashby. Ese mismo año también se destacó el éxito de los trabajos de Alan Turing para descifrar la codificación de la máquina “Enigma”, a la que se le atribuye un muy importante impacto en el resultado de la guerra. Además, se trató de una de las primeras aplicaciones prácticas de un computador para la resolución de un problema que requirió procesamiento intensivo. Un año más tarde (1943), Warren McCullock y Walter Pitts desarrollaron un primer modelo formal destinado a representar el comportamiento de las neuronas. Es decir, el primer modelo neuronal artificial. Estos estudios y el desarrollo posterior de la neurofisiología fueron la base de las principales hipótesis en que descansa una de las dos ramas de la inteligencia artificial, la llamada "conexionista". Más adelante, trataremos esta rama en profundidad. Ahora, es necesario hacer un paréntesis en esta cronología y retroceder al inicio del siglo. Es para destacar la esencial contribución de Ramón y Cajal (Premio Nobel de 1904). Este científico estudió la estructura y el modo de funcionar de las neuronas. Ramón y Cajal advirtió que el cerebro se reorganiza constantemente, reforzando y debilitando una multiplicidad de puntos de contacto entre las células (sinapsis) que cumplen funciones excitadoras e inhibidoras. Los descubrimientos de Ramón y Cajal, y de otros investigadores como John Eccles y Gerald Edelman, sirvieron de base a la neurofisiología. Retomando la cronología, otro hecho trascendente para la IA fue el congreso de Hixon (California, 1948) sobre "Mecanismos cerebrales del comportamiento". Este encuentro dio lugar al nacimiento de la ciencia cognitiva. En este evento, participaron matemáticos y psicólogos que debatieron y trazaron paralelismos entre la computadora y el cerebro. Un nuevo aporte tuvo lugar el año siguiente, cuando Donald Hebb publicó su libro La organización del comportamiento (1949). Este libro presenta la primera teoría sobre el modo en que las manifestaciones psicológicas (pensamientos, emociones, etc.) pueden ser producidas por la actividad cerebral. Allí se demostró una sencilla regla, apropiada para modificar las intensidades de las conexiones entre neuronas, que actualmente es denominada “aprendizaje hebbiano”. Esta regla es ampliamente utilizada hasta hoy en el entrenamiento de los modelos neuronales artificiales. La década se cierra con una contribución fundamental para la IA. Fue la presentación por parte de Alan Turing de su artículo Computing Machinery and Intelligence (1950) en la revista MIND. En ese texto, Turing se ocupa de los principios del aprendizaje automático y otros aspectos relativos a las capacidades de las máquinas. De esa investigación surge el test que lleva su nombre. C O NT I NU A R Lección 2 de 12 Nacimiento de la inteligencia artificial En el año 1956, se presentaron dos circunstancias que fueron determinantes para el nacimiento de la inteligencia artificial. En los primeros meses de ese año, Shannon y McCarthy editaron una obra denominada Automata studies que contenía una colección de trabajos sobre temas atribuidos en aquella época a la cibernética. Algunos de sus autores eran los más prestigiosos investigadores del momento, tales como John von Neumann, Stephen Kleene, Marvin Minsky, John McKay, William Ashby y Herbert Simon, entre otros. Posteriormente, a mediados de ese mismo año, un grupo que incluía a algunos de estos mismos investigadores, se reunieron en el Dartmouth College para discutir, inspirados en el test de Turing, la posibilidad de construir máquinas que no se limitaran a hacer cálculos prefijados, sino operaciones genuinamente inteligentes. Entre los asistentes, se encontraban los cuatro investigadores que son considerados los padres de la inteligencia artificial: Marvin Minsky y John McCarthy del Instituto Tecnológico de Massachussetts (MIT), Herbert Simon y Allen Newell de la Universidad de Carnegie-Mellon. Minsky trabajaba sobre razonamientos analógicos de geometría y McCarthy estudiaba sistemas capaces de efectuar razonamientos de sentido común. Por su parte, Newell y Simon habían construido dos de los primeros programas de la IA, uno de ellos para la demostración automática de teoremas. Además, ambos tuvieron activa participación en el desarrollo del lenguaje IPL. A ellos, debe sumarse a Arthur Samuel, pionero en el campo de los juegos informáticos y autor de un programa de juego de damas capaz de aprender de su propia experiencia, y a Oliver Selfridge, que estudiaba el reconocimiento visual por computador. McCarthy, que al poco tiempo se trasladó a la Universidad de Stanford, fue el precursor del término “inteligencia artificial” para distinguir a esta naciente disciplina de los otros enfoques de la ciencia de la computación, como es el caso de la teoría de autómatas. Sin embargo, la denominación fue muy resistida por varios años y motivó algunas discusiones entre investigadores que trabajaban en esta área, con la principal oposición de parte de Simon y Newell. Un aspecto para destacar es que, desde el primer momento, la IA abarcó la idea de reproducir facultades humanas. Esto en parte explica que haya mantenido una identidad, marcando una diferencia con otras corrientes de investigación que abordaban muchas veces los mismos temas y perseguían objetivos similares. Por ejemplo: la teoría de control, la investigación operativa y la teoría de la decisión o programación matemática. Otra justificación de esta distintiva y temprana identidad es que la IA se reconoció desde el primer momento una rama de la informática, mientras que en los demás campos el vínculo con la informática fue más lento, por considerársela una mera herramienta de cálculo. C O NT I NU A R Lección 3 de 12 Inicio y expectativas Desde el mismo nacimiento de la IA, los investigadores de MIT y los de Carnegie-Mellon siguieron caminos diferentes. Se fueron alejando, hasta llegar a plantearse un distanciamiento que caracterizó dos corrientes de investigación de la inteligencia artificial de los veinte años siguientes. Fue, sin lugar a duda, muy perjudicial por el atraso que provocó en algunos casos. La escuela liderada por investigadores de la Universidad de Carnegie-Mellon proponía desarrollar modelos del comportamiento humano a partir de elementos que simularán en todo lo posible al cerebro, adoptando un enfoque claramente cognitivo. Así iniciaron una corriente denominada de “aproximaciones subsimbólicas” que sigue un diseño de modelo “ascendente”: comenzando en el nivel más bajo y operando hacia niveles superiores. Según esta corriente, para concebir máquinas inteligentes había que seguir muchos de los pasos evolutivos que acompañaron el desarrollo de la inteligencia en los seres vivos. De esta forma, había que comenzar por duplicar la capacidad de procesamiento de señales y subir por la cadena evolutiva en pasos sucesivos, construyendo progresivos niveles superiores de inteligencia que construirán bases sólidas para los pasos siguientes. Al amparo de esta propuesta, se desarrollaron modelos conexionistas y técnicas sobre “redes neuronales”, todas ellas inspiradas en los modelos biológicos. En el inicio de esta corriente, Newell y Simon fueron sus principales referentes. A ellos se incorporaron otros muchos destacados investigadores, como es el caso de Wilson, Brooks y Hopfield. La segunda escuela, liderada por Minsky y McCarthy del Instituto Tecnológico de Massachussetts (MIT), orientó su actividad a obtener comportamientos “inteligentes” sin procurar que la estructura de los componentes tuviese semejanza con sus equivalentes biológicos, llegando a su mayor auge en los primeros veinte años de la inteligencia artificial. Esta escuela de inteligencia artificial iniciada en el MIT fue denominada “tradicional”, de “procesamiento de símbolos” o de “diseño descendente” y se apoyó en representar el conocimiento mediante sentencias declarativas y en la deducción de sus consecuencias a partir de la aplicación de reglas de inferencia. Una característica que se destacó desde el nacimiento de la IA fue el optimismo exagerado de todos los investigadores. Este optimismo estaba en parte estimulado por varios éxitos iniciales y también por no haber ponderado la enorme dificultad del problema que enfrentaban. Esta tendencia se acentuaba en los defensores de la corriente “tradicional”, quienes a través del “procesamiento de símbolos” tuvieron rápidamente algunos logros significativos al reproducir conductas en apariencia inteligentes. Esta euforia colectiva se manifestó con declaraciones públicas sobre los éxitos alcanzados y los que estaban próximos a ello, citándose como ejemplo un comentario de Herbert Simon (1957) que se hizo famoso y resulta risueño al ser valorado a la distancia (Russell y Norvig, 2004, p. 24). Como contrapartida, los investigadores de ambas corrientes comenzaron a encontrar crecientes dificultades. En el caso de la “subsimbólica”, esto ocurrió debido a la enorme complejidad de tejido neuronal y el muy incipiente conocimiento sobre el mismo. En esa época y en ese clima de optimismo, se comenzaron a hacer notorios los diferentes enfoques de las dos principales corrientes de investigación en la inteligencia artificial. Cada corriente adquirió gradualmente una posición claramente antagónica y hasta intolerante, donde la escuela denominada “simbólica” o “clásica” alcanzó desde el principio una predominancia que definiría la orientación de las investigaciones por los veinte años siguientes. C O NT I NU A R Lección 4 de 12 La realidad Sin embargo, poco a poco se fue comprobando que muchas de las soluciones propuestas eran apropiadas para modelos en escala pequeña, pero completamente ineficientes o inaplicables cuando se pretendía resolver problemas de dimensiones reales. “Los investigadores se encontraron con que sus sistemas sucumbían ante la creciente longitud y complejidad de su programación” (Pazos, Pedreira, Rabuñal y Pereira, 2007, p. 13). Esto explica algunos resonantes fracasos en campos como la traducción automática, el reconocimiento del habla y el juego de ajedrez. También cabe citar la realización de los primeros experimentos en el campo de la “evolución automática” (actuales algoritmos genéticos) a partir de 1958, los que no condujeron a ningún resultado auspicioso a pesar de los miles de horas de tiempo de proceso (CPU) que las pruebas demandaron. Estos fracasos en parte fueron originados por el escaso conocimiento de los dominios estudiados, mucho más complejos de lo esperado, y también por haberse involucrado (sin advertirlo) en problemas caracterizados como “intratables”. Esto es: problemas sujetos a “explosiones combinatorias” que conducían al crecimiento exponencial de la demanda de recursos (tiempo de proceso y espacio de almacenamiento) al aumentar su dimensión básica (tamaño). Por su parte, la corriente “subsimbólica” sumaba, a sus propias dificultades, las descalificaciones provenientes de la otra corriente. La apreciación adversa más resonante apareció con el libro Perceptron (1969) de Minsky y Papert, quienes demostraron que la capacidad de los modelos neuronales era muy limitada. Como consecuencia, se retiró el apoyo a la investigación sobre este tema. Esta circunstancia perduró por muchos años. Superado ese poco alentador período, resulta irónico comprobar que la base del método de entrenamiento de perceptrones en modelos multicapa (backpropagation), que hizo posible recuperar la vigencia de las corrientes conexionistas, había sido descubierto por Bryson y Ho el mismo año que Minsky los descalificaba (1969). Una ironía que atrasó veinte años la investigación en este campo. C O NT I NU A R Lección 5 de 12 Aportes del conocimiento El conductismo, corriente dominante en la psicología durante la primera mitad del siglo XX, perdió progresivamente su predominio para dar lugar a otras corrientes psicológicas que, aunque con diferentes enfoques, retomaron interés por el estudio de las características mentales del hombre y la profundización del conocimiento de los mecanismos que los respalda. Son estas las corrientes denominadas cognitivas. Puede citarse, entre otros, al psicólogo Karl Lashley. Lashley comenzó a sentar las bases de una ciencia cognitiva, tomando progresivamente distancia de los principios conductistas. En efecto, fue uno de los primeros pensadores en poner en duda la capacidad explicativa del conductismo, al considerar que ciertos procesos psicológicos, como la producción espontánea de lenguaje, involucraban actividades específicas del aparato cognitivo del individuo. No podían ser explicados únicamente a partir de cadenas de estímulos y respuestas. Karl Lashley postuló que adherir demasiado a estos cánones conductistas obstaculizaría el avance en el conocimiento de la mente humana, pues dejaba de lado aspectos como la imaginación y los deseos, así como también las conductas humanas complejas, tales como jugar o hablar. De acuerdo a este psicólogo, esas conductas estaban planeadas de antemano según una organización psíquica jerárquica, llegando a la conclusión de que la forma o estructura del sistema nervioso antecede y determina toda conducta concreta. La organización no es impuesta desde el exterior, sino que emana del interior del organismo. Es decir que el sistema nervioso está jerárquicamente organizado y siempre está activo, por esta razón, el control proviene de su centro y no del estímulo ambiental. Para demostrar su teoría, Lashley investigó especialmente el lenguaje. Es así que los investigadores de la IA percibieron que la capacidad de un programa para resolver problemas, en cierta área, provendría del conocimiento que se tenga sobre la misma, y no solamente de los formalismos y métodos de razonamiento empleados. Así, se trasladó el conocimiento al centro de la escena de la inteligencia artificial. En este escenario, perdieron fuerza los denominados “métodos débiles”, es decir, aquellos que entrelazando elementos de razonamiento básico son aplicables a un tipo específico de problema, pero sin la intención de emular a la inteligencia humana. Por ello, se sostenía la posibilidad de demostrar inteligencia sin necesariamente adoptar estados mentales. La alternativa a estos métodos débiles fue el uso de conocimiento específico del dominio con la finalidad de posibilitar procesos de razonamiento más prolongados y complejos. Surgen así los “métodos fuertes” o IAG (Inteligencia Artificial General), con la capacidad potencial de igualar o exceder a la inteligencia humana promedio. Al reconocerse la importancia de disponer de conocimiento sobre el dominio tratado quedó abierto el camino para que una máquina pueda realizar con éxito cualquier tarea intelectual de un ser humano. Si bien para ello hay mucho trabajo por delante, admitir la conveniencia de los “métodos fuertes” tuvo fuerte impacto, brindando resultados inmediatos en la IA. C O NT I NU A R Lección 6 de 12 Madurez de la inteligencia artificial A comienzos de los años ochenta, Steward Wilson, investigador del Instituto Roland de Massachussetts, fue uno de los primeros en advertir de que algo andaba mal en el campo de la inteligencia artificial “tradicional”: las investigaciones progresaban muy lentamente y los métodos fallaban rotundamente cuando eran aplicados a problemas de mayor dificultad. Wilson llegó a la conclusión de que si se intentaba hacer una réplica de la inteligencia humana lo primero era entender y duplicar la inteligencia animal, recurriendo a las expresiones más simples. Advirtió de que no se podía construir una réplica de la inteligencia mientras no se la situara en el contexto de la supervivencia de las criaturas simples. En efecto, a partir de esas evidencias, se llegó rápidamente a la conclusión de que con un enfoque “conductista” solo se lograrían reproducir conductas elementales tales como la de evitar obstáculos o seguir un gradiente luminoso, pero que era imposible introducir natural y sistemáticamente cualquier tipo de aprendizaje o adaptación. Esta era una consecuencia trivial del hecho de que se trataba de “simples máquinas de estados” que no disponían de variables que pudiesen ser cambiadas o sintonizadas para permitir el aprendizaje o la adaptación buscada. Esta reorientación de las líneas de investigación hizo posible una evolución favorable que brindó los resultados deseados. En la actualidad, es imposible ignorar las contribuciones de la IA para resolver problemas humanos en los más diversos campos. Debe tenerse presente que este éxito se logró con imaginación y mucho esfuerzo. Entre otros muchos, puede citarse el caso de los “sistemas expertos”, ya mencionados en la introducción a la Lectura 1. Se trata de sistemas cuya finalidad es emular el razonamiento humano tal como lo haría un ser humano en su área específica de conocimiento y serán tratados en la Lectura 3 cuando se describan las principales áreas de aplicación. Como resultado, puede afirmarse que los “sistemas expertos” constituyen el primer producto con valor comercial inmediato proveniente de la IA. Siguiendo un orden cronológico, la segunda oportunidad que tuvo la inteligencia artificial para demostrar que se trataba de una disciplina madura fue cuando debió dar respuesta a la necesidad de operar vehículos no tripulados sobre la superficie lunar o marciana. Esto es, dotados de autonomía para reducir al mínimo la dependencia de órdenes desde la tierra. El éxito que la IA exhibió aquí fue concluyente. C O NT I NU A R Lección 7 de 12 El regreso del conexionismo El interés por las redes neuronales recién resurgió en los años ochenta. Este fue el resultado de importantes contribuciones entre las que se destacan la de John Hopfield, que en 1982 introdujo líneas de realimentación y vínculos simétricos entre sus unidades. Casi inmediatamente, Dana Ballard (1983) y otros aplicaron exitosamente las redes de Hopfield y técnicas de relajación paralela en modelos de visión artificial. Posteriormente, siguieron con numerosas aplicaciones que afianzaron definitivamente los modelos conexionistas. También debe destacarse el resurgimiento del modelo de perceptrones, con su generalización a partir de su disposición en redes multicapa en las que se incorporan unidades ocultas que no están directamente vinculadas con las entradas ni con las salidas. Para ello, se desarrollaron técnicas especiales de entrenamiento, tales como el backpropagation impulsado por David Rumelhart, Geoffrey Hinton y Ronald Williams (1986). Otras arquitecturas, como los mapas autoorganizativos del finlandés Teuvo Kohonen (1982) y las redes de base radial demostraron ser muy efectivas en ciertos problemas específicos. También merece destacarse que se han conseguido resultados auspiciosos mediante procesos que simulan ciertos aspectos de la evolución biológica tales como cruzamiento, mutación y reproducción de los organismos mejor adaptados, dando lugar a una especialidad dentro de la IA que es la de “vida artificial”. Por último, como testimonio de la importancia adquirida por los modelos conexionistas en la actualidad, cabe acotar que la mayor parte de las líneas de investigación de la IA agrupadas bajo la denominación de machine learning (aprendizaje de máquinas) corresponden a la evolución y perfeccionamiento de modelos neuronales artificiales. C O NT I NU A R Lección 8 de 12 Consolidación de la IA como ciencia Para que una disciplina alcance la condición de “ciencia”, debe exhibir un sistema ordenado de conocimientos estructurados que estudie, investigue e interprete los fenómenos naturales, sociales y artificiales en su campo. Esto implica: Actualmente es más usual el desarrollo sobre teorías ya existentes en lugar de proponer teorías totalmente novedosas, tomar como base rigurosos teoremas o sólidas evidencias experimentales más que intuición y demostrar la utilidad de las aplicaciones en el mundo real más que crear ejemplos de juguete. (Russell y Norvig, 2004, pp. 29-30). Es interesante reconocer que la IA surgió como una forma de rebelión en contra de las limitaciones de las líneas de investigación entonces existentes como la teoría de control, la investigación operativa, las matemáticas y la estadística. Después de sesenta y cuatro años desde su nacimiento, la IA ha alcanzado identidad propia y utiliza recursos de esas disciplinas con el fin de alcanzar sus propios objetivos. Y desarrolla su actividad en forma ordenada a través del método científico. Como ha podido apreciarse, varios hechos, aparentemente aislados en el tiempo y en el espacio, se terminaron convirtiendo en las vertientes de lo que es hoy nuestro objeto de estudio: la inteligencia artificial. Debe observarse, sin embargo, que no fueron una mera coincidencia ya que, todos ellos, expresaban el sentir de numerosos prestigiosos investigadores, que pretendieron debatir criterios y puntos de vistas en temáticas de gran actualidad para la época y que habían alcanzado en aquellos momentos un apropiado nivel de madurez. Puede afirmarse que la IA ha alcanzado la jerarquía de ciencia, lo que no la exime de dificultades tanto por la diversidad de disciplinas involucradas como por el dinamismo que estas implican, expuestas a una permanente evolución. C O NT I NU A R Lección 9 de 12 Agentes inteligentes En su sentido original, el concepto de “agente” se refiere al de un individuo que actúa en nombre de algún otro para cumplir tareas específicas y especializadas, reconociéndose comúnmente así a los agentes de viajes, de ventas, de bolsa de valores, secretos, etc. Este concepto fue extendido a la inteligencia artificial para hacer referencia a entidades que funcionan en forma continua y autónoma, en ambientes en los que interactúan con otras entidades. Estas entidades a las que se denominan “agentes” son autónomas en el sentido que pueden alcanzar sus objetivos sin necesidad de ser guiadas o supervisadas en forma permanente. Los “agentes inteligentes” deben entonces estar incorporados al medio en el que operan, percibiéndolo y actuando sobre el mismo. En este punto, es oportuno reconocer que detrás del concepto de agente se enmascara un muy amplio espectro de áreas de investigación y realizaciones tecnológicas que cubren todo el dominio de la inteligencia artificial. La ventaja de este moderno enfoque es que hace posible un tratamiento integrador, incluyendo no solo métodos, técnicas y herramientas, sino también productos. En estos últimos, se incluyen tanto aquellos que se materializan en elementos tangibles (equipos) como aquellos otros de conceptualización abstracta (software). Este tema será tratado con más detalle en la lectura 4. C O NT I NU A R Lección 10 de 12 Primeros cuarenta años de historia de la IA (esquema simplificado) Figura 1: Esquema del desarrollo de la IA Fuente: elaboración propia. Como puede observarse, los antecedentes de los dos congresos anteriores (cibernética y ciencia cognitiva) generaron un clima propicio y despertaron entre los matemáticos un claro interés hacia la inteligencia artificial. Y el hecho que condujo a la concreción del taller de Darmouth College fue la publicación de Computing Machinery and Intelligence por parte de Alan Turing. El gran valor de este taller (workshop) estuvo en favorecer el intercambio de opiniones entre todos aquellos que, desde sus respectivos institutos, venían dando los primeros pasos en este campo. Por lo tanto, sin ninguna duda que debe ser reconocido como el hecho que dio lugar al nacimiento de la IA. Una vez concluido el evento, aparecen las dos corrientes antagónicas y la clara rivalidad entre ambas. Luego, la oportuna intervención de Stewart Wilson, que llega en un momento en el que ya se había puesto en evidencia que ciertas corrientes de investigación estaban mal encaminadas. Y la justa rehabilitación de las corrientes conexionistas, injustamente descalificadas. Luego, el estímulo que provocó el éxito de los sistemas expertos y la providencial necesidad por parte de la NASA de disponer de vehículos no tripulados capaces de cumplir misiones en la superficie de la Luna y Marte. Esta última aportó recursos económicos y permitió demostrar el grado de madurez que había alcanzado la IA, pero por sobre todas las cosas, le dio un impulso definitivo a la integración de la robótica con la IA. Hasta ese momento, la robótica tenía dos ramas totalmente desconectadas: la que se ocupaba de la cinemática y dinámica de sus complejos mecanismos, y la que buscaba aportarles inteligencia. Llegados a este punto, en el que se han completado dos lecturas, es de esperar que el estudiante comience a sentirse capaz de reconocer las características e implicancias de los problemas habituales de la IA. Se continuará trabajando para consolidar esta aptitud. C O NT I NU A R Lección 11 de 12 Desafío propuesto a partir de las notas anteriores Se invita nuevamente al lector a procurar responder a los interrogantes que se presentan a continuación. Se revisarán aspectos centrales de la Lectura 2 para comprobar que han sido bien interpretados. Luego, el siguiente paso será leer partes del capítulo 1 de Russell y Norvig (2004, pp. 19-32) y el fragmento del capítulo 1 de García Serrano (2012, pp. 5-7), en los que se tratan los mismos temas con mayor amplitud y algunas variantes. Por último, se debe volver sobre las preguntas aquí formuladas y las respuestas propuestas con un espíritu de autoevaluación. La intención es estimular una mirada crítica sobre el trabajo realizado desde una posición de mayores conocimientos sobre los temas tratados. Se reitera que estas preguntas tienen como única finalidad contribuir a que el estudiante compruebe por sí mismo sus conocimientos, no tratándose de una instancia de evaluación. Las consignas son las siguientes: 1 Identificar los tres hechos que a su juicio fueron los de mayor trascendencia en la evolución y consolidación de la inteligencia artificial. Presenta estos hechos ordenados según su importancia y justifica tu propuesta. 2 Identificar las dos principales corrientes de la IA y explicar cada una. Describe las ventajas y debilidades de cada una. 3 Identificar las tres personalidades que a tu juicio fueron las de mayor trascendencia en la evolución de la inteligencia artificial. Presenta a estas personas ordenadas según su importancia y justifica tu propuesta. C O NT I NU A R Lección 12 de 12 Referencias García Serrano, A. (2012). Inteligencia artificial. Fundamentos, práctica y aplicaciones. España Alfaomega. Giró, J., Vázquez, J., Meloni, B. y Constable, L. (2015). Lenguajes formales y teoría de autómatas. Buenos Aires: Alfaomega. Recuperado de: https://www.studocu.com/es-ar/document/universidad-tecnologicanacional/problematica-social-contemporanea/apuntes-de-clase/libro-teoricossl-lenguajes-formales-y-teoria-de-automatas/12852643/view Pazos, A., Pedreira, N., Rabuñal, J. R. y Pereira, J. (2007). Inteligencia artificial y computación avanzada. En Romero, J. J., Dafonte, C., Gómez, A. y Penousal, F. J. (editores), Inteligencia artificial y computación avanzada. Santiago de Compostela: Fundación Alfredo Brañas. Recuperado de: https://www.academia.edu/14542133/INTELIGENCIA_ARTIFICIAL_Y_COMP UTACIÓN_AVANZADA Russell, S. y Norvig, P. (2004). Inteligencia artificial. Un enfoque moderno. España: Pearson. Recuperado de: https://luismejias21.files.wordpress.com/2017/09/inteligencia-artificial-unenfoque-moderno-stuart-j-russell.pdf Turing, A. (1950). Computing Machinery and Intelligence. MIND, 59, 236. C O NT I NU A R Áreas de la Inteligencia Artificial Enfoques de la inteligencia arti cial Áreas de aplicación nal Desafío propuesto a partir de las notas anteriores Referencias Lección 1 de 4 Enfoques de la inteligencia artificial La inteligencia artificial cubre un campo muy amplio y, por lo tanto, resulta natural comprobar que es susceptible a ser considerada desde diversos puntos de vista. Es así que según la perspectiva que se considere al definir sus objetivos, la inteligencia artificial puede ser tratada de formas completamente diferentes. Todo esto ya fue anticipado al final de la Lectura 1 y aquí trataremos el tema con mayor profundidad. Perspectiva cognitiva – el objeto es el estudio de los mecanismos de la inteligencia. La inteligencia artificial suministra los medios de análisis y simulación para verificar y evaluar modelos o teorías. En este caso, la inteligencia artificial aporta las técnicas y herramientas, pero el objetivo final es ajeno a su área. Perspectiva pragmática – el objetivo es crear sistemas con capacidades habitualmente atribuidas a la inteligencia humana. La implementación de tales sistemas puede a su vez responder a alguno de los enfoques también anticipados en la Lectura 1. Estos son: a. Enfoque real: sistemas que forman parte del mundo en que vivimos. Este enfoque admite a su vez dos agrupamientos según el área de aplicación: a.1 Área intermedia: se concentra en métodos o herramientas orientadas a la percepción/acción y al tratamiento de su información. a.2 Área final: se ocupa de aplicaciones o productos finales con identidad propia. b. Enfoque virtual: sistemas que operan en un mundo virtual por estar contenidos en el computador. Dentro de este enfoque, a su vez, se incluye la siguiente distinción: b.1 Simulación del mundo real: se trabaja con aplicaciones y modelos destinados a obtener resultados que tendrán aplicación inmediata en el mundo real. Nuevamente, hay dos agrupamientos según el área de aplicación. b.1.1 Área intermedia: se concentra en el desarrollo de métodos y herramientas para el tratamiento de la información. b.1.2 Área final: se ocupa de aplicaciones o productos finales con identidad propia. b.2 Representación de un mundo metafórico: se exploran entornos de “vida artificial”, anticipando “hábitats” novedosos y recreando ecosistemas artificiales. En el próximo apartado, se trabajará sobre estas últimas “áreas finales”, pero antes parece oportuno completar la interpretación de la clasificación anterior. Antes que nada, debe reconocerse que hay otras formas de clasificar a la inteligencia artificial, siendo esta uno más de tales intentos. La finalidad de incluirla aquí es reconocer esta necesidad ante el lector. Ahora, y con el objeto de disipar toda posible duda, es recomendable sintetizar las ideas anteriores en el esquema que se presenta a continuación. Figura 1: Inteligencia artificial. Esquema 1 Fuente: elaboración propia. Habiendo completado el esquema que ilustra las clasificaciones habituales en la inteligencia artificial, el paso siguiente es hilar más fino en el “área intermedia” de la “simulación del mundo real”. Esto es para reconocer al aprendizaje de máquinas (machine learning) como una rama de la inteligencia artificial que agrupa las técnicas que permiten el aprendizaje de las computadoras, en su mayoría modelos conexionistas (redes neuronales artificiales). Cabe aclarar que se afirma que hay “aprendizaje” cuando el desempeño de un sistema mejora con la experiencia, no estando condicionado por la concepción inicial. Este tema se tratará más adelante. A continuación, completamos el esquema anterior, brindando ejemplos de técnicas agrupadas dentro del aprendizaje de máquinas y otras áreas. Figura 2: Inteligencia artificial. Esquema 2 Fuente: elaboración propia. Las disciplinas reconocidas como “áreas de aplicación final” no han sido desarrolladas en este esquema. En cambio, las describiremos en el próximo apartado. Cabe aclarar que un mismo tema puede quedar encuadrado de diferente manera según su enfoque. Por ejemplo, la visión artificial puede asignarse al área final o al área intermedia de la simulación del mundo real o al área final del enfoque real (ojo artificial). C O NT I NU A R Lección 2 de 4 Áreas de aplicación final Cabe reconocer que la frontera entre las áreas intermedias y las áreas de aplicación final es difusa. Se ha dicho que las áreas intermedias se ocupan del desarrollo de métodos y herramientas, mientras que las áreas de aplicación son productos ofrecidos al usuario final. Si bien la mayoría de los casos quedan clasificados sin duda alguna, no son pocos los que pueden interpretarse de una u otra forma a partir de detalles muy sutiles. Con esto debe quedar claro que las áreas de aplicación final no están estrictamente definidas y son materia opinable. La propuesta que sigue es en su mayor parte atribuible a Russell y Norvig (2004), con algunas variantes que son oportunamente señaladas. Planificación autónoma – La planificación autónoma tiene por objeto el desarrollo de planes para alcanzar un cierto objetivo, a partir de una condición inicial dada y de un conjunto de acciones posibles oportunamente definidas. Una de las principales aplicaciones de esta disciplina es la definición de la secuencia de movimientos que debe realizar un robot autónomo móvil para manipular y trasladar un objeto desde un punto a otro. Este problema se presenta con frecuencia en la manipulación de material en ambientes contaminados o radioactivos. También en el desempeño de vehículos sobre la superficie lunar o marciana. En todos los casos, se le transmite el objetivo y las acciones requeridas para su cumplimiento son decididas por el robot en tiempo real y en el escenario del problema. Teoría de juegos – La teoría de los juegos representa una disciplina matemática denominada estrategia analítica, que se refiere al desarrollo e implementación de planes para alcanzar ciertos objetivos. Su objeto es la toma oportuna de decisiones en las llamadas situaciones de conflicto. En estas situaciones, chocan los intereses de dos o más agentes que persiguen objetivos opuestos, donde cada una de las partes concreta sucesivas acciones procurando alcanzar sus propios objetivos. En este contexto, el éxito de una parte significa el fracaso de la otra. La teoría de juegos utiliza modelos para estudiar la elección de la conducta óptima en procesos de toma de decisiones. Los juegos son uno de los campos de trabajo más antiguos de la IA, despertando el interés de los investigadores desde que se dispuso de las primeras computadoras programables. La planificación estratégica se aplica principalmente a asuntos militares (estrategia militar) y en actividades de negocios. En estos últimos, se usa para definir la dirección general de una compañía (dirección estratégica) en aspectos financieros, desarrollo de recursos humanos, organizativos, tecnológicos o de marketing. También son utilizados en una muy amplia variedad de actividades, tales como campañas electorales, competiciones deportivas y juegos de esparcimiento con y sin oponente. Control autónomo – El control autónomo es una evolución del control automático que a su vez proviene del control manual, donde la percepción y oportuna acción correctiva es realizada por una persona. En el control automático, esta corrección es realizada a través de un ciclo de realimentación que incluye la secuencia siguiente: percepción, determinación del error y ajuste de la variable de control. Estos sistemas, normalmente muy eficaces y ampliamente utilizados desde la revolución industrial para operar todo tipo de máquinas, están preparados para actuar en un cierto dominio de las variables de control. Además, el control está ajustado acorde al tiempo de respuesta del sistema controlado y puede fallar si este es alterado. Por otra parte, cuando se involucran numerosas variables de control y otras variables controladas (sistemas MIMO: múltiples entradas y salidas), el ajuste del sistema de control se torna muy laborioso. La respuesta a este problema se encuentra dejando el control a cargo de un modelo neuronal artificial que sea capaz de ajustar su desempeño a partir de la comprobación del resultado de sus acciones, es decir, de aprender de su propia experiencia. Los modelos neuronales apropiados para gobernar sistemas de control han tenido un muy importante desarrollo y siguen siendo objeto de grandes esfuerzos de investigación. Constituyen uno de los campos más exitosos de la inteligencia artificial destinado a resolver problemas convencionales. Sistemas expertos – La función de los sistemas expertos es la de disponer de todo el conocimiento posible y emular la capacidad de razonamiento humana en un campo del saber muy específico, para alcanzar o superar en desempeño a cualquier experto humano. Las aptitudes de todo buen sistema experto incluyen: a) acceder a una importante y actualizada base de conocimiento sobre el dominio; b) disponer de mecanismos de razonamiento para aplicar el conocimiento a los problemas que se presenten; c) perfeccionar su desempeño a partir de la recepción de datos sobre sus aciertos y errores; d) tener un tiempo de respuesta apropiado; e) poder presentar de manera ordenada un encadenamiento de ideas que justifique el diagnóstico o recomendación brindada, y f) una interfaz amigable y configurable con el usuario. Por su parte, las ventajas de los sistemas expertos no son pocas. Entre otras: a) están siempre disponibles y en forma ininterrumpida; b) pueden replicarse en la medida que se los necesite; c) pueden situarse en donde sean necesarios, sin limitaciones; d) disponen de un módulo de explicación que permite conocer el proceso lógico que respalda toda opinión brindada; e) pueden ser reprogramados y actualizados regularmente; f) admiten consultas directas por diferentes medios, y g) su desempeño puede ser comprobado y certificado a partir de evaluaciones específicas sobre casos sensibles. Los sistemas expertos están prestando diariamente su función altamente especializada, asesorando y contribuyendo a la toma de decisiones en otros muchos campos. Entre los más reconocidos pueden citarse: diagnóstico médico de enfermedades infecciosas en sangre (Mycin), configuración de computadores (Xcon), interpretación de estructura molecular (Dendral), análisis de datos de la exploración petrolera (Dipmeter Advisor), diagnóstico en medicina interna (CADUCEUS), entorno de desarrollo de sistemas expertos (Clips), reparación de locomotoras diésel y eléctricas (Delta), y recuperación inteligente de información jurídica (EasyFind), entre otras. Logística – La inteligencia artificial ha tenido un fuerte impacto en la logística, posibilitando un cambio radical en el sistema de trabajo en las cadenas de suministro. En efecto, las empresas pasaron de un esquema reactivo a otro proactivo. En el primero, las operaciones logísticas se adaptaban a las variaciones de la demanda. En el segundo, los gestores están en condiciones de anticipar el comportamiento del mercado y preparan sus recursos en consecuencia. El resultado es una mejora de la eficiencia y un aumento de la rentabilidad. De esta manera, se ha otorgado a los sistemas la capacidad para tomar decisiones de manera inteligente y ejecutar operaciones automatizadas sin intervención humana alguna. Un recurso clave es el aprendizaje de máquinas que permite a las propias máquinas aprender y mejorar los procesos de manera progresiva, apoyándose en los registros históricos de actividad y en la repetición de operaciones. Robótica – La robótica exhibe en la inteligencia artificial una presencia inigualable: es la corriente más antigua, que hizo sus aportes a la nueva disciplina desde el primer día, y es a su vez la orientación de la IA que en la actualidad despierta mayores expectativas por las posibilidades que ofrece en el futuro. Esto explica que se la incluya como una de las disciplinas que contribuyeron a la IA (Lectura 1) y ahora como una de las áreas de aplicación final. Ese privilegio sólo es compartido con la lingüística. La robótica presenta además otra singularidad: es la que reúne en sus aplicaciones la mayor cantidad de disciplinas tradicionales. Toda aplicación de la robótica incluye a la ingeniería mecánica, ingeniería eléctrica, ingeniería electrónica, ingeniería biomédica (incluyendo a la neurología) y ciencias de la computación. Todo esto es necesario para concretar el diseño, construcción, operación, estructura, manufactura y aplicación de los robots autónomos. El programa de esta asignatura brinda un tratamiento preferencial a los robots, siendo objeto de la unidad 4. Procesamiento de lenguaje natural – Como ya se anticipó, la lingüística comparte el privilegio de haber estado presente en toda la historia de la inteligencia artificial. Más aún, la lingüística fue uno de los factores de mayor impacto en la convocatoria de su nacimiento (1956). Y, en la actualidad, es una de las actividades que despierta las mayores expectativas desde el procesamiento del lenguaje natural: campo compartido por la ciencia de la computación, inteligencia artificial y lingüística para el estudio de las interacciones entre las computadoras y el ser humano a través del lenguaje. Su finalidad es la formulación e investigación de recursos eficaces para optimizar la comunicación entre personas y máquinas a través del lenguaje natural. Los modelos aplicados se enfocan en la comprensión del lenguaje, en aspectos cognitivos propios de los humanos y en la organización de la memoria. Resolución de problemas – La inteligencia artificial mostró su orientación hacia la resolución de problemas desde el mismo día de su nacimiento. Para esto, se concibieron algunas herramientas generales (general problem solver) y se desarrollaron lenguajes de programación específicos. Se argumenta que esta orientación estuvo inspirada en el interés en desarrollar máquinas que razonen como lo hace el ser humano, a la vez de aprovechar su mayor rapidez de cálculo. Y, en la creencia, ahora reconocida como errónea, de que las metas de la IA eran los problemas que presentaban mayor dificultad al hombre. En efecto, la experiencia demostró que los verdaderos desafíos de la IA son las conductas habituales y las capacidades humanas innatas, tales como comunicarse, percibir el medio a través de los sentidos y actuar en consecuencia. Mientras tanto, muchos problemas encontraron su respuesta óptima: la IA suministró técnicas que aportaron de diferente manera una solución a situaciones que hasta el momento habían sido inabordables. En ese contexto, cabe citar el desarrollo y perfeccionamiento de los llamados “métodos de búsqueda en el espacio de estados”. En ellos, el problema es planteado en términos de encontrar una configuración-objetivo a partir de una configuración inicial dada. Con ese fin se dispone de acciones o transformaciones válidas que reconocen prerrequisitos, que son los que determinan la estrategia que conduce hacia la solución. De acuerdo a la información disponible en cada instancia, el proceso de búsqueda será exhaustivo o estará orientado por reglas heurísticas procurando la solución más efectiva. Este tema está incluido en el programa de la materia. Minería de datos – Se trata de un campo en el que converge la inteligencia artificial y la estadística. Su objetivo es definir procesos de descubrimiento de patrones en grandes volúmenes de datos. Para ello, se utilizan sistemas de bases de datos y modelos conexionistas, según se trate de datos textuales o gráficos. La finalidad es extraer, a partir de una interpretación apropiada, información de la masa de datos para su uso posterior. Los patrones deben poder considerarse representativos de los datos procesados y ser luego utilizados en procesos de aprendizaje automático y predictivo. A la minería de datos se la reconoce como KDD (knowledge discovery in databases), literalmente “descubrimiento de información en bases de datos”. Es actualmente reconocida como una muy poderosa herramienta para la toma de decisiones, respaldada por la interpretación de una cantidad muy numerosa de evidencias. La minería de datos incluye al cubo OLAP (on line analytical processing), en español “procesamiento analítico en línea”, que es una base de datos en la cual el almacenamiento físico de los datos es realizado en un espacio multidimensional. Los cubos OLAP pueden ser considerados como una novedosa hoja de cálculo multidimensional, siendo una solución utilizada en el campo de la llamada “inteligencia de negocios” (business intelligence) y su objetivo es agilizar la consulta e interpretación de grandes cantidades de datos. Habiendo llegado a este punto, es oportuno hacer un balance del material tratado en las primeras tres lecturas de la materia. 1 Se presentó y definió la inteligencia artificial reconociéndola como una disciplina “joven” (64 años de edad). Se aprendió a distinguir las conductas inteligentes de las automáticas, se identificaron las disciplinas que contribuyeron a la IA y se dio un primer paso explorando formas de clasificación. 2 Se reconocieron los motivos que contribuyeron al nacimiento de la IA y se revisaron las primeras épocas. Se reconoció que estuvieron caracterizadas por exagerado optimismo, muchas dificultades, antagonismo entre líneas de investigación y escasos resultados. Felizmente, hubo aportes y circunstancias oportunas que permitieron corregir el rumbo y encaminar las cosas hasta llegar al momento actual: la IA es una disciplina madura, consolidada como ciencia y capaz de aportar soluciones a problemas concretos. 3 Se profundizó la clasificación de la IA según varios criterios, facilitándose su interpretación a través de esquemas. Luego, se reconocieron nueve áreas de “aplicaciones finales”, es decir de aporte de soluciones a problemas concretos. Se presentó una breve descripción de cada una de estas áreas. A partir de este esfuerzo, que tuvo el respaldo de material bibliográfico de prestigiosos autores, se trabajó sobre dos actividades que deberían poder considerarse cumplidas en una primera etapa. Estas son: Reconocer las características e implicancias de los problemas habituales de la IA (M1). Distinguir la conducta automática de la autónoma y los niveles de inteligencia (M1). C O NT I NU A R Lección 3 de 4 Desafío propuesto a partir de las notas anteriores Una vez completada esta lectura, se debe procurar responder a los interrogantes que se presentan a continuación. La finalidad es revisar aspectos centrales y comprobar que han sido bien interpretados. Luego, el siguiente paso será leer un fragmento del capítulo 1 de Russell y Norvig (2004, pp. 32-34) y un fragmento del capítulo 1 de García Serrano (pp. 1-8). Estos autores tratan estos mismos temas con mayor amplitud, desde otro punto de vista o con algunas variantes. Por último, se debe volver sobre las preguntas formuladas y las respuestas propuestas con un espíritu de autoevaluación final. Es decir, aplicar una mirada crítica sobre el trabajo realizado desde una posición de mayores conocimientos sobre los temas tratados. Se reitera que estas preguntas tienen como única finalidad contribuir a que el estudiante compruebe por sí mismo sus conocimientos y que no se trata de una instancia de evaluación. Las consignas son las siguientes: 1 A partir de la nueva información obtenida en esta lectura, vuelve a ordenar los criterios de clasificación de la IA según su orden de importancia o mayor conveniencia. Justifica brevemente tu elección. 2 Verifica los vínculos entre las descripciones de los criterios de clasificación de la inteligencia artificial y el esquema que los representa. 3 Proponer dos temas que, según tu opinión, pueden dar lugar a diferentes clasificaciones a partir de cómo quede definido su alcance. 4 De acuerdo a tu criterio, ordenar las nueve áreas de aplicación final considerando la importancia que en ellas ha tenido la IA. C O NT I NU A R Lección 4 de 4 Referencias García Serrano, A. (2012). Inteligencia artificial. Fundamentos, práctica y aplicaciones. España Alfaomega. Russell, S. y Norvig, P. (2004). Inteligencia artificial. Un enfoque moderno. España: Pearson. Recuperado de: https://luismejias21.files.wordpress.com/2017/09/inteligencia-artificial-unenfoque-moderno-stuart-j-russell.pdf C O NT I NU A R Agentes Inteligentes En esta última parte del Módulo 1, se pone el foco en un concepto generalizador que es el de “agente inteligente”: una metáfora que resultó muy apropiada para reconocer las cualidades y desempeños de una entidad funcional abstracta capaz de exhibir conductas inteligentes. Al igual que en las lecturas anteriores, se vuelven a presentar notas destinadas a facilitar la aproximación a la bibliografía principal de la materia, haciendo esta tarea más gradual y efectiva. El material de referencia es el libro de Russell y Norvig (páginas 37 a 64). Concepto de agentes inteligentes y su entorno Estructura de los agentes inteligentes Tipos de agentes inteligentes Generalización del concepto de agentes inteligentes Desafío propuesto a partir de las lecturas Referencias Video conceptual Revisión del módulo Lección 1 de 8 Concepto de agentes inteligentes y su entorno En su sentido original, el concepto de “agente” se refiere al de un individuo que actúa en nombre de algún otro para cumplir tareas específicas y especializadas. Se reconoce comúnmente a los agentes de viajes, de ventas, de bolsa de valores, secretos, etc. Este concepto fue trasladado a la inteligencia artificial para hacer referencia a entidades racionales que funcionan en forma continua y autónoma en ambientes en los que interactúan con otras entidades. Estas entidades, a las que se denominan “agentes”, son autónomas en el sentido de que pueden alcanzar sus objetivos sin necesidad de ser guiadas o supervisadas en forma permanente. Como ya definimos en la lectura 1, la autonomía es la condición necesaria para exhibir inteligencia. Debe entonces reconocerse el concepto de agente como una metáfora que permite hacer referencia a una entidad genérica, física o conceptual, que goza de los atributos necesarios según las funciones que debe desempeñar en determinado medio. También es importante destacar la condición de racionalidad. Esto implica operar de manera de maximizar su rendimiento, tomando como referencia las evidencias obtenidas a través de su capacidad de percepción y del conocimiento almacenado. Por último, los “agentes inteligentes” deben estar incorporados al medio en el que operan, percibiéndolo y actuando sobre él. Esto significa que los agentes tienen fines específicos y, por lo tanto, son entidades especializadas. Es decir que a partir de las características del medio en el que trabajan y sus finalidades, quedarán definidas las capacidades requeridas de percepción y acción. La percepción representa la capacidad de obtener información sensible del entorno (para lo cual está dotado de sensores) y la acción representa la capacidad de actuar sobre el medio (realizada a través de actuadores). Ambos, sensores y actuadores, definen completamente la capacidad operativa de un agente. Según el objetivo del agente, la percepción implica reconocer imágenes, interpretar sonidos (en un caso extremo, el habla), percibir temperaturas, conocer la propia posición y dirección de movimiento, etc. Para ello, debe disponerse de los sensores apropiados y los recursos para convertir esas señales en mediciones expresadas en valores referidos a escalas conocidas. Por su parte, la acción involucra navegación y manipulación. Es decir, la capacidad de trasladarse en el medio evitando obstáculos y la capacidad de tomar un objeto, posicionarlo y abandonarlo. Se reitera que las capacidades y precisiones necesarias serán claramente dependientes de la finalidad del agente. Lo dicho hasta aquí queda resumido en la apreciación de Russell y Norvig al expresar que “un agente es cualquier cosa capaz de percibir su medio ambiente con la ayuda de sensores y operar sobre ese medio utilizando actuadores” (2004, p. 37). En este punto, es oportuno reconocer que detrás del concepto de agente se enmascara un muy amplio espectro de áreas de investigación y realizaciones tecnológicas que cubren todo el dominio de la inteligencia artificial. La ventaja de este moderno enfoque es que hace posible un tratamiento integrador, incluyendo no solo métodos, técnicas y herramientas, sino también productos. En estos últimos, se incluyen tanto aquellos que se materializan en elementos tangibles (equipos) como aquellos otros de conceptualización abstracta (software). Queda ahora por tratar el concepto de “entorno”, que en forma genérica se lo puede interpretar como el “problema” para el cual el agente representa la “solución”. Buscando una mirada alternativa, el entorno representa el “hábitat” del agente, es decir, su ambiente laboral. En este punto, la literatura en general reconoce cinco propiedades o atributos de los entornos de un agente y sus rangos: 1 Observabilidad: desde total o parcial a muy escasa. 2 Determinismo: desde total a aleatorio. 3 Secuencialidad: desde completa a irregular o episódica. 4 Variabilidad: estático (sin cambio) o dinámico (permanente cambio). 5 Naturaleza: discreta o continua (normalmente con referencia al tiempo). Para completar la definición de un entorno de agentes, es necesario establecer una última condición: si se trata de un agente individual o de un sistema multiagente. Esto último implica definir el nivel de interacción entre ellos: desde una condición colaborativa donde una tarea es compartida, hasta una actividad completamente individual donde la única condición es evitar que involuntariamente se interfieran. Para cerrar este último tema, cabe identificar la peor condición en lo que se refiere al entorno de un agente: poco observable – aleatorio – irregular – dinámico – continuo – multiagente. En lo que se refiere a la secuencialidad (regular o irregular), no hay criterio unánime en cuanto a qué condición representa mayor complejidad o exigencia: completa secuencialidad o episódica. Debería admitirse que depende de las demás condiciones, por lo tanto, la secuencialidad será consecuencia de ellas. C O NT I NU A R Lección 2 de 8 Estructura de los agentes inteligentes Desde el momento en el que se admite que el “agente” es una abstracción que hace referencia a una entidad genérica, de existencia física o conceptual, es muy poco lo que se puede avanzar con referencia a precisiones en cuanto a su estructura. Como punto de partida, se debe considerar que un agente contiene genéricamente dos componentes: el físico y el lógico. El físico incluye los elementos materiales necesarios para operar, tanto en lo referido a la percepción como a la acción. En ese sentido, debe citarse a la visión, en toda su escala, desde reconocimiento de señales hasta entendimiento de imágenes. También debe tenerse en cuenta el reconocimiento del habla, desde interpretación de comandos hasta capacidad de entender un discurso continuo y no estructurado. Con respecto a la acción, ya se citaron las dos principales: manipulación y navegación. Los elementos materiales eléctricos/electrónicos. podrían agruparse Mecánicos: bastidores, en mecánicos transmisiones, y ruedas, cremalleras, cajas reductoras, manipuladores y otros muchos elementos. Eléctricos: sensores, amplificadores, interfaces, procesador, medios de entrada y salida, fuentes, baterías, cableados y otros accesorios. Todo lo anterior es indispensable si se trata de un agente con presencia física y totalmente innecesario de ser un agente lógico. Por el contrario, la lógica es indispensable en ambos casos, porque es lo que le da identidad al agente, de hecho, es la clave de su inteligencia. C O NT I NU A R Lección 3 de 8 Tipos de agentes inteligentes Un aspecto importante a considerar es la identificación y clasificación de agentes en tipos asociados a sus cualidades y capacidades. La clasificación de Russell y Norvig (2004) reconoce cinco tipos. 1 Agente reactivo simple Figura 1: Agente reactivo simple Fuente: Russell y Norvig, 2004, p. 54. Se trata de los agentes más simples, ya que seleccionan las acciones sobre la base de sus percepciones actuales, no disponiendo de un historial en cuanto a percepciones previas. Esto es así porque el agente directamente no dispone de registros de su actividad anterior o estos registros son muy limitados. 2 Agente reactivo basado en modelos Figura 2: Agente reactivo basado en modelos Fuente: Russell y Norvig, 2004, p. 56. Estos agentes son capaces de almacenar información sobre su actividad cumplida para ser consultada posteriormente. Luego, cuando deben actuar, la respuesta es definida a partir de la percepción de la realidad actual y de los registros históricos apropiados de desempeños en situaciones similares (acciones y sus efectos). 3 Agente basado en objetivos Figura 3: Agente basado en objetivos Fuente: Russell y Norvig, 2004, p. 57. Es este caso, el agente opera con base en la percepción de la situación actual, los registros de actividad histórica e información sobre su meta. Esta última debe describir las situaciones que son deseables de alcanzar. Es decir que el agente llevará adelante una forma de estrategia por no solo conocer el presente y pasado, sino también su objetivo. 4 Agente basado en utilidad Figura 4: Agente basado en utilidad Fuente: Russell y Norvig, 2004, p. 59. Estos son agentes basados en objetivos, que además cuentan con una función utilidad. Esta función permite al agente contrastar sus preferencias entre los estados posibles, a efectos de seleccionar luego la acción que debe llevar a cabo para alcanzar la mayor utilidad. En resumen, el agente decide con base en el estado actual, las experiencias previas, los objetivos planteados y la conveniencia para ser más efectivo. 5 Agente con capacidad de aprendizaje Figura 5: Agente con capacidad de aprendizaje Fuente: Russell y Norvig, 2004, p. 59. Este agente anterior disponía de la capacidad de operar con base en el estado, registros de acciones previas, el objetivo planteado y la función utilidad, que implica criterio para decidir. El nuevo agente dispone de una capacidad operativa mucho más flexible, menos estructurada, que se basa en la distinción de condiciones complejas y su experiencia al abordarlas. Para ello, las decisiones están basadas en el aprendizaje. La tipificación de agentes de Russell y Norvig (2004) es muy elocuente en lo referido al progresivo aumento de capacidad de decisión a medida que se dispone de mayor información, quedando representado el punto máximo por la capacidad de aprendizaje. Otra propuesta muy interesante es la de Nilsson (2001) que en alguna medida reconoce un paralelismo en cuanto a conceptos, aunque más limitada en detalles. Esta propuesta tipifica los agentes inteligentes en cuatro grupos básicos, distinguidos entre sí por sus capacidades finales. Esta clasificación es con frecuencia adoptada para organizar la enseñanza de la inteligencia artificial. Los agentes así agrupados son los siguientes: a. Agentes reactivos – Estos agentes no son capaces de ninguna acción espontánea y su conducta queda exclusivamente determinada por su entorno. Aquí se encuentran dos casos según si su conducta sólo depende de los estímulos externos o si hay también un condicionante histórico. En este último caso, deben reconocerse a estos agentes como “máquinas de estados” con una función de transición determinista o no determinista que gobierna su comportamiento. b. Agentes planificadores – Los agentes aquí agrupados tienen la habilidad de anticipar los efectos de sus acciones y seleccionar aquellas que supuestamente lo conducirán a sus objetivos, por lo que se reconoce que son capaces de planificar su actividad. Para algunos autores, esta cualidad es una condición esencial para ser merecedores del calificativo de “inteligentes”. Se reconocería así en ellos un primer nivel rudimentario de inteligencia. c. Agentes razonadores – La incorporación de la capacidad deductiva otorga a los agentes un nivel adicional de inteligencia. En este grupo, se consideran también atributos como el de la autonomía y la capacidad de aprender. Estos atributos despegan al agente de su diseño original, ya que suman a su comportamiento conductas apoyadas también en sus propias experiencias. De esta manera, quedan encuadrados como “autónomos”, condición para ser reconocidos como verdaderamente inteligentes. d. Agentes interactuantes – Si los agentes del grupo anterior son introducidos en un mundo habitado por otros agentes, su capacidad de razonamiento deberá incorporar previsiones sobre las conductas de terceros, la interacción a través de alguna forma de comunicación y la posibilidad de influir entre ellos. Para influir sobre las conductas de otros agentes se presentan dos posibilidades: la realización de cambios en el entorno que conduzcan al comportamiento deseado o la acción directa sobre ellos con el fin de alterar sus objetivos, conocimientos o prioridades. Para implementar la comunicación en estos agentes, se debe incorporar el lenguaje. La clasificación propuesta por Nilsson podría calificarse como funcional mientras que la de Russell y Norvig, además de funcional, avanza en una mayor descripción sobre su composición. C O NT I NU A R Lección 4 de 8 Generalización del concepto de agentes inteligentes El concepto de “agente inteligente” incluye tanto las materializaciones de entidades físicas como abstractas. Sin embargo, es necesario advertir que este término ha tenido recientemente gran difusión para hacer referencia en particular a agentes de software o “softbots”, como es el caso del trabajo de Nwana (1996). En este campo de los “agentes de software”, cabe hacer una clasificación primaria de acuerdo a que la finalidad de estos elementos sea constructiva o destructiva. Estos últimos son en general tratados separadamente por la literatura especializada y se les reserva el nombre propio de “vir

Use Quizgecko on...
Browser
Browser