🎧 New: AI-Generated Podcasts Turn your study notes into engaging audio conversations. Learn more

L2 Intentionality gap and preter-intentionality in gen AI (1).pdf

Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

Full Transcript

Machine Translated by Google IA Y SOCIEDAD https://doi.org/10.1007/s00146­024­02007­w FORO ABIERTO Brecha de intencionalidad y preterintencionalidad en la inteligencia artificial generativa Roberto Redaelli1 Recibido: 11 de abril de 2024 / A...

Machine Translated by Google IA Y SOCIEDAD https://doi.org/10.1007/s00146­024­02007­w FORO ABIERTO Brecha de intencionalidad y preterintencionalidad en la inteligencia artificial generativa Roberto Redaelli1 Recibido: 11 de abril de 2024 / Aceptado: 27 de junio de 2024 © El autor(es) 2024 Abstracto La aparición de la inteligencia artificial generativa, como los grandes modelos de lenguaje y los modelos de conversión de texto a imagen, ha tenido un profundo impacto en la sociedad. La capacidad de estos sistemas para simular capacidades humanas como la escritura de textos y la creación de imágenes está redefiniendo radicalmente una amplia gama de prácticas, desde la producción artística hasta la educación. Si bien no hay duda de que estas innovaciones son beneficiosas para nuestras vidas, no se debe subestimar la omnipresencia de estas tecnologías, que plantean cuestiones éticas cada vez más apremiantes que requieren una resemantización radical de ciertas nociones tradicionalmente atribuidas solo a los humanos. Entre estas nociones, la de intencionalidad tecnológica desempeña un papel central. Con respecto a esta noción, este artículo se propone en primer lugar destacar lo que proponemos definir en términos de la brecha de intencionalidad, por la cual, en la medida en que, actualmente, (1) es cada vez más difícil asignar responsabilidad por las acciones realizadas por los sistemas de IA a los humanos, ya que estos sistemas son cada vez más autónomos, y (2) es cada vez más complejo reconstruir el razonamiento detrás de los resultados que producen a medida que nos alejamos de la buena IA tradicional; Hoy en día, resulta aún más difícil rastrear la intencionalidad de los sistemas de IA hasta las intenciones de los desarrolladores y los usuarios finales. Esta brecha entre la intencionalidad humana y la tecnológica requiere una revisión del concepto de intencionalidad; con este fin, proponemos aquí asignar un comportamiento preterintencional a la IA generativa. Usamos este término para destacar cómo la intencionalidad de la IA incorpora y trasciende la intencionalidad humana; es decir, va más allá de la intencionalidad humana (preter) al tiempo que está vinculada a ella. Para mostrar los méritos de esta noción, primero descartamos la posibilidad de que dicha preterintencionalidad sea meramente una consecuencia no deseada y luego exploramos su naturaleza comparándola con algunas nociones paradigmáticas de intencionalidad tecnológica presentes en el debate más amplio sobre el esta Palabras clave Inteligencia artificial · Filosofía de la tecnología · Ética de la inteligencia artificial · IA generativa 1 Brecha de responsabilidad, brecha de subestimada y que plantea cuestiones éticas cada vez más urgentes conocimiento y brecha de intencionalidad que exigen una resemantización radical de ciertas nociones tradicionalmente atribuidas únicamente a los humanos. La aparición de la inteligencia artificial generativa, como los grandes Un ejemplo de esta necesidad es la llamada brecha de modelos de lenguaje y los modelos de conversión de texto a imagen, ha responsabilidad (Matthias 2004), que exige una redefinición de la tenido un profundo impacto en nuestra sociedad. La capacidad de estos noción de responsabilidad (véase, por ejemplo, Santoni de Sio y sistemas para simular capacidades humanas como la escritura de textos Mecacci 2021; Faroldi 2021; Gunkel 2020; Loh y Loh 2017; Hanson y la creación de imágenes está redefiniendo radicalmente una amplia 2009). Cuanto más autónomas sean las máquinas, menos intervención gama de prácticas, desde la producción artística (véase, por ejemplo, humana se necesitará y más difícil será identificar quién o qué es Zhou y Lee, 2024) hasta la educación (véase, por ejemplo, Akinwalere e responsable de las acciones de los sistemas de IA. ¿La imagen Ivanov , 2022). Si bien no hay duda de que estas innovaciones son beneficiosasproducida para nuestra por un generador de arte de IA es obra del usuario que vidas, la omnipresencia de estas tecnologías no debería ser introdujo el mensaje o de la IA generativa (Terzidis et al. 2023)? ¿Debería atribuirse la victoria de AlphaGo a AlphaGo o a sus desarrolladores (Gunkel 2020)? ¿En qué sentido podemos decir que * Roberto Redaelli [email protected] la IA es responsable o cuasi­responsable (Stahl 2006) de sus acciones? 1 Departamento de Filosofa Piero Martinetti, Philtech. Esta brecha de responsabilidad, según la cual es difícil encontrar Centro de Investigación en Filosofía de la Tecnología, Università un criterio para la redistribución de la responsabilidad Degli Studi Di Milano, Milán, Italia Volumen:(0123456789) Machine Translated by Google IA Y SOCIEDAD La brecha de conocimiento entre agentes humanos y sistemas de IA intencionalidad con la que está dotada la IA generativa en términos de está relacionada con la llamada brecha de conocimiento (Coeckelbergh preter­intencionalidad para expresar mejor la naturaleza excedente de 2022b: 123­124), lo que significa que cada vez somos menos la intencionalidad tecnológica incorporada en dichos modelos con conscientes de cómo un sistema de IA llega a un determinado respecto a la intencionalidad humana (Sección 4). resultado. La opacidad algorítmica1 de la que se ven afectados los últimos modelos de aprendizaje automático no nos permite confiar en ellos en campos especialmente sensibles, como el legal (véase, por 2 Intencionalidad en la IA generativa, falacia de diseño ejemplo, Funke 2022) y el médico (véase, por ejemplo, Ratti & Graves 2022; Herzog 2019). y consecuencias no deseadas Por lo tanto, actualmente se propone la IA explicable (XAI) (Gunning et al. 2019) para reconstruir el razonamiento seguido por la IA en el Para delimitar el tema de nuestro trabajo, conviene señalar que la proceso de toma de decisiones. Sin embargo, las técnicas propuestas intencionalidad tecnológica no es simplemente una consecuencia no (por ejemplo, aprendizaje automático causal; para este enfoque, deseada, en el sentido de un efecto imprevisto del uso de la tecnología véase, por ejemplo, Kaddour et al. 2022) no siempre logran abrir la (Tenner 1996). De hecho, en el campo de la IA generativa, diseñamos caja negra. máquinas que van intencionalmente más allá de nuestras intenciones, es A este escenario, caracterizado por las brechas de responsabilidad decir, su comportamiento no está, desde la etapa de diseño, y conocimiento, se suma lo que proponemos definir en términos de la completamente determinado por el programa ni es predecible por los brecha de intencionalidad, que está estrechamente vinculada a las diseñadores (véase, por ejemplo, Douglas Heaven 2024). Aunque son dos primeras. En la medida en que (1) es cada vez más difícil asignar los seres humanos quienes asignan un objetivo al sistema, los responsabilidad por las acciones realizadas por los sistemas de IA a diseñadores, en algunos casos, no tienen suficiente conocimiento de los humanos, ya que estos sistemas son cada vez más autónomos, y cómo el sistema lo realizará y cómo interactuará con el entorno para (2) es cada vez más complejo reconstruir el razonamiento detrás de lograrlo y, por lo tanto, de las decisiones que tomará. los resultados obtenidos por ellos cuanto más nos alejamos de la (Mittelstadt 2016). Este carácter no determinista de la IA la diferencia buena IA de toda la vida (Haugeland 1985); ahora es aún más difícil de cualquier herramienta simple, como un martillo, que ciertamente rastrear la intencionalidad de los sistemas de IA hasta las intenciones puede usarse para fines distintos a los planeados; sin embargo, tales de los desarrolladores y usuarios finales. En otras palabras, mientras usos incorrectos no son más que violaciones del plan de uso2 (ver que en el pasado la IA simbólica, es decir, la IA explícita y basada en Vermaas et al. 2022) y son meras consecuencias no deseadas. En el reglas, simplemente incorporaba las intenciones de los desarrolladores plan de uso de la IA generativa, en cambio, hemos caracterizado de y usuarios, los modelos de aprendizaje automático y aprendizaje manera no determinista los resultados que, a través de técnicas profundo ahora tienen capacidades que no estaban presentes en los aleatorias, dan resultados intencionalmente modelos anteriores y que transmiten una intencionalidad que ya no es resultados impredecibles, que hacen de la IA generativa una máquina simplemente derivada. Por ejemplo, la imagen producida por un abierta (Simondon 2017) con respecto al entorno. modelo de texto a imagen no es predecible por el artista y no es el De hecho, sólo el sistema de IA está diseñado de tal manera que mero resultado de la indicación que él o ella introdujo. De manera funciona más allá de las intenciones de los diseñadores desde el principio. similar, los LLM tienen capacidades emergentes (Wei et al. 2022), Por lo tanto, no se trata sólo de afirmar, como hace Ihde, que “todas como la capacidad de autocorrección moral (Ganguli et al. 2023), que las tecnologías”, incluida la IA, “muestran posibilidades ambiguas y ciertamente no son parte de las funciones diseñadas. En este sentido, multiestables” con respecto a los usos, la inserción cultural y la estamos produciendo sistemas de IA que sabemos, desde la etapa de política, y que, en consecuencia, es una falacia reducir todas las diseño, que estarán más allá de nuestras intenciones y conocimientos. funciones de las tecnologías a las intenciones del diseñador (Ihde En este artículo, pretendemos discutir esta intencionalidad 2002: 106). Más bien, se trata de reconocer que la IA generativa tecnológica que supera la intencionalidad humana para mostrar que posee un carácter preterintencional congénito, en el sentido de ir más dicha intencionalidad es un elemento congénito de los modelos allá de las intenciones humanas tanto de los usuarios como de los generativos de IA. Una vez que hemos descartado la posibilidad de diseñadores, y este excedente es una consecuencia esperada. De que dicha intencionalidad sea una mera consecuencia no deseada hecho, las diversas formas de IA generativa están dotadas de la (Sección 2), pretendemos explorar su naturaleza comparándola con capacidad de aprendizaje automático, es decir, de aprender de los algunas nociones paradigmáticas de intencionalidad tecnológica datos y proporcionar resultados originales (un texto, presentes en el amplio debate sobre el estatus moral (y tecnológico) de la IA (Sección 3). Finalmente, proponemos definir el tipo de intencionalidad tecnológica. 2 Van de Poel define el plan de uso en los siguientes términos: “Un plan de uso es un plan que describe cómo se debe utilizar un artefacto para lograr ciertos objetivos o cumplir su función. En otras palabras, un plan de uso describe el uso adecuado de un artefacto técnico, 1 Los algoritmos “son opacos en el sentido de que si uno es receptor de la salida del y ese uso adecuado dará como resultado (en el contexto adecuado y con usuarios con las algoritmo (la decisión de clasificación), rara vez tiene una idea concreta de cómo o por qué competencias adecuadas) que el artefacto cumpla su función adecuada” (Van de Poel se ha llegado a una clasificación particular a partir de las entradas” (Burrell 2016: 1). 2020). Machine Translated by Google IA Y SOCIEDAD una imagen o un vídeo), que intencionalmente no tienen por qué o intención de actuar en sentido amplio (Sullins 2006), por nombrar limitarse a reproducir los datos facilitados, ni tienen por qué ser sólo algunos de los significados que se le atribuyen.3 Por lo tanto, reducibles a la mera intención de los diseñadores o usuarios. como ya se desprende de estas alusiones, bajo la égida de este En este sentido, retomando una de las ideas de Simondon, se puede término se esconde un atolladero de ideas que no se pueden observar que el perfeccionamiento de las máquinas no corresponde recomponer fácilmente en un esquema unitario. Esta polisemia, a la a un automatismo completo o a una predeterminación completa sino que siempre se ha vinculado el término intencionalidad, tiene el efecto a que el funcionamiento de una máquina contiene un cierto margen de multiplicar las posiciones en el debate sobre el estatuto moral de de indeterminación (Simondon 2017). Este margen permite a la la inteligencia artificial. De hecho, estas posiciones, aunque apelan a máquina responder mejor a las entradas e interactuar con el entorno. alguna forma de intencionalidad, no parecen estar de acuerdo sobre En virtud de esta indeterminación o determinación incompleta, lo que se entiende por este término. podemos desarrollar una IA que resuelva un problema de forma A pesar de la complejidad de este escenario, se pueden reconocer inesperada (Terzidis 2023: 1718), es decir, sin saber de antemano ciertas posiciones paradigmáticas que invierten el estatus moral de cómo manejará las entradas y cuál será el papel de cada entrada en las tecnologías de IA en relación con la noción de intencionalidad. el proceso de generación de la salida (Mittelstadt 2016: 4). La primera, representada por Deborah Johnson, tiende a identificar los sistemas informáticos y la IA como meras extensiones de los Así, mientras que los sistemas de IA son alocéntricos porque somos humanos (Johnson 2006) o agentes sustitutos (Johnson y Powers los humanos quienes definimos sus objetivos, son autónomos y no 2008; Johnson y Noorman 2014), reduciendo la intencionalidad heterónomos ya que tienen un carácter indeterminado y se dan reglas tecnológica a la intencionalidad humana. En este caso, la (Terzidis 2023: 1720). intencionalidad del sistema (ordenadores, robots, IA) emerge de la A continuación examinaremos algunas posiciones paradigmáticas que, intrincada red de relaciones que involucra la intencionalidad de los en el contexto del debate sobre el estatuto moral (y tecnológico) de la programadores y los usuarios, donde los primeros están, por así inteligencia artificial, asignan algún tipo de intencionalidad a los sistemas decirlo, embebidos en el sistema, mientras que los segundos de IA. En relación con estas posiciones, cuyos méritos y limitaciones proporcionan la entrada para que la intencionalidad del sistema se destacamos, proponemos aplicar la noción de preter­intencionalidad al active. De hecho, estos sistemas incorporan la intencionalidad de los comportamiento de la IA generativa, convencidos de que esta noción da usuarios y diseñadores en su propia intencionalidad, que está cuenta mejor que otras de la peculiar dinámica que se establece entre la relacionada con su funcionalidad (Johnson 2006: 201), formando así intencionalidad humana y la intencionalidad tecnológica en la IA generativa. una tríada de intencionalidad que está presente en las tecnologías. La intencionalidad del sistema es, por tanto, en última instancia identificable a través de la capacidad de producir un resultado (el comportamiento resultante) a partir de los datos de entrada y, por tanto, está dada por la unión de la intencionalidad de los diseñadores 3 El problema de la intencionalidad en los sistemas con la de los usuarios. Desde esta perspectiva, las consecuencias de inteligencia artificial inesperadas producidas por los sistemas informáticos y un cierto carácter no determinista del que está dotado el ordenador se En el debate sobre el estatus moral de la inteligencia artificial (véase, remontan, según Johnson, a los seres humanos y a su incapacidad por ejemplo, Coeckelbergh 2020a: 47–62; Llorca Albareda et al. 2023; para prever los resultados; es decir, son parte del comportamiento Redaelli 2023a), la cuestión de si los artefactos técnicos tienen arriesgado (Johnson 2006: 203­204). Por lo tanto, para Johnson, el alguna forma de intencionalidad (o no) que permita considerarlos agente artificial no es más que un agente sustituto de los humanos parte del mundo moral (o excluirlos de él) juega un papel que dista (Johnson y Powers 2008; Johnson y Noorman 2014), que realiza los mucho de ser marginal. De hecho, el concepto de intencionalidad intereses humanos que se le delegan. constituye una piedra angular en la construcción de la noción de Cabe señalar que esta postura, además de ser acusada de agencia moral, como lo demuestra, entre otras cosas, el hecho de instrumentalismo y antropocentrismo (Gunkel 2017: 68), no parece que, en muchos casos, los objetos tecnológicos han sido excluidos tener en cuenta el comportamiento de ciertas tecnologías como el del ámbito de la ética precisamente porque carecen de intencionalidad, aprendizaje automático (Redaelli 2023a), que pueden, por ejemplo, a la que tradicionalmente se vinculan las nociones de autonomía y conducir a sistemas de IA. responsabilidad. En contraste con estas posiciones, actualmente existe una tendencia a atribuir cada vez más alguna forma de intencionalidad a 3 Esta tendencia a atribuir intencionalidad a los sistemas de IA se encuentra no sólo en el los sistemas de IA. Más específicamente, se reconoce que estos ámbito filosófico, sino también en el de la informática. En este ámbito, estudios muy sistemas, al igual que las tecnologías más complejas, tienen lo que recientes confirman, mediante investigaciones cuantitativas, la presencia de cierta intencionalidad en los sistemas inteligentes e intentan clarificar este concepto. En este se define en términos de intencionalidad tecnológica (véase, por sentido, véase, en relación con los agentes de aprendizaje por refuerzo, sobre todo el ejemplo, Mykhailov y Liberati 2023), entendida de vez en cuando trabajo de Córdoba et al. 2023; Ward et al. 2024. como funcionalidad (Johnson 2006), directividad (Verbeek 2011), Machine Translated by Google IA Y SOCIEDAD “desincorporar” los valores inherentes a ellos o incorporar otros nuevos A través de la noción de intencionalidad compuesta5 (Verbeek 2011; (Umbrello y van de Poel 2021), un comportamiento que es difícil de 2008). De hecho, en esta forma de intencionalidad tecnológica, “existe explicar en términos de relaciones entre humanos y máquinas. un papel central para las 'intencionalidades' o direccionalidad de los En otras palabras, estos fenómenos muestran que no todos los aspectos artefactos tecnológicos mismos, ya que interactúan con las y operaciones de la IA generativa pueden rastrearse hasta las intenciones intencionalidades de los seres humanos que usan estos artefactos” de los humanos que los implementaron. (Verbeek 2011: 145). Más precisamente, en estas palabras, en las que Cercano a esta posición, que recuerda la noción de agente sustituto, se enfatiza la interacción entre la intencionalidad humana y tecnológica, está el modelo de decisión­delegación, en el que “los humanos deberían Verbeek señala que la intencionalidad compuesta ocurre cuando hay conservar el poder de decidir qué decisiones tomar” (Floridi & Cowls una sinergia entre la intencionalidad tecnológica, que está dirigida “hacia 2019) y limitar la autonomía de los agentes artificiales. Sin embargo, 'su' mundo”, y la intencionalidad humana, que está “hacia el resultado de como también observaron Terzidis et al. (2023), una vez que los humanos esta intencionalidad tecnológica”. delegamos tareas a las máquinas, estas pueden producir resultados que van más allá de las intenciones de los diseñadores, y es difícil mantener (Verbeek 2011: 146). Así, en el caso de la intencionalidad compuesta, el control sobre sus decisiones. De hecho, el resultado de una IA no se “los humanos están dirigidos aquí a las formas en que una tecnología caracteriza de manera determinista y, particularmente en presencia de está dirigida al mundo” (Verbeek 2008: 393), donde la tecnología es un técnicas de abandono (Srivastava et al. 2014), el resultado es difícil de mediador entre el mundo y el humano. predecir. Por lo tanto, el modelo de decisión­delegación parece ignorar En este sentido, es importante señalar que, a ojos de Verbeek, con la intencionalidad peculiar de los sistemas de IA y su generatividad. este tipo de intencionalidad tecnológica se revela una realidad accesible sólo a dichas tecnologías y que, al mismo tiempo, a través de ellas, entra en el ámbito humano. En este sentido, el autor asigna a este tipo de Para dar cuenta de esta generatividad, esta vez en el ámbito del arte intencionalidad una doble función, representativa y constructiva. digital y no en el de la moralidad, Terzidis et al. (2023) introducen la noción de “intencionalidad no intencional”, atribuyendo al resultado del Esto significa que esta intencionalidad tecnológica no sólo puede sistema de IA una intención no relacionada con la intención de los propios representar la realidad, sino también constituir una realidad que existe desarrolladores. Más precisamente, los autores diferencian el verbo sólo para la intencionalidad humana si se combina con la intencionalidad “intentar” de “intención” como sustantivo resultante y asocian la intención tecnológica (véanse, por ejemplo, las imágenes producidas por los no con la fuente sino con el resultado mismo (Terzidis et al. 2023: 1720). generadores de arte de IA; sobre este punto, véase Redaelli 2023a). En este sentido, reconocen una intención en el resultado sin tener que Como hemos intentado demostrar en otro lugar (Redaelli 2023b), asignar una intención al sistema de IA. Esto les permite atribuir al esta noción de intencionalidad compuesta parece particularmente resultado artístico de un sistema de IA una intención más allá de la adecuada para explicar la intencionalidad presente en los sistemas de IA. intencionalidad de los programadores. Estos sistemas, de hecho, presentan una intencionalidad tecnológica entendida como directividad que orienta nuestra acción y pensamiento. Esta postura, aunque parece convincente en el contexto del arte Una directividad o intencionalidad que está ciertamente ligada al hombre digital, donde no hay objetivos exteriores (Terzidis et al. 2023: 1716), se que diseña la máquina y la utiliza pero que, al mismo tiempo, presenta basa exclusivamente en el resultado del proceso artístico, dejando un carácter emergente con respecto a abiertamente de lado el proceso que conduce al resultado en sí mismo y, por lo tanto, sin abordar la interrelación de sistemas humanos e inteligentes detrás del resultado. Por esta razón, las reflexiones de los 5 Para entender mejor la propuesta de Verbeek, es necesario observar que en Verbeek autores se basan exclusivamente en una posición consecuencialista que, (2011) el autor utiliza la expresión intencionalidad compuesta en un doble sentido. Por un si bien afirma que la intencionalidad no es solo humana y puede lado, el autor, refiriéndose a una noción amplia de intencionalidad compuesta, afirma que asignarse a un esquema computacional, descuida la investigación de la “la intencionalidad es siempre un asunto híbrido que involucra intenciones humanas y no intencionalidad tecnológica de la IA generativa y, por lo tanto, la acción humanas o, mejor, 'intenciones compuestas' con intencionalidad distribuida entre los elementos humanos y no humanos en las relaciones humano­tecnología­mundo” (Verbeek conjunta hombre­máquina detrás de ella.4 2011: 58). En este sentido, una forma de intencionalidad compuesta está en funcionamiento en toda relación humano­tecnología. Por otro lado, Verbeek desarrolla, en el mismo texto, Una posición que da cuenta de esta acción conjunta y del estatus una noción, por así decirlo, estrecha de intencionalidad compuesta, donde la intencionalidad peculiar de la intencionalidad tecnológica fue desarrollada en el campo tecnológica juega un papel central y la intencionalidad humana interactúa con la de la tecnología, formando una intencionalidad compuesta que no solo cumple una función posfenomenológico por Peter Paul Verbeek. mediadora, sino que forma relaciones compuestas (Verbeek 2011: 140). En tales relaciones, a la intencionalidad humana se suma la intencionalidad artificial. A pesar de esta distinción, es necesario aclarar que la noción estrecha a la que nos referimos en este trabajo presupone evidentemente la noción amplia de intencionalidad compuesta. 4 En este sentido, Terzidis et al. (2023) reducen la intención que transmite el resultado a una mera consecuencia inesperada, mientras que según nuestra propuesta se trata de una consecuencia intencionada en la IA generativa. Machine Translated by Google IA Y SOCIEDAD La intencionalidad humana, tanto de los programadores como de los intencionalidad, evitando al mismo tiempo los malentendidos que pueden usuarios, está vinculada a su capacidad de estructurar nuevas formas de surgir del uso que Verbeek hace del concepto de intencionalidad. realidad (de otro modo inaccesibles para los humanos) y, por lo tanto, está relacionada en última instancia con su generatividad. En este sentido, la intencionalidad de las máquinas va más allá de la triangulación destacada por Johnson, ya que no es reducible a la mera funcionalidad 4 Preter­intencionalidad diseñada por humanos y desencadenada por la entrada del usuario: los artefactos incorporan intenciones humanas y al mismo tiempo presentan Para aclarar el sentido del término preter­intencionalidad, conviene “formas emergentes de mediación” (Verbeek 2011: 127). Por lo tanto, recordar su origen latino. Este término, empleado en ciertos ordenamientos los agentes artificiales no son meros sustitutos del agente humano, sino jurídicos, por ejemplo, en el derecho penal italiano,7 está compuesto, de que poseen su propia agencia. hecho, por el prefijo preter, ‘más allá’, e intentĕre, en el sentido de dirigir, Aunque esta posición es capaz de dar cuenta de la mezcla de la tender.8 El sentido que conlleva es, por tanto, el de ir más allá de la intencionalidad humana y la tecnológica, cuando esta última no es una intención del agente (praeter intentionem), en el sentido de que el efecto mera expresión de la primera, se enfrenta, según algunos críticos, a de una acción puede superar la intención del autor.9 numerosas dificultades.6 Para resumir estas objeciones, podemos preguntar: ¿en qué sentido debemos entender la redistribución de la Además del uso legal de este término, el significado de ir más allá de intencionalidad entre los humanos y la tecnología? Y, de nuevo, ¿de qué la intención del hacedor parece particularmente adecuado para indicar la manera la intencionalidad del hombre y la de la máquina, que ya incorpora dinámica que saca a la luz la intencionalidad compuesta, según la cual la intencionalidad humana, forman una intencionalidad compuesta? la intencionalidad tecnológica que surge en la interacción entre humanos ¿Cómo podemos entender esta intencionalidad compuesta? Éstas son e IA no se puede reducir a la intencionalidad humana, sino que excede sólo algunas de las preguntas que quedan sin respuesta por parte de la intencionalidad humana incorporada por la máquina. En este sentido, Verbeek. el término preter­intencionalidad parece reunir dos casos divergentes en los que las expresiones intencionalidad tecnológica y compuesta no A estos problemas no resueltos se añade el problema de la se explican perfectamente. terminología empleada por el filósofo, para lo cual Coeckelbergh observa acertadamente que “algunas de estas objeciones En primer lugar, el término tiene el mérito de poner de relieve cómo podrían evitarse si Verbeek no utilizara términos y el papel director que desempeñan los sistemas inteligentes en la frases como la 'moralidad de las cosas' y la 'agencia moral de las cosas', experiencia humana no es totalmente reducible a la intención humana pero se quedan con la afirmación de que las tecnologías median la que intencionalmente los trajo a la existencia. De hecho, como ya hemos moralidad” (Cockelbergh 2020b: 67). Lo mismo puede decirse de la observado, la IA generativa se desarrolla intencionalmente para ir más noción de intencionalidad tecnológica, que en Verbeek parece referirse, allá de las intenciones de los desarrolladores. Con respecto a este según algunos críticos (véase, por ejemplo, Peterson y Spahn 2011), a estatus peculiar, el Parlamento Europeo habla de un sistema de IA de un tipo de intención de actuar, de la que evidentemente carecen las propósito general (GPAI), que "muestra una generalidad significativa y máquinas. es capaz de realizar de manera competente una amplia gama de tareas Aunque estas críticas son en su mayoría malentendidos de las tesis distintas independientemente de la forma en que se coloque el modelo de Verbeek (véase Redaelli 2022), cabe señalar que la aparición de tales en el mercado" (Artifcial Intelligence Act 2024: 63). Para dar cuenta de la críticas se debe a una falta de vigilancia hacia el lenguaje. Por lo tanto, no intencionalidad de ciertas aplicaciones de este tipo de IA generativa, Coeckelbergh tiene razón al enfatizar el papel central del lenguaje en el término preter­intencionalidad parece particularmente apropiado ya nuestra relación con las tecnologías. En particular, dicho en términos que los diseñadores desarrollan intencionalmente sistemas cuyas wittgensteinianos, un juego de lenguaje (Wittgenstein 1953) “es parte de funciones no son específicamente lo que hacemos y de cómo hacemos las cosas en un contexto social particular”. 7 (Coeckelbergh 2022a), por lo que debemos prestar cada vez más El Código Penal italiano contiene disposiciones sobre la culpabilidad y menciona atención a las palabras que utilizamos en relación con las nuevas en el artículo 42 la culpa intencional, preterintencional, tecnologías. Este carácter trascendental del lenguaje nos lleva a atribuir y la comisión culposa de un delito. En cuanto al ámbito jurídico, cabe señalar que el uso del término “preter­intencionalidad” plantea la cuestión de si debe atribuirse a las tecnologías no tanto una forma de intencionalidad compuesta como responsabilidad a los agentes artificiales. Aunque la cuestión no se aborda en este una forma de preter­intencionalidad. trabajo, se hacen importantes consideraciones en relación con el derecho penal en Esta noción, en nuestra opinión, refleja mejor el entrelazamiento del Far­oldi 2021. hombre y la máquina al que se refiere la noción de compuesto. 8 “Más allá o adicional a lo que se pretende” (“Preterintentional”, Diccionario Oxford Inglés). 9 En el campo filosófico, Di Martino (2017) utiliza el término preter­intencionalidad 6 Para una visión general de las críticas dirigidas a Verbeek, véase Cockel­ para explicar los efectos de retroalimentación de las tecnologías sobre los humanos y bergh (2020). los procesos de subjetivación humana. Machine Translated by Google IA Y SOCIEDAD En este sentido, proponemos definir, según una circularidad que no es, Consecuencia inesperada. De hecho, el resultado de una IA generativa sin embargo, viciosa, esa preter­intencionalidad como congénita a tales refleja la fuente, que no es ni exclusivamente humana ni exclusivamente sistemas. tecnológica, sino que viene dada por la interacción entre el hombre y la En segundo lugar, la sustitución del término intencionalidad por el de máquina, en la que la acción de la máquina tiene un carácter preter­intencionalidad pone de relieve que los sistemas de IA no poseen preterintencional que recuerda su relación con el hombre y, al mismo ni una intención consciente de actuar ni una intencionalidad en sentido tiempo, su excedente. Este excedente es buscado conscientemente por amplio. En este sentido, el término preter­intencionalidad no parece los diseñadores con la ayuda de algoritmos de ML, que pueden aprender prestarse a la crítica de atribuir alguna forma de intencionalidad a los de los patrones y características presentes en el conjunto de datos y sistemas de IA. De hecho, si se considerase al sistema de IA y al ser generar nuevas imágenes, textos y, por lo tanto, nuevos resultados que humano como un único actante, para utilizar la terminología de Latour corresponden a los parámetros de entrada. (véase, por ejemplo, Latour 2005) o como un agente compuesto o extendido (Hanson 2009), se podría reconocer evidentemente una acción conjunta que es a la vez intencional (por parte del hombre) y no intencional 5 Conclusiones (por parte del sistema de IA). En este sentido, ir más allá de las intenciones humanas por parte de las máquinas adquiere un significado claro: pone Nuestro análisis muestra que el término preter­intencionalidad es de relieve el carácter intencionalmente no predeterminado de la acción de particularmente adecuado para referirse al comportamiento generativo de los sistemas de IA generativos, una acción que, sin embargo, no es una la IA por las siguientes razones: acción consciente de la máquina, sino que recoge en sí misma la acción consciente del hombre. 1) En comparación con el término intencionalidad, que en muchos casos parece referirse a una intención consciente de actuar, el término Frente a los dos polos de la intención y la no intención se encuentra, preter­intencionalidad se refiere tanto a la superación de las pues, la preter­intencionalidad, término con el que queremos hacer lugar, intenciones de los diseñadores y usuarios por parte de la IA dentro de la IA generativa, al reconocimiento de una intencionalidad generativa como a su dependencia de ellas, sin dejar lugar a tecno­lógica que malentendidos que el término intencionalidad encuentra. 2) El término preter­intencionalidad es adecuado para explicar la 1) no es una mera extensión de lo humano (Johnson 2006); generatividad de los sistemas de IA sin tener que asignarles una 2) tampoco puede reducirse, como lo hace Verbeek (2011; 2008) , a una intencionalidad en sentido estricto. intencionalidad cuya composicionalidad no está clara; 3) El término preterintencionalidad parece responder a los desafíos que 3) y todavía no es reducible a una intencionalidad vinculada plantea lo que hemos llamado la brecha de intencionalidad, según exclusivamente al resultado pero no al proceso que conduce al la cual en la actualidad resulta cada vez más difícil rastrear el resultado mismo (Terzidis et al. 2023). comportamiento de los sistemas de IA hasta la intencionalidad humana. En este sentido, el término preterintencionalidad resalta la El ejemplo del modelo de red neuronal recurrente Sketch­RNN puede interacción hombre­máquina de la que surge el comportamiento del ayudarnos a comprender la noción de pre­ter­intencionalidad. Este sistema de IA. experimento de Google permite a los usuarios dibujar juntos con un Financiación Financiación de acceso abierto proporcionada por la Università degli Studi di modelo de red neuronal recurrente llamado Sketch­RNN, que garabatea Milano dentro del Acuerdo CRUI­CARE. imágenes en función del dibujo inicial del usuario y la elección de un modelo (gato, araña, jardín, etc.). Una vez que los usuarios comienzan a Declaraciones dibujar un objeto, Sketch­RNN puede continuar dibujando ese objeto de Conflicto de intereses El autor declara no tener ningún conflicto de intereses. muchas maneras posibles en función de dónde lo dejen los usuarios (consulte las demostraciones de Sketch­RNN). Acceso abierto Este artículo está licenciado bajo una Licencia Creative Commons En este experimento, se puede observar tanto la intencionalidad Atribución 4.0 Internacional, que permite el uso, intercambio, adaptación, distribución y humana en el nivel de programación y entrada para iniciar el sistema, reproducción en cualquier medio o formato, siempre que se otorgue el crédito correspondiente como la preter­intencionalidad no humana que comienza a partir del al autor original y a la fuente, se proporcione un enlace a la licencia Creative Commons y se indique si se realizaron cambios. Las imágenes u otro material de terceros en este modelo y el boceto humanos, pero va más allá de ambos. En este sentido, artículo están incluidos en la licencia Creative Commons del artículo, a menos que se el resultado de la interacción generativa humano­IA (la imagen producida) indique lo contrario en una línea de crédito al material. Si el material no está incluido en la excede las intenciones de los agentes humanos que diseñaron y utilizan licencia Creative Commons del artículo y el uso que pretende darle no está permitido por la dicha IA: no pueden predecir el resultado, y esta imprevisibilidad es regulación legal o excede el uso permitido, deberá obtener permiso directamente del titular de los derechos de autor. Para ver una copia de esta licencia, visite http://creativecommons.org/ esperable ya que se requiere que el sistema produzca un boceto original. licenses/by/4.0/. Este ejemplo deja claro que no se puede considerar el mero resultado, como lo hacen (Terzidis et al. 2023) , sin considerar el proceso que hay detrás de él, ni tampoco se puede reducirlo a una mera Machine Translated by Google IA Y SOCIEDAD Referencias Ihde D (2002) Cuerpos en la tecnología. University of Minnesota Press, Minneapolis­ Londres Johnson DG (2006) Sistemas informáticos: entidades morales pero no agentes Akinwalere SN, Ivanov V (2022) Inteligencia artificial en la educación superior: morales. Ethics Inf Technol 8:195–204. https://doi.org/10.1007/ desafíos y oportunidades. Border Cross. https://doi.org/10.1016/j.akinwalere.sn. s10676­006­9111­5 org/10.33182/bc.v12i1.2015 Johnson DG, Noorman M (2014) Agencia artefactual y agencia moral artefactual. Ley de Inteligencia Artificial de 2024. Resolución legislativa del Parlamento En: Kroes P, Verbeek PP (eds) El estatus moral de los artefactos técnicos. Europeo, de 13 de marzo de 2024, sobre la propuesta de Reglamento del Springer, Dordrecht, pp 143–158 Parlamento Europeo y del Consejo por el que se establecen normas Johnson DG, Powers T (2008) Las computadoras como agentes sustitutos. En: van armonizadas sobre inteligencia artificial (Ley de Inteligencia Artificial) y se den Hoven J, Weckert J (eds) Tecnología de la información y filosofía moral. modifican determinados actos legislativos de la Unión (COM(2021)0206 – Cambridge University Press, Cambridge, Massachusetts, pp 251–269 C9–0146/2021 – 2021/0106(COD)) Burrell J (2016) Cómo "piensa" la máquina: comprensión de la opacidad en los algoritmos Kaddour J, Lynch A, Liu Q, Kusner MJ, Silva R (2022) Aprendizaje automático de aprendizaje automático. Big Data Soc 3(1):1–12. https://doi.org/10.1016/j.burrell.js. causal: una encuesta y problemas abiertos, arXiv:2206.15475 org/10.1177/2053951715622512 Latour B (2005) Reensamblando lo social: una introducción a la teoría del actor­ Coeckelbergh M (2020a) Ética de la IA. MIT Press, Cambridge, red. Oxford University Press, Nueva York Massachusetts Llorca Albareda J, García P, Lara F (2023) El estatus moral de las entidades de IA. Coeckelbergh M (2020b) Introducción a la filosofía de la tecnología. En: Lara F, Deckers J (eds) Ética de la inteligencia artificial. La Biblioteca Oxford University Press, Nueva York Internacional de Ética, Derecho y Tecnología, Springer, Cham, pp 59–83 Coeckelbergh M (2022a) Tierra, tecnología, lenguaje: una contribución a las revisiones holísticas y trascendentales después del giro arti­factual. Found Sci Loh, W, Loh, J (2017) Autonomía y responsabilidad en sistemas híbridos: el ejemplo 27:259–270. https://doi.org/10.1007/ de los coches autónomos. En: Lin P, Jenkins R, Abney K (eds) Ética de los s10699­020­09730­9 robots 2.0: de los coches autónomos a la inteligencia artificial. Oxford Coeckelbergh M (2022b) Ética de los robots. MIT Press, Cambridge, University Press, Nueva York, pp 35–50 Massachusetts Matthias A (2004) La brecha de responsabilidad: atribución de responsabilidad por Córdoba FC, Judson S, Antonopoulos T, Bjørner K, Shoemaker N, Shapiro SJ, las acciones de los autómatas que aprenden. Ethics Inf Technol 6(3):175– Piskac R, Könighofer B (2023) Análisis del comportamiento intencional en 183. https://doi.org/10.1007/s10676­004­3422­1 agentes autónomos en condiciones de incertidumbre. En: Actas de la 32.ª Mittelstadt BD, Allo P, Taddeo M, Wachter S, Floridi L (2016) El Conferencia conjunta internacional sobre inteligencia artificial. https://doi.org/ Ética de los algoritmos: mapeando el debate. Big Data Soc. 10.24963/ijcai.2023/42 Mykhailov D, Liberati N (2023) Un estudio de la intencionalidad tecnológica en C+ Di Martino C (2017) Viventi umani e non umani. Cortina, Milán + y el modelo generativo antagónico: perspectivas fenomenológicas y Douglas Heaven W (2024) Los modelos de lenguaje de gran tamaño pueden hacer posfenomenológicas. Found Sci 28:841–857. https://doi.org/10.1007/ cosas asombrosas, pero nadie sabe exactamente por qué. Mit Technology s10699­022­09833­5 Review. https://www.technologyreview.com/2024/03/04/10894 Peterson M, Spahn A (2011) ¿Pueden los artefactos tecnológicos ser agentes 03/grandes­modelos­de­lenguaje­increibles­pero­nadie­sabe­por­que/. morales? Sci Eng Ethics 17:411–424. https://doi.org/10.1007/ Consultado el 22 de marzo de 2024 s11948­010­9241­3 Faroldi FLG (2021) Considerazioni flosofche sullo statuto normativo di agenti Ratti E, Graves M (2022) Prácticas de aprendizaje automático explicables: abriendo artifciali superintelligenti. Revista Iustitia otra caja negra para una IA médica confiable. AI Ethics 2:801–814. https:// Floridi L, Cowls J (2019) Un marco unificado de cinco principios para la IA en la doi.org/10.1007/s43681­022­00141­z sociedad. Harvard Data Sci Rev. https://doi.org/10.1162/99608 Redaelli R (2022) Intencionalidad compuesta y responsabilidad para una ética de f92.8cd550d1 la inteligencia artificial. Scenari 17:159–176. https://doi.org/10.1016/j. Funke A (2022) Ich bin dein Richter. Sind KI­basierte Gerichtsentsc­heidungen org/10.7413/24208914133 rechtlich denkbar? En: Adrian A, Kohlhase M, Evert S, Zwickel M, (eds) Redaelli R (2023a) Diferentes enfoques sobre el estatus moral de la IA: un análisis Digitalisierung von Zivilprozess und Rechts­durchsetzung. Duncker & comparativo de las tendencias paradigmáticas en los estudios de ciencia y Humblot, Berlín tecnología. Discov Artif Intell 3:25. https://doi.org/10.1007/ Ganguli D, Askell A et al. (2023) La capacidad de autocorrección moral en modelos s44163­023­00076­2 lingüísticos amplios. arXiv:2302.07459v2 [cs. CL] Redaelli R (2023b) De herramienta a mediador. Un enfoque posfenomenológico de 18 de febrero de 2023 la inteligencia artificial. En: LM Possati (ed) Humanizar la inteligencia artificial. Gunkel DJ (2017) La cuestión de la máquina: perspectivas críticas sobre la IA, los El psicoanálisis y el problema del control, De Gruyter, Berlín/Boston, pp robots y la ética. The MIT Press, Cambridge, Massachusetts 95­110 Gunkel DJ (2020) Cuidado con la brecha: robótica responsable y el problema de la Santoni de Sio F, Mecacci G (2021) Cuatro brechas de responsabilidad con la responsabilidad. Ethics Inf Technol 22:307–320. https://doi.org/ inteligencia artificial: por qué son importantes y cómo abordarlas. Philos 10.1007/s10676­017­9428­2 Technol 34:1057–1084. https://doi.org/10.1007/ Gunning D, Stefk M, Choi J, Miller T, Stumpf S, Yang GZ (2019) s13347­021­00450­x Inteligencia artificial explicable por XAI. Sci Robot. https://doi.org/ Simondon G (2017) Sobre el modo de existencia de los objetos técnicos. 10.1126/scirobotics.aay7120 Univoco, Minneapolis Hanson FA (2009) Más allá de la bolsa de piel: sobre la responsabilidad moral de Srivastava N, Hinton G, Krizhevsky A, Sutskever I, Salakhutdinov R (2014) Dropout: las agencias extendidas. Ethics Inf Technol 11:91–99. https://doi.org/ una forma sencilla de evitar que las redes neuronales se sobrecarguen. J 10.1007/s10676­009­9184­z Mach Learn Res 15:1929–1958 Haugeland J (1985) Inteligencia artificial: la idea misma. El MIT Stahl BC (2006) ¿Computadoras responsables? Un caso para atribuir una Prensa, Cambridge, Massachusetts cuasirresponsabilidad a las computadoras independientemente de su Herzog C (2019) Opacidad tecnológica del aprendizaje automático en la atención personalidad o capacidad de acción. Ethics Inf Technol 8:205–213. https://doi.org/10.1007/ sanitaria. En: Actas de la Conferencia Weizenbaum 2019 “Desafíos de la s10676­006­9112­4 desigualdad digital: educación digital, trabajo digital, vida digital”, Berlín, págs. Sullins JP (2006) ¿Cuándo es un robot un agente moral? Inter Rev Inform 1–9 Ética 6:23–30 Machine Translated by Google IA Y SOCIEDAD Tenner E (1996) Por qué las cosas contraatacan: la tecnología y la venganza de las Ward FR, MacDermott M, Belardinelli F, Toni F, Everitt T (2024) consecuencias no deseadas. Vintage Books, Nueva York Las razones por las que los agentes actúan: intención y objetivos instrumentales. Terzidis K, Fabrocini F, Lee H (2023) Intencionalidad no intencional: arte y diseño en En: Actas de la 23.ª Conferencia Internacional sobre agentes autónomos y la era de la inteligencia artificial. AI & Soc 38:1715– sistemas multiagente (AAMAS '24). Fundación Internacional para Agentes 1724. https://doi.org/10.1007/s00146­021­01378­8 Autónomos y Sistemas Multiagente, Richland, SC, 1901­1909 Umbrello S, van de Poel I (2021) Asignación de un diseño sensible al valor a la IA para principios de bien social. Ética de la IA 1:283–296. https://doi.org/10.1016/j. Wei J et al. (2022) Habilidades emergentes de modelos lingüísticos grandes. org/10.1007/s43681­021­00038­3 Preimpresión de arXiv arXiv:2206.07682 van de Poel I (2020) Incorporación de valores en sistemas de inteligencia artificial (IA). Wittgenstein L (1953) Investigaciones filosóficas, revisada 4ª ed. Mind Mach 30:385–409. https://doi.org/10.1007/ GEM Anscombe, PMS Hacker, J. Schulte, traducción de Wiley, Malden, MA s11023­020­09537­4 Verbeek PP (2008) Intencionalidad cyborg: repensando la fenomenología de las Zhou E, Lee D (2024) Inteligencia artificial generativa, creatividad humana y arte. relaciones entre humanos y tecnología. Phenomenol Cogn Sci 7(3):387–395. PNAS Nexus. https://doi.org/10.1093/pnasnexus/ https://doi.org/10.1007/s11097­008­9099­x pgae052 Verbeek PP (2011) Moralizar la tecnología: comprender y diseñar la moralidad de las cosas. University of Chicago Press, Chicago y Londres Nota del editor: Springer Nature se mantiene neutral con respecto a los reclamos jurisdiccionales en los mapas publicados y las afiliaciones institucionales. Vermaas P, Kroes P, van de Poel I, Franssen M, Houkes W (2022) Una filosofía de la tecnología. De los artefactos técnicos al sistema sociotécnico, Springer, Cham

Use Quizgecko on...
Browser
Browser