Inteligencia Artificial para la Gestión de Personas (3) PDF

Summary

This document discusses intelligence artificial for human resources and management. It covers introduction, risks, benefits, and solutions for preventing risks. The document also analyzes ethics and regulations concerning AI in human resources.

Full Transcript

Formación Lefebvre Inteligencia Artificial para la Gestión de Personas (3) ¿Eres responsable de la gestión de personas en tu organización? ¿estás aprovechando ya el potencial de la IA para hacer mejor tu trabajo? ¿Tienes bien identificados los retos derivados de la IA en la gestión de los...

Formación Lefebvre Inteligencia Artificial para la Gestión de Personas (3) ¿Eres responsable de la gestión de personas en tu organización? ¿estás aprovechando ya el potencial de la IA para hacer mejor tu trabajo? ¿Tienes bien identificados los retos derivados de la IA en la gestión de los recursos humanos? ¿Quieres dar un salto en tu carrera y prepararte para afrontar con éxito los cambios que la utilización de la IA conlleva? Aprende a explotar todo el potencial de la IA y mejora tus RR.HH. 4. R IES GOS Y BENEFIC IOS DER IVADOS DE LA APLIC AC IÓN DE LA IA AL ÁMBITO LABOR AL 4.1. Introducción 4.2. Riesgos y beneficios del uso de la IA en los departamentos de personas 4.3. Soluciones para mitigar o prevenir los riesgos 4.4. Ética y legislación en la IA en RR.HH. 4.5. Gobernanza para el uso de la IA en el ámbito laboral: regulación nacional 4.6. Gobernanza para el uso de la IA en el ámbito laboral: regulación internacional 4.7. Conclusiones y debate Lección 2 of 7 4.2. Riesgos y beneficios del uso de la IA en los departamentos de personas Formación Lefebvre ¿Son todo beneficios o debemos tener cuidado con la IA? ChatGPT afecta a personas de todos los niveles de cualificación profesional La Inteligencia Artificial Generativa (IA) tiene el potencial de complementar a los trabajadores del conocimiento aumentando su productividad o de sustituirlos por completo. Examinamos los efectos a corto plazo del reciente lanzamiento del gran modelo de lenguaje (LLM), ChatGPT, sobre los resultados laborales de los autónomos en una gran plataforma online. Comprobamos que: 1. Los autónomos de las ocupaciones más afectadas sufren las consecuencias de la introducción de la IA generativa, experimentando reducciones tanto en el empleo como en los ingresos. 2. Encontramos efectos similares al estudiar la introducción de otros modelos de IA generativa basados en imágenes. Al explorar la heterogeneidad según el historial laboral de los autónomos, no encontramos pruebas de que un servicio de alta calidad, medido por su rendimiento y empleo anteriores, modere los efectos adversos sobre el empleo. 3. Los mejores autónomos se ven desproporcionadamente afectados por la IA. Estos resultados sugieren que, a corto plazo, la IA generativa reduce la demanda global de trabajadores del conocimiento de todo tipo, y puede tener el potencial de reducir las diferencias entre los trabajadores. Accede a la fuente aquí. Un mayor nivel de conocimientos o de ingresos no protege automáticamente del impacto de la IA Según un estudio publicado por investigadores de OpenAI y la Universidad de Pensilvania, los trabajadores que ganan más de 100.000 dólares podrían ser significativamente más vulnerables que los que ganan la mitad de esa cantidad. El informe habla de los efectos de los modelos de IA en el mercado laboral: "Los efectos proyectados abarcan todos los niveles salariales, y los empleos con mayores ingresos se enfrentan potencialmente a una mayor exposición a las capacidades de la IA y al software impulsado por la IA". Accede a al fuente aquí. Ventajas del desarrollo de competencias en IA Un nuevo estudio de Amazon Web Services sobre las competencias en IA en EE. UU. ha revelado que las competencias en IA podrían aumentar los salarios de los trabajadores hasta un 35%. El amplio estudio de AWS ha encuestado a 3.297 empleados y 1.340 organizaciones de EE.UU. y ha arrojado una serie de conclusiones interesantes: PE R S PE C T I VAS PAR A L O S E M PL E ADO R E S I DE AS PAR A L O S E M PL E ADO S Más del 90% de los empleadores encuestados predijeron que utilizarán soluciones relacionadas con la IA en sus organizaciones para 2028. Además de TI (92%), el 85% de los empleadores cree que las ventas y el marketing serán los mayores beneficiarios de la IA. Los empresarios encuestados también creen que la IA podría aumentar la productividad en un 47%. El 64% de los empleadores eligió la automatización de tareas como el área clave en la que la IA mejorará la productividad PE R S PE C T I VAS PAR A L O S E M PL E ADO R E S I DE AS PAR A L O S E M PL E ADO S El 88% de los empleados espera utilizar la IA en su trabajo diario en 2028. El 84% de los empleados indica que la IA podría tener algún impacto positivo en sus carreras profesionales Los empleadores estiman que los empleados que adquieran competencias en IA podrían ver incrementado su salario en un 35% o más El 42% de los empleadores busca activamente personas con cualificaciones en IA, pero el 75% de los empleadores tiene problemas para encontrar candidatos cualificados Las profesiones jurídicas unas de las más afectadas Según un estudio de la Universidad de Princeton, al que puedes acceder desde aquí: Los recientes avances espectaculares en las capacidades de modelado de lenguaje de IA han generado muchas preguntas sobre el impacto de estas tecnologías en la economía. En este artículo presentamos una metodología para evaluar sistemáticamente el grado de exposición de ocupaciones, industrias y regiones a los avances en las capacidades de modelado de lenguaje de IA. Descubrimos que las ocupaciones más expuestas al modelado de lenguaje incluyen teleoperadores y una variedad de profesores de educación superior, como profesores de lengua inglesa y literatura, lengua extranjera y literatura, e historia. También encontramos que las industrias más expuestas a los avances en el modelado de lenguaje son los servicios legales y los valores, productos básicos e inversiones. Además, encontramos una correlación positiva entre los salarios y la exposición al modelado de lenguaje de IA. En resumen, el modelado de lenguaje de IA tiene el potencial de transformar significativamente las ocupaciones, industrias y regiones, y es importante comprender estos impactos para desarrollar políticas y estrategias efectivas para mitigar los efectos negativos y aprovechar los beneficios potenciales. Según este otro estudio de Goldman Sachs las profesiones legales son unas de las más afectadas. Accede al estudio desde aquí. CO N T IN U E Beneficios derivados de la IA Reflexiona sobre este beneficio Reflexiona sobre este beneficio Reflexiona sobre este beneficio Reflexiona sobre este beneficio Reflexiona sobre este beneficio Reflexiona sobre este beneficio Reflexiona sobre este beneficio CO N T IN U E Riesgos derivados del uso de la IA Reflexiona sobre este riesgo Reflexiona sobre este riesgo Reflexiona sobre este riesgo Reflexiona sobre este riesgo Reflexiona sobre este riesgo Reflexiona sobre este riesgo Reflexiona sobre este riesgo Reflexiona sobre este riesgo Reflexiona sobre este riesgo Reflexiona sobre este riesgo Reflexiona sobre este riesgo Secreto profesional/empresarial/protección de datos Los sistemas de IA recopilan y analizan grandes cantidades de datos, lo que genera preocupaciones sobre la privacidad y la vigilancia. Estos datos pueden usarse para rastrear a las personas, tomar decisiones sobre sus vidas e incluso manipular su comportamiento. Ejemplo: El reconocimiento facial impulsado por IA podría usarse para monitorear los movimientos de las personas en público, lo que genera preocupaciones sobre la privacidad y la vigilancia masiva. Caso Loomis en EEUU. Falta de transparencia y responsabilidad Los sistemas de IA pueden ser complejos y opacos, lo que dificulta comprender cómo toman decisiones y responsabilizarlos por sus acciones. Esto puede conducir a una falta de confianza en la IA y dificultar la resolución de problemas potenciales. Ejemplo: Puede ser difícil entender cómo un sistema de IA de toma de decisiones crediticias o relacionada con un seguro llega a una decisión específica, lo que dificulta que las personas impugnen una decisión que consideran injusta o incorrecta. Y en España tuvimos en caso Bosco. Sesgos y discriminación Los sistemas de IA pueden perpetuar y amplificar los sesgos existentes en la sociedad, lo que lleva a resultados injustos y discriminatorios. Esto puede suceder si los datos utilizados para entrenar los sistemas de IA están sesgados o si los propios algoritmos están diseñados de una manera que favorece a ciertos grupos sobre otros. Ejemplo: Caso Amazon o sistema Austriaco de Empleo: un sistema de IA utilizado para seleccionar candidatos para un puesto de trabajo podría discriminar inadvertidamente a ciertos grupos de personas, como mujeres o minorías, si los datos de entrenamiento utilizados para desarrollar el sistema están sesgados a favor de los hombres o la mayoría de la población. Propiedad Intelectual La IA puede dificultar la determinación de la autoría: En el caso de las obras creadas por IA, puede ser difícil determinar quién es el autor real, el humano que creó el sistema de IA o el propio sistema de IA. Esto puede tener implicaciones para la atribución de derechos de autor y otros derechos de PI. Ejemplo: La IA puede facilitar la copia y la falsificación: La IA puede utilizarse para crear copias perfectas de obras protegidas por la PI, lo que dificulta su detección y protección. Deepfakes/Fakenews Juicios contra chatgpt Las demandas contra ChatGPT La primera demanda contra ChatGPT por violación de derechos de autor se presentó en diciembre de 2023. Fue realizada por The New York Times, que acusó a OpenAI y Microsoft, creadores de ChatGPT, de utilizar millones de artículos del periódico para entrenar su modelo sin permiso ni compensación. A partir de esta demanda inicial, han surgido otras: 1. Enero de 2024: Un grupo de 80 periódicos regionales estadounidenses se unió a la demanda del New York Times. 2. Febrero de 2024: Se presentó una demanda colectiva contra OpenAI alegando violación de la privacidad de los usuarios y robo de datos. 3. Mayo de 2024: 17 autores, incluyendo George R.R. Martin y John Grisham, demandaron a OpenAI por "robo sistemático a escala masiva". 4. Mayo de 2024: La UE abrió una investigación sobre ChatGPT por posibles violaciones del RGPD. Es importante destacar que estas son solo algunas de las demandas más conocidas. Es probable que existan otras acciones legales en curso contra ChatGPT que no han recibido tanta atención pública.Las demandas contra ChatGPT han puesto de relieve la compleja relación entre la inteligencia artificial y los derechos de propiedad intelectual. Todavía no hay respuestas claras sobre cómo se debe entrenar y utilizar la IA de manera responsable, y es probable que este debate continúe en los próximos años a medida que la tecnología avanza. Libre competencia Las empresas que poseen o tienen acceso a tecnologías de IA más avanzadas podrían obtener una ventaja competitiva significativa sobre sus rivales, lo que les permitiría dominar ciertos mercados y excluir a otros competidores. Esto podría llevar a una reducción de la innovación, un aumento de los precios y una menor calidad de los productos y servicios para los consumidores. Ejemplo: Google ha sido sancionada porque su algoritmo de IA se usaba para dirigir a los consumidores hacia ciertos productos y excluir a los productos de sus competidores, lo que daña la competencia en el mercado minorista en línea. Oligopolios de poder Los sistemas de IA recopilan y analizan grandes cantidades de datos, lo que genera preocupaciones sobre la privacidad y la vigilancia. Estos datos pueden usarse para rastrear a las personas, tomar decisiones sobre sus vidas e incluso manipular su comportamiento. Ejemplo: El reconocimiento facial impulsado por IA podría usarse para monitorear los movimientos de las personas en público, lo que genera preocupaciones sobre la privacidad y la vigilancia masiva. Las infracciones específicas por las que Google ha sido multado 1. Favorecer su propio servicio de comparación de precios: Google fue multado con 2.420 millones de euros en 2017 por abusar de su posición dominante en el mercado al dar un trato preferencial a su propio servicio de comparación de precios, "Google Shopping", en los resultados de búsqueda. Esto perjudicaba a otros competidores del sector. 2. Preinstalar aplicaciones en Android: En 2018, Google recibió una multa de 4.340 millones de euros por imponer la preinstalación de ciertas aplicaciones de Google en dispositivos Android. La Comisión Europea consideró que esta práctica era anticompetitiva y limitaba la libertad de elección de los usuarios. 3. Restricciones a la publicidad en navegadores rivales: Google también fue multado con 149 millones de euros en 2020 por restringir a los fabricantes de dispositivos Android la posibilidad de preinstalar navegadores rivales, como Chrome. Informaciones falsas/difamatorias WLa IA puede utilizarse para crear contenido falso o difamatorio que sea muy difícil de distinguir del contenido real. Esto puede dificultar a las personas y a los sistemas automatizados la detección y eliminación de información falsa de Internet. Ejemplo: 1. En 2019, se publicó un video deepfake de la actriz Emma Watson aparentemente haciendo declaraciones racistas. El video fue ampliamente compartido en las redes sociales y causó un gran revuelo antes de que se demostrara que era falso. 2. Durante las elecciones presidenciales de Estados Unidos de 2016, se utilizaron bots de redes sociales para difundir noticias falsas y propaganda a favor de ambos candidatos. 3. En 2018, se publicó un artículo de noticias falso que afirmaba que el CEO de Amazon, Jeff Bezos, había muerto en un accidente de helicóptero. El artículo se difundió rápidamente en las redes sociales y provocó una caída temporal del precio de las acciones de Amazon. 4. En 2020, se descubrió una red de perfiles falsos en Twitter que se hacían pasar por empleados del gobierno de Estados Unidos. Estos perfiles se utilizaban para difundir propaganda a favor de la administración Trump. Desplazamientos y eliminación de empleos WLa automatización de la IA tiene el potencial de desplazar a trabajadores en muchas industrias, lo que lleva al desempleo y a dificultades económicas. Esto es particularmente cierto para los trabajos que involucran tareas repetitivas o que pueden ser fácilmente estandarizados. Ejemplo: La introducción de robots impulsados por IA en una fábrica podría conducir a la pérdida de empleos para los trabajadores humanos que realizaban tareas manuales en la línea de producción. Convergencia del conocimiento La IA puede conducir a la centralización del conocimiento en manos de unas pocas empresas o entidades. Esto se debe a que las empresas que poseen o tienen acceso a las tecnologías de IA más avanzadas pueden tener una ventaja competitiva significativa en la generación y el acceso al conocimiento. Esto podría limitar la diversidad de voces y perspectivas y dificultar que las personas accedan a información y conocimiento que no esté alineado con los intereses de las empresas o entidades dominantes. Ejemplo: ChatGPT tiene 180.5 millones de usuarios activos mensuales a abril de 2024, lo que le da un gran control sobre el tipo de información a la que están expuestas las personas. Militarización La IA podría usarse para desarrollar armas autónomas que podrían matar o herir a personas sin intervención humana. Esto plantea serias preocupaciones éticas y de seguridad, ya que podría conducir a carreras armamentísticas y a la proliferación de tecnologías peligrosas. Ejemplo: Los drones autónomos impulsados por IA podrían usarse para llevar a cabo ataques militares sin la necesidad de intervención humana directa, lo que genera riesgos de responsabilidad y posibles violaciones del derecho internacional. El apagón: ¿Es posible? WLa creciente dependencia de la inteligencia artificial (IA) en diversos aspectos de nuestras vidas, desde la infraestructura crítica hasta los servicios cotidianos, presenta un riesgo significativo en caso de un apagón generalizado. Un apagón repentino e Lección 3 of 7 4.3. Soluciones para mitigar o prevenir los riesgos Formación Lefebvre ¿Qué soluciones tenemos para prevenir o mitigar esos riesgos? Comienza reflexionando... ¿Qué se te ocurre que podemos hacer para mitigar estos riesgos? Prohibir su uso Ya han prohibido o limitado su uso: 1. El Instituto de Estudios Políticos de París (o Sciences Po). 2. La Universidad RV de Bangalore, el Departamento de Educación de la ciudad de Nueva York. 3. Diversas escuelas de Maryland y Washington. 4. Las escuelas públicas de Nueva Gales del Sur, Queensland, Tasmania y varias universidades de Australia Occidental. ¿Nos unimos a los que solicitan que se paralice su desarrollo? Un grupo de más de 1000 expertos y tecnólogos ilustres a través de Future of Life Institute (FLI) han solicitado una moratoria de 6 meses en el entrenamiento de IA, argumentando que estamos jugando con una fuerza aún más peligrosa que la energía atómica sin pensar antes en las posibles consecuencias. ¿Promovemos que se legisle lo más rápidamente posible y exigimos la aplicación de las nuevas normas? Los componentes del European Parliament de la Ley de Inteligencia Artificial de la UE, han hecho un llamamiento político a la acción sobre la inteligencia artificial muy potente a todos los principales grupos políticos del Parlamento que trabajan en el #AIAct. “Como legisladores, nos comprometemos a proporcionar un primer conjunto de reglas sobre IA de propósito general y, en particular, modelos de base potentes, para dirigir el desarrollo de esta tecnología en una dirección centrada en el ser humano, segura y confiable. Pedimos al presidente de la Comisión Europea, Ursula von der Leyen, y al presidente de los Estados Unidos, Joe Biden, que convoquen una Cumbre mundial sobre Inteligencia Artificial y sobre las democracias del mundo para comenzar a trabajar en modelos de gobernanza para una IA muy poderosa. Como este es un tema global, también invitamos a todos los países, incluidos los no democráticos, a ser responsables y ejercer moderación en el desarrollo de una inteligencia artificial muy poderosa. Por último, pero no menos importante, pedimos a las empresas e investigadores que desarrollan IA muy potente que lo hagan con un sentido de responsabilidad cada vez mayor, en cooperación con los responsables políticos, y al tiempo que se aseguran de mantener un control efectivo sobre la IA que están construyendo”. ¿Utilizamos soluciones que nos permitan identificar cuando algo lo ha hecho chat GPT? Hay ya algunas soluciones para ello. Pero atención que parece ser que no funcionan muy bien. ChatGPT lo hace tan bien, que parece humano y la máquina no detecta que es ella quien ha hecho el trabajo. writecream aiwritingcheck Acceder Acceder ¿Publicamos nuestros propios códigos éticos de uso de la IA en nuestras organizaciones? Accede a la página del Berkman Klein Center (Harvard University) aquí. Y, sobre todo, quizás debamos comenzar a hacer deberes como … 1 Aprender lo necesario sobre Inteligencia artificial: qué es, cómo funciona, qué sujetos son responsables de ella, etc. 2 Aprender a dar instrucciones correctas (prompt engineer). 3 Trabajar nuestro espíritu crítico. Lección 4 of 7 4.4. Ética y legislación en la IA en RR.HH. Formación Lefebvre Pincha las imágenes para verlas Ética y moral Avanza para ver todas las imágenes Avanza para ver todas las imágenes Avanza para ver todas las imágenes Máquina moral: solución tecnológica sobre ética para la IA Moral Machine: el Instituto de Tecnología de Massachusetts ha creado una plataforma de dilemas relacionados con la conducción: los usuarios pueden probar varios escenarios sobre sí mismos y decidir qué cursos de acción serían los más valiosos. 5.000.0000 de decisiones / 1.000.000 de personas han participado Accede a la plataforma del MIT desde aquí. CO N T IN U E IA ética Pincha en cada imagen para verla completa 1. Ética en el diseño o gobernanza de la IA 1. Tiene por objetivo el diseño responsable de los sistemas de inteligencia artificial. 2. Se refiere al papel de todos los grupos de interés que participan en la investigación, el diseño, desarrollo, uso, gestión y destrucción de los sistemas de inteligencia artificial y los problemas de gobernanza necesarios para evitar su incorrecto desarrollo o su uso indebido. 3. Su objetivo es garantizar el diseño y producción responsables de la IA y para ello analizar y adoptar las decisiones necesarias en relación con las cuestiones éticas, legales y políticas que genera su desarrollo y utilización. Accede a la fuente desde aquí 8 áreas temáticas: Privacidad. 1 2 Rendición de cuentas. 3 Seguridad y protección. 4 Transparencia y explicabilidad. 5 Equidad y no discriminación. 6 Control humano de la tecnología. 7 Responsabilidad profesional. 8 Promoción de los valores humanos. 1. Ética de la máquina 1. Tiene por objetivo que la IA responda a unos principios éticos. 2. Se está trabajando para poder garantizar que sea siempre así, pero en soluciones basadas en Deep learning, esto no está solucionado. 1. Ética de los desarrolladores y usuarios 1. Tiene por objetivo que quienes desarrollan y usan la IA respondan al hacerlo a unos principios éticos. 2. Esto no es fácil porque las personas son libres y cada uno tiene su ética. 3. Hay que encontrar mecanismos para lograrlo: información, formación, supervisión, castigo. CO N T IN U E 4 categorías de mecanismos para garantizar la aplicación de la ética en la IA CO N T IN U E 13:59 Duración: 13:59 Lección 5 of 7 4.5. Gobernanza para el uso de la IA en el ámbito laboral: regulación nacional Formación Lefebvre Regulación nacional Ley Ryder Esta norma ha sido pionera y ha inspirado la Directiva sobre condiciones de trabajo en plataformas digitales. Fundamento: Sentencia del Supremo que fijó doctrina respecto a los repartidores de comida a domicilio de plataformas como Glovo, a los que reconocía como trabajadores y no como autónomos. La Ley rider fue aprobada en 2021, con el concurso de los sindicatos y la patronal y el apoyo de la mayoría parlamentaria, con 195 votos a favor (20 por encima de la mayoría absoluta), a través del Real Decreto-Ley 9/ 2021, para garantizar los derechos laborales de las personas dedicadas al reparto en el ámbito de plataformas digitales. Introduce una nueva letra d) en el artículo 64.4 del ET, consagrando así el derecho de las personas trabajadoras de cualquier empresa a "ser informado por la empresa de los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones que pueden incidir en las condiciones de trabajo, el acceso y mantenimiento del empleo, incluida la elaboración de perfiles". Transposición de la Directiva sobre condiciones de trabajo en plataformas digitales "Con esta directiva no nos jugábamos simplemente unas normas, que también, sino que nos jugábamos el futuro del trabajo en Europa y por ende el futuro de la Europa. Ahora tenemos ya esa directiva y continuamos con nuestro trabajo y vamos a dar un paso más en esta materia. Vamos a regular la transparencia algorítmica, vamos a transponer la directiva y lo vamos a hacer más allá del sector del reparto. Vamos a regular las plataformas que contratan a las empleadas del hogar o aquellas que sirven para canalizar la ayuda a domicilio”. Ver declaraciones de Yolanda Díaz aquí. La guía de Información Algorítmica en el ámbito laboral En mayo de 2022 el Ministerio de Trabajo y Economía Social ha publicado la llamada Guía de información algorítmica en el ámbito laboral. Puedes acceder a ella desde aquí. Elaborada una Comisión de expertos, para ayudar a las empresas a comprender sus derechos y obligaciones en relación con el uso de uso de algoritmos o sistemas de decisiones automatizadas en la gestión de las personas trabajadoras. Hay dos planos de derechos de información en materia del uso de algoritmos o sistemas de decisión automatizada en la relación laboral Amparado en los artículos (artículos 13.2.f), 14.2.g) y 15.1.h) del Reglamento General de Protección de Un plano individual Datos (RGDP) en relación con su artículo 22. El artículo 22 RGPD incluye una obligación de información en favor de las personas trabajadoras Regulado por el artículo 64 ET. El artículo 64.4.d) ET incorpora obligaciones de Un plano colectivo información en favor de la representación legal de la plantilla en materia del uso de «algoritmos o sistemas de inteligencia artificial que afectan a la toma de Sujetos a la obligación de la información Todas las empresas que tengan personas asalariadas a su cargo y utilizan algoritmos o sistemas de decisión automatizada para la gestión de personas en alguna de las etapas que vimos están obligadas a proporcionar la siguiente información: 1. Obligación individual: siempre 2. Obligación colectiva: cuando hay representación legal de la plantilla Cada una de estas obligaciones tiene naturaleza legal distinta y se deben ejercer por separado, es decir, la información individual no exime de la obligación de la información colectiva y viceversa.​ La IA impacta en la empresa en dos planos Dada la falta de precisión normativa referente al concepto de algoritmo, Plano individual cualquier algoritmo utilizado en el ámbito laboral para la toma de decisiones automatizada, incluyendo la elaboración de perfiles La obligación de información a la representación legal de Plano colectivo la plantilla no exige que la decisión sea íntegramente automatizada, incluyéndose también las decisiones semi- automatizadas con ¿Y respecto a qué algoritmos se exige la obligación? La Ley utiliza la palabra algoritmo sin especificar si este algoritmo debe emplear o no IA, lo que nos conduce a considerar que la obligación empresarial atañe a todo tipo de algoritmo. ¿Qué es un algoritmo? Es un conjunto ordenado y finito de operaciones o reglas que permite hallar la solución de un problema, que puede implementarse o no a través de programas informáticos. En resumen, cualquier algoritmo utilizado en el ámbito laboral para la toma de decisiones automatizada, incluyendo la elaboración de perfiles, está sujeto a la obligación empresarial de información. ¿Y respecto a qué sistemas se exige la obligación? Además, la obligación se exige cuando se usan sistemas de decisión automatizada. Un sistema de decisión automatizada es un proceso automatizado mediante el uso de datos y algoritmos para optimizar la toma de una decisión. Existen dos modalidades de estos sistemas: Los que toman decisiones a partir de una serie de reglas explícitas Los que toman decisiones a partir del análisis de reglas implícitas. ¿A quién y cuándo debe informar la empresa? A las personas trabajadoras afectadas por decisiones íntegramente automatizadas, incluyendo la elaboración de perfiles, ex artículos 13.2.f) y 14.2.g) 15.1.h) RGPD. Esta información debe facilitarse previa al tratamiento de datos; es decir, previo a la elaboración del perfil o la toma de la decisión automatizada, como se deriva del objeto de dicho precepto de garantizar «un tratamiento de datos legal y transparente» A la representación legal de la plantilla ex artículo 64.4.d) ET, la información sobre el uso de algoritmos debe facilitarse con la periodicidad que proceda, según establece el propio precepto. En atención a ello, debe facilitarse previa a la utilización de los algoritmos y ante cualquier cambio en las variables, parámetros o cualquier otra característica del algoritmo. CO N T IN U E ¿Cuál es el contenido referente a la información tanto individual como colectiva que debe proporcionar la empresa? Información sobre el uso de algoritmos o sistemas de inteligencia artificial para tomar decisiones automatizadas, incluyendo la elaboración de perfiles: Avanza para ver todas las imágenes Avanza para ver todas las imágenes Avanza para ver todas las imágenes Avanza para ver todas las imágenes Avanza para ver todas las imágenes Avanza para ver todas las imágenes Información significativa, clara y simple sobre la lógica y funcionamiento del algoritmo, incluyendo las variables y parámetros utilizados: Avanza para ver todas las imágenes Avanza para ver todas las imágenes Avanza para ver todas las imágenes Avanza para ver todas las imágenes Avanza para ver todas las imágenes Avanza para ver todas las imágenes Avanza para ver todas las imágenes Información sobre las consecuencias que pueden derivarse de la decisión adoptada mediante el uso de algoritmos o sistemas de decisión automatizada: Avanza para ver todas las imágenes Avanza para ver todas las imágenes CO N T IN U E ¿Existe obligación de negociar el algoritmo? Como norma general, no existe la obligación de negociar el algoritmo con la representación legal de la plantilla salvo: 1 En caso de despido colectivo (art. 51 ET) 2 En caso de medidas colectivas de modificación o suspensión del contrato (art. 41.4, 40.2, 47.3 ET) Casos en los que se negoció el algoritmo Convenio colectivo pactado por la empresa Just Eat y los sindicatos CCOO y UGT de 17.12.2021 en el Servicio Interconfederal de Mediación y Arbitraje FSP En enero de este año entró en vigor el primer Convenio colectivo que regula las condiciones de trabajo de los llamados “riders” de la compañía Just Eat. Entre otras, el art. 68 de este Convenio Colectivo regula lo referente al derecho de información ante algoritmos y sistemas de inteligencia artificial e inteligencia artificial, conforme al cual se prevé: La obligación de la empresa de informar a la representación legal de la plantilla sobre el uso de IA. y de facilitar información tanto de los parámetros y datos, como de las reglas e instrucciones que nutren los algoritmos y/o sistemas de IA. El deber de la empresa de garantizar la intervención humana en el uso de los algoritmos, así como que no se tienen en consideración datos discriminatorios que vulneran los derechos fundamentales de los riders. Creación de una comisión paritaria para que canalice el derecho de información sobre el algoritmo. Convenio colectivo para los establecimientos financieros de crédito: Resolución de 5 de octubre de 2021, de la Dirección General de Trabajo Este Convenio colectivo entró en vigor el 1 de enero de 2021 y estuvo vigente hasta el 31 de diciembre del mismo año. En el art. 35, bajo el epígrafe “derechos digitales”, se regulaban los derechos ante la IA. Así, se preveía que, las personas trabajadoras tenían derecho a no ser objeto de decisiones basadas única y exclusivamente en variables automatizadas, salvo las prestas en la Ley, así como su derecho a la no discriminación en relación con las decisiones y procesos, cuando ambos estuviesen basados únicamente en algoritmos, pudiendo solicitar, en estos supuestos, el concurso e intervención de las personas designadas a tal efecto por la Empresa, en caso de discrepancia. Asimismo, el art. preveía que las empresas debían informar a la representación legal de la plantilla sobre el uso de la analítica de datos o los sistemas de inteligencia artificial cuando los procesos de toma de decisiones en materia de recursos humanos y relaciones laborales se basaran exclusivamente en modelos digitales sin intervención humana. Convenio colectivo del sector de grandes almacenes: Resolución de 31 de mayo de 2021, de la Dirección General de Trabajo Este Convenio colectivo entró en vigor en enero de 2021 y estará vigente hasta finales de 2022. En la Disposición transitoria undécima “Compromisos para el gobierno de la transición digital y organizativa del sector”, aunque no se negocia como tal el algoritmo, se prevé la creación de un Observatorio sectorial, cuyas funciones serían, entre otras, prestar especial atención a la utilización de algoritmos que incidan en las condiciones de trabajo. Convenio colectivo general de ámbito estatal para el sector de entidades de seguros, reaseguros y mutuas colaboradoras con la Seguridad Social: Resolución de 15 de diciembre de 2021, de la Dirección General de Trabajo Este Convenio colectivo entró en vigor en 2020 y estará vigente hasta finales de 2024. En el art. 14 se aborda “Inteligencia artificial en las relaciones laborales” y se declara la expresa aplicación de la normativa completa de protección de datos, la aplicación de la “Declaración Conjunta sobre Inteligencia Artificial, aprobada por los Agentes Sociales Europeos del Sector de Seguros el 16 de marzo de 2021” y, por supuesto, se ponen de manifiesto las bondades de aquella en la dimensión laboral. En el último apartado se prevé: “Las empresas informarán a la representación legal de las personas trabajadoras sobre el uso de la analítica de datos o los sistemas de inteligencia artificial cuando los procesos de toma de decisiones en materia de recursos humanos y relaciones laborales se basen exclusivamente en modelos digitales sin intervención humana.” CO N T IN U E ¿Qué otras obligaciones tiene la empresa? Obligación de la empresa de informar antes de adquirir el algoritmo La empresa debe informar y consultar a la representación legal de la plantilla previa a la introducción en la empresa de algoritmos o sistemas de decisión automatizada para la gestión de personas conforme al artículo 64.5 ET. Obligación de la empresa de realizar una evaluación de impacto La empresa debe realizar una evaluación de impacto en el diseño y desarrollo del algoritmo conforme al art. 35.3 GDPR en la medida que el tratamiento de datos suponga un alto riesgo. Esta obligación está presente al menos en los siguientes supuestos: Tratamientos que impliquen la toma de decisiones automatizadas o que contribuyan en gran medida a la toma de tales decisiones, incluyendo cualquier tipo de decisión que impida a una persona el ejercicio de un derecho o el acceso a un bien o un servicio o formar parte de un contrato. Tratamientos que impliquen la utilización de nuevas tecnologías o un uso innovador de tecnologías consolidadas, incluyendo la utilización de tecnologías a una nueva escala, con un nuevo objetivo o combinadas con otras, de forma que suponga nuevas formas de recogida y utilización de datos con riesgo para los derechos y libertades de las personas. Obligación de la empresa de realizar una auditoría algorítmica Como regla general no existe tal obligación. Supuestos en los que es recomendable realizar una auditoría algorítmica: Cuando el empleo de algoritmos pueda afectar a la seguridad y salud de las personas trabajadoras. Cuando el empleo de algoritmos pueda afectar a los derechos fundamentales de las personas. En el contexto de un diagnóstico de plan de igualdad entre hombres y mujeres. CO N T IN U E Parte 1/2 Lección 6 of 7 4.6. Gobernanza para el uso de la IA en el ámbito laboral: regulación internacional Formación Lefebvre Regulación internacional OIT Publicaciones de la OIT sobre la IA: Inteligencia Artificial Generativa y Trabajo: Más allá de la automatización. Acceder. La IA generativa complementará empleos, en vez de destruirlos. Acceder. Un nuevo estudio de la OIT destaca el papel de la IA en la evaluación del prestigio y el valor de los empleos. Acceder. Convenio Marco sobre Inteligencia Artificial y Derechos Humanos, Democracia y Estado de Derecho del Consejo de Europa El 17/5/2024 el Consejo de Europa ha aprobado el primer Convenio Marco sobre Inteligencia Artificial y Derechos Humanos, Democracia y Estado de Derecho, con el fin de regular el desarrollo y uso de la inteligencia artificial de forma ética y respetuosa con los derechos humanos. Es el primer tratado internacional sobre inteligencia artificial. Está abierto a la adhesión de países no pertenecientes a la Unión Europea. Establece un conjunto de principios y medidas para garantizar que la IA se implemente de manera responsable, incluyendo la protección de los derechos humanos, la transparencia, la supervisión y la rendición de cuentas. El Reglamento de Inteligencia Artificial de la UE El nuevo Reglamento, también denominado “Ley de Inteligencia Artificial” o “Artificial Intelligence Act”, en inglés, se publicó en el Diario Oficial de la Unión Europea el 8 de abril de 2024 y entró en vigor el 26 de junio de 2024. Hay un período de transición para algunas disposiciones: 2 años para la mayoría de los requisitos de cumplimiento. 4 años para sistemas de IA de alto riesgo en algunos sectores específicos, como la salud. Es importante destacar que algunos países de la UE ya han comenzado a implementar la legislación nacional para alinearse con el Reglamento. Así es el Reglamento El enfoque basado en riesgos: los sistemas de IA se clasifican en cuatro niveles de riesgo 1 Sistemas de IA prohibidos. 2 Sistemas de IA de alto riesgo. 3 Sistemas de IA de medio-bajo riesgo y 4 Resto de sistemas de IA. Autora: Lilian Edwards, profesora de Derecho e Innovación en la Universidad Newcastle. Sistemas de IA prohibidos Se prohíbe su uso por implicar un riesgo inadmisible para la seguridad, la vida y los derechos fundamentales. Se incluyen en una lista cerrada, que será revisada periódicamente. Se incluyen aquí entre otros: 1. Sistemas de IA que utilizan puntuación social por parte de los gobiernos. 2. Sistemas de IA que permiten la vigilancia biométrica masiva. 3. Sistemas de IA que se utilizan para tomar decisiones autónomas sobre el uso de armas. Sistemas de IA de alto riesgo También se incluyen en una lista cerrada y está sujeto a revisión periódica en un futuro para adaptarlo a las nuevas tecnologías. Suponen un “alto riesgo” para los derechos y libertades de los individuos. Están sujetos a ciertas obligaciones reforzadas que garanticen su uso legal, ético, robusto y seguro. Veamos los que se incluyen en esta lista: 1. Infraestructuras críticas (por ejemplo, transportes), que pueden poner en peligro la vida y la salud de los ciudadanos. 2. Formación educativa o profesional, que pueden determinar el acceso a la educación y la carrera profesional de una persona (por ejemplo, puntuación en exámenes. 3. Componentes de seguridad de los productos (por ejemplo, aplicación de IA en cirugía asistida por robots). 4. Empleo, gestión de trabajadores y acceso al trabajo por cuenta propia (por ejemplo, programas informáticos de clasificación de CV para procedimientos de contratación). 5. Servicios públicos y privados esenciales (por ejemplo, sistemas de calificación crediticia que priven a los ciudadanos de la oportunidad de obtener un préstamo). 6. Aplicación de las leyes, que pueden interferir con los derechos fundamentales de las personas (por ejemplo, evaluación de la fiabilidad de las pruebas). 7. Gestión de la migración, el asilo y el control de las fronteras (por ejemplo, comprobación de la autenticidad de los documentos de viaje). 8. Administración de justicia y procesos democráticos (por ejemplo, aplicación de la ley a un conjunto concreto de hechos). Los sistemas de IA de alto riesgo estarán sujetos a obligaciones estrictas antes de su comercialización: 1. Sistemas adecuados de evaluación y mitigación de riesgos. 2. Alta calidad de los conjuntos de datos que alimentan el sistema para minimizar los riesgos y los resultados discriminatorios. 3. Registro de la actividad para garantizar la trazabilidad de los resultados. 4. Documentación detallada que aporte toda la información necesaria sobre el sistema y su finalidad para que las autoridades evalúen su conformidad. 5. Información clara y adecuada al usuario. 6. Medidas apropiadas de supervisión humana para minimizar el riesgo. 7. Alto nivel de solidez, seguridad y precisión. Sistemas de IA de riesgo medio/bajo Sistemas de IA que podrían presentar un riesgo para las personas si no se implementan adecuadamente. Ejemplos: chatbots, software de reconocimiento facial, sistemas de recomendación. Soluciones: Obligación de transparencia: Informar a los usuarios de que están interactuando con un sistema de IA y proporcionar información clara sobre sus capacidades y limitaciones. Evaluación de conformidad: Asegurar que el sistema de IA se ha diseñado y desarrollado de acuerdo con los principios establecidos en el REIA. Sistema de gestión de riesgos: Implementar medidas para identificar, evaluar y mitigar los riesgos potenciales del sistema de IA. Resto de sistemas de IA Sistemas de IA que no presentan un riesgo significativo para las personas. Ejemplos: calculadoras, filtros de spam, videojuegos. Soluciones: No hay requisitos específicos adicionales más allá de las normas generales de protección de datos y seguridad. Estos sistemas en principio no estarían sujetos a ninguna obligación en particular, y estarían fuera del ámbito de aplicación del Reglamento, pero sus responsables podrán adherirse a sistemas voluntarios de cumplimiento. Ámbito de aplicación subjetivo y territorial El Reglamento es una apuesta decidida de la UE por ser un referente mundial en un diseño ético y de derechos fundamentales de la IA al tiempo de exigir a los líderes mundiales de IA que respeten los derechos al dirigir sus productos en la UE y por ello su ámbito de aplicación es muy amplio y comprende: 1. A todos los actores dentro de la cadena de valor de la IA (es decir, proveedores, importadores, distribuidores). 2. A los actores ubicados en la UE y a los de otros países cuando los efectos de la IA se desplieguen en la UE. Según la UE el Reglamento sobre la IA solo se aplicará al conjunto de usos de mayor riesgo, que supone entre el 5 % y el 15 % de todas las aplicaciones. Sistema sancionador El Reglamento Europeo de Inteligencia Artificial (REIA) establece un sistema sancionador con diferentes niveles de severidad para disuadir a las empresas y organizaciones de incumplir sus obligaciones. Tipos de sanciones: M ULTAS ADM I NI S T R AT I VAS M E DI DAS C O R R E C T O R AS Hasta 35 millones de euros o el 7% del volumen de negocio anual global para las infracciones más graves, como el uso de sistemas de IA prohibidos o que no cumplan los requisitos de alto riesgo. Hasta 15 millones de euros o el 3% del volumen de negocio anual global para infracciones menos graves, como el incumplimiento de las obligaciones de transparencia o la falta de cooperación con las autoridades. M ULTAS ADM I NI S T R AT I VAS M E DI DAS C O R R E C T O R AS Orden de retirar o modificar el sistema de IA no conforme. Prohibición temporal o definitiva de poner en servicio o utilizar un sistema de IA. Publicación de la sanción. ¿Dónde encaja el Reglamento los sistemas que se utilizan en el ámbito laboral? El considerando 36 recalca que deben considerarse de alto riesgo los sistemas de IA que se utilizan en el ámbito laboral y, en concreto, para el empleo, la gestión de los trabajadores y el acceso al autoempleo, sobre todo para la contratación y la selección de personal; para la toma de decisiones relativas a la promoción y la rescisión de contratos; y para la asignación de tareas y el seguimiento o la evaluación de personas en relaciones contractuales de índole laboral, dado que pueden afectar de un modo considerable a las futuras perspectivas laborales y los medios de subsistencia de dichas personas. Dichos sistemas pueden perpetuar patrones históricos de discriminación, por ejemplo contra las mujeres, ciertos grupos de edad, personas con discapacidad o personas de orígenes raciales o étnicos concretos o con una orientación sexual determinada, y también pueden afectar a derechos fundamentales de estas personas también pueden afectar a sus derechos a la protección de los datos personales y a la privacidad. CO N T IN U E Duración: 15:52 Lección 7 of 7 4.7. Conclusiones y debate Formación Lefebvre 1 Entre los riesgos están muchos relacionados con la violación de derechos humanos, la parada de la creatividad y otros no menos importantes. 2 La carrera de la IA no ha hecho más que empezar, así que nosotros tenemos que comprender lo relevante sobre ella: qué es, para qué sirve, riesgos derivados de su uso y pensar en soluciones para mitigar esos riesgos. 3 Mientras no había normas, la ética fue la herramienta, pero no es suficiente. 4 Hoy ya comienza vislumbrarse un marco legal claro para la IA. El Reglamento de la UE marca el camino. 5 La IA va a transformar nuestra forma de trabajar y debemos prepararnos para verla como amiga y no como enemiga. CO N T IN U E

Use Quizgecko on...
Browser
Browser