Newman Business Review
Fernando Antonio Ramos Zaga 1
1Doctorando en Gestión de Empresas de la Universidad Nacional Mayor de San Marcos (UNMSM). Maestro en Derecho de la Empresa por la Escuela de Postgrado Neumann. Bachiller en Derecho por la
Universidad Peruana de Ciencias Aplicadas (UPC). ORCID: http://orcid.org/0000-0001-6301-9460 Email: fernando.ramos9@unmsm.edu.pe
Recepción: 17/05/2023 Aceptación: 20/05/2023 Publicación: 30/06/2023
79
Escuela de Posgrado Newman
El uso de la Inteligencia Artificial viene revolucionando diversos ámbitos en la sociedad. En el campo empresarial, en especial la selección de personal, viene planteando una serie de retos jurídicos a las empresas a pesar de sus potenciales beneficios. Este artículo se propone identificar las implicaciones jurídicas de las decisiones tomadas por los Sistemas de Seguimiento de Candidatos. Para tal finalidad, se analizó los usos de la IA y su aplicación en la selección de personal, basado en el análisis jurídico de la Ley de Protección de Datos Personales y los Principios rectores establecidos en dicha norma. En suma, este artículo ofrece una visión general de las implicaciones jurídicas respecto al uso de la IA en la selección de personal y destaca la necesidad de una norma que regule su uso a fin de garantizar medidas legales de protección adecuadas.
The use of Artificial Intelligence has been revolutionizing several areas in society. In the business field, especially in personnel selection, it has been posing a series of legal challenges to companies despite its potential benefits. This article aims to identify the legal implications of the decisions made by Applicant Tracking Systems. To this end, the uses of AI and its application in personnel selection were analyzed, based on the legal analysis of the Personal Data Protection Law and the Guiding Principles established in said law. In sum, this article provides an overview of the legal implications regarding the use of AI in personnel selection and highlights the need for a rule regulating its use to ensure adequate legal protection measures.
La Inteligencia Artificial (IA) y sus capacidades algorítmicas de toma de decisiones han progresado significativamente en diversos ámbitos de la sociedad, la economía y la tecnología. Sin embargo, surgen incertidumbres en torno a su gestión, uso y regulación. En este contexto, es crucial abordar las cuestiones sociales, jurídicas y éticas que surgen en el camino hacia un uso revolucionario de los Sistemas de Seguimiento de Candidatos basado en la IA (ATS, por sus siglas en inglés) para las que aún no tenemos respuestas claras (Cantero, 2021). La influencia de los sistemas de IA en la interacción social y en las actividades empresariales seguirá aumentando, lo que exigirá un análisis jurídico en profundidad y una posible adaptación de las condiciones existentes. Por tanto, es necesario tener en cuenta los derechos fundamentales, la protección de datos y el principio de igualdad de trato para garantizar un equilibrio justo entre el uso responsable de la tecnología y mediante un marco jurídico adecuado.
Optimizar y automatizar estos procesos es cada vez más importante en el entorno empresarial, donde las organizaciones toman decisiones constantemente. La IA ofrece ventajas significativas al agilizar, mejorar la eficiencia y validar las decisiones empresariales (Suarez, 2018). Sin embargo, si una empresa pretende utilizar la IA en la gestión de recursos humanos, es imperativo tener en cuenta ciertos aspectos legales clave. Este documento pretende contribuir con lineamientos a fin de asegurar el fiel cumplimiento normativo respecto al uso de la IA en la selección de personal (SP). Normas como la Ley de Protección de Datos Personales es fundamental en este contexto.
La IA ocupa cada vez, con mayor énfasis, un lugar en nuestra vida cotidiana, simplificando nuestras actividades cotidianas. El uso de asistentes personales, como Alexa, Google Home o Siri, cada vez van ganado mayor popularidad al permitirnos reproducir música, crear listas de la compra, programar citas y controlar dispositivos domésticos mediante comandos de voz.
No obstante, la réplica exacta del cerebro humano sigue siendo el principal reto para la IA.
El desarrollo histórico de la IA se remonta al siglo XX y se nutre de distintas ramas del conocimiento (Molero et al., 1998). La investigación en neurociencias ha sido fundamental, desde los avances en lógica e informática teórica de Turing hasta los primeros modelos matemáticos de redes neuronales. Por ende, la IA se ha convertido en una ciencia práctica para automatizar el pensamiento. Con la llegada de las computadoras, la IA se convirtió en una ciencia práctica que permite automatizar el pensamiento. Newell y Simon, quienes desarrollaron un lenguaje de programación específico para estructuras simbólicas, consiguieron logros notables en el procesamiento de símbolos.
La conferencia de Dartmouth de 1956 marcó el nacimiento oficial de la IA como disciplina del conocimiento, al presentar sistemas que demostraban comprensión y adaptabilidad al entorno (de Andara, 2021). Con el tiempo, se produjeron avances tecnológicos en el
procesamiento de información con ordenadores más potentes y redes
neuronales que podían aprender tareas mediante labores de entrenamiento que permitían el reconocimiento de patrones, la identificación de personas en fotos mediante el reconocimiento de similitudes y el desarrollo del lenguaje a partir de textos de muestra.
Hoy en día, la IA es interdisciplinaria pues nutre de conocimientos de lógica, estadística, procesamiento de imágenes, lingüística, psicología y neurociencia (Barona, 2019). Es así como el concepto de singularidad tecnológica marca un punto en el que las máquinas han de lograr mayores avances a través de la IA, acelerando el progreso tecnológico hasta un punto en el que sea imposible predecir el futuro de la humanidad en general. Si bien es cierto, el desarrollo de una IA superior a la inteligencia humana en todos los ámbitos no requiera tanto tiempo como el transcurrido desde la invención de la computadora hasta el desarrollo de la primera IA similar a la humana, es necesario advertir los peligros asociados al uso extensivo de la IA.
Con la finalidad de garantizar un
adecuado análisis jurídico de la IA se requiere contar con definiciones que permitan comprender y abordar adecuadamente las cuestiones relacionadas a su uso. McCarthy et al. (2006), considerados como los pioneros de la IA, definen la IA como el desarrollo de máquinas que se comportan como si tuvieran inteligencia. Sin embargo, esta definición ha sido considerada limitada por algunos expertos en la materia.
Es por ello que se define como la IA como aquella que busca aproximarse y compararse a la inteligencia humana, haciendo hincapié en la capacidad de adaptarse al entorno mediante el aprendizaje y la adaptación del comportamiento. En ese contexto, el aprendizaje automático desempeña un papel crucial como subcampo de la IA, pues trata de comprender los mecanismos del pensamiento y el comportamiento inteligentes para implantar esta capacidad en las máquinas, utilizando como modelos la toma de decisiones y la acción racional humanas (Filgueiras, 2021). La IA se caracteriza por su capacidad para procesar grandes cantidades de datos, reconocer patrones, tomar decisiones y hacer predicciones de forma autónoma.
El test de Turing (1950), desarrollado por Alan Turing, ha planteado un hito en el estudio de la IA. La prueba evalúa la capacidad de una máquina para pensar de forma independiente al comunicarse con un ser humano a través de la escritura. Si bien es cierto, ninguna máquina ha superado completamente esta prueba, se ha convertido en un punto de referencia para definir el comportamiento inteligente de estos sistemas.
En la actualidad, la IA engloba soluciones que pretenden resolver problemas de forma autónoma, similar a la inteligencia humana. La naturaleza especial de la IA se caracteriza por la comprensión, el razonamiento, el aprendizaje y la interacción. La comprensión implica que los sistemas de IA pueden entender datos estructurados y no estructurados, incluido el lenguaje (Mina, 2020). La capacidad de razonar permite a los sistemas encontrar información relevante, conectarla y sacar conclusiones. La capacidad de aprender se consigue mediante la interacción con los humanos y la interacción se basa en la retroalimentación.
La clasificación de Elana (2019), se basa en tres tipos de IA. IA débil, IA fuerte y superinteligencia. La IA débil realiza tareas de nivel humano, como analizar grandes conjuntos de datos. La IA fuerte optimiza y supera las capacidades humanas gracias a su capacidad de aprendizaje autónomo. Por otra parte, la superinteligencia aspira a superar los límites del pensamiento, el sentimiento y la acción humanos.
Uno de los elementos fundamentales de la IA son las redes neuronales, que constan de datos de entrenamiento, un modelo y un algoritmo (Marconi, 2022). Estas redes se basan en los principios de las redes neuronales biológicas y se modelan mediante fórmulas matemáticas. Tanto las neuronas biológicas como las artificiales pueden recibir, procesar y transmitir información, lo que permite el procesamiento paralelo y el aprendizaje de dependencias complejas. Asimismo, el aprendizaje automático es otro componente esencial de la IA basado en algoritmos capaces de automejorarse mediante datos de entrenamiento (Moure,
2022). Por otro lado, el aprendizaje profundo se refiere a un diseño especial de redes neuronales que pueden procesar grandes cantidades de datos en múltiples capas, permitiendo la creación de conceptos complejos a partir de elementos más simples (Garrucho, 2022).
Los macrodatos o big data desempeñan un papel crucial en la IA ya que proporcionan el insumo necesario para su funcionamiento (Cercos, 2022). Los datos recopilados deben analizarse y procesarse para aprovechar su potencial. La minería y la agregación de datos son clave en este proceso y se requiere un objetivo concreto para utilizar los datos recopilados de forma eficiente. Los datos son necesarios para el aprendizaje automático y cuantos más datos de entrenamiento estén disponibles, mejor será el rendimiento del sistema de IA. El aprendizaje profundo permite procesar una amplia gama de datos y proporciona resultados más precisos que los métodos convencionales de aprendizaje automático.
La toma de decisiones algorítmica es fundamental para la IA ya que se basa en algoritmos que procesan los datos de entrada y generan resultados a partir de
ellos (Palma, 2021). Los algoritmos se utilizan para calcular probabilidades y ejecutar actividades basadas en esas probabilidades. Estos sistemas no toman decisiones de forma autónoma, sino que ejecutan decisiones previamente diseñadas por humanos basándose en parámetros abstractos y generales. El grado de automatización en la toma de decisiones puede variar en función de la complejidad de la tarea y de las capacidades del sistema de IA.
En el contexto de la SP, el análisis jurídico de esta investigación se centra en la automatización de los procesos de toma de decisiones mediante el uso de ATS, basados en IA. Estos sistemas pueden variar en su grado de automatización, los cuales facilitan la tarea de filtrar y revisar la información de los postulantes a un puesto de trabajo. Al respecto, cabe señalar que estos niveles de automatización pueden tener implicaciones jurídicas y éticas las cuales son analizadas en esta investigación.
La SP es esencial para el éxito de cualquier organización ya que proporciona
el talento humano necesario para su funcionamiento (Díaz, 2016). El objetivo principal de la planificación de la SP es garantizar que se dispone del personal adecuado a tiempo para cubrir las vacantes. La SP puede proceder del mercado laboral interno o externo de la empresa y es una de las funciones más vitales de la gestión de personal, que implica la idoneidad de los candidatos, internos o externos, para ocupar puestos de trabajo adecuados mediante diversas técnicas (Barrios, 2019).
La SP proviene de mercados internos y externos. Los mercados internos implican la evaluación de candidatos a través de la promoción y el desarrollo del personal (Duarte y Yesid, 2022). Dentro de los objetivos de la SP interna se busca reducir los costes de selección e inducción, acelerar el proceso de selección, hacer un uso sinérgico de los conocimientos adquiridos y garantizar el cumplimiento de la cultura corporativa. Por otro lado, la SP externa consiste en publicar anuncios de empleo en bolsas de trabajo o en el sitio web de la empresa, programas de formación laboral, las agencias de empleo y la búsqueda activa de candidatos en plataformas de empleo
(Peña, 2021).
En ese contexto, la IA desempeña un papel cada vez más importante en la SP. Las aplicaciones de IA pueden automatizar tareas repetitivas, como la revisión de currículums, la aplicación de pruebas psicométricas y la programación de entrevistas, liberando a los reclutadores para que se centren en la interacción con los candidatos (Arroyo, 2022). Además, los sistemas casados en la IA pueden utilizar algoritmos para evaluar a los candidatos y predecir su rendimiento laboral. Al respecto, los ATS utilizan algoritmos para identificar palabras clave en las hojas de vida de los candidatos.
Esta investigación se centra en el uso de la IA en la toma de decisiones de SP y examina el marco jurídico que las empresas deben tener en cuenta a la hora de implementar dicha tecnología. El objetivo es realizar un análisis jurídico del uso de la IA en el proceso de SP el cual incluye la protección de datos, la debida diligencia del empresario y la igualdad de
trato, para lo cual se analiza la Ley de Protección de Datos Personales y la Ley de igualdad de oportunidades entre mujeres y hombres. Por lo tanto, las conclusiones y recomendaciones de este artículo serán aplicables en empresas peruanas.
En el ámbito jurídico, se evidencia una carencia de estudios sobre las implicaciones legales del uso de la IA en el ámbito laboral, donde el uso de la IA plantea cuestiones jurídicamente trascendentes. Debido a que la SP afecta directamente el mercado laboral, es necesario establecer una regulación que aborde adecuadamente estas cuestiones. A medida que la tecnología evoluciona, es responsabilidad del legislador adaptarse a estos avances.
Este artículo realiza el análisis del fenómeno del uso de la IA utilizando diversas fuentes bibliográficas disponibles en repositorios académicos. Debido al carácter innovador del uso de la IA en el ámbito empresarial y a la vertiginosa evolución tecnológica se lleva a cabo una investigación utilizando diferentes métodos de interpretación jurídica, tales como la interpretación literal, histórica y
teleológica para analizar las normas
pertinentes.
El vertiginoso avance tecnológico plantea la necesidad de establecer un marco jurídico adecuado respecto al tratamiento de datos masivos. Si bien es cierto los algoritmos aportan importantes ventajas al simplificar la realización de diversas actividades, su uso podría tener diversas implicaciones jurídicas. En el ámbito de los sistemas informáticos modernos, el marco jurídico se enfrenta a una variedad de tecnologías algorítmicas que permiten la toma de decisiones. En consecuencia, es necesario examinar cómo debe abordar el Derecho la creciente importancia y autonomía funcional de los procesos basados en algoritmos y las implicaciones jurídicas para un uso adecuado de la IA en el ámbito empresarial, en particular en el ámbito laboral.
La Ley de Protección de Datos Personales (LPDP) establece los lineamientos para proteger la intimidad y
los datos personales en el tratamiento electrónico de datos. En el Perú, la Protección de Datos Personales se considera un Derecho Fundamental, de acuerdo a lo establecido en el artículo 2, numeral 6, de la Constitución Política del Perú, el cual hace hincapié en la protección de la intimidad y los datos personales. En ese sentido, el 2 de julio de 2011 se publica la Ley 29733 para abordar los avances tecnológicos y las complejas realidades de las comunicaciones electrónicas.
La LPDP, entre otros aspectos, regula de tratamiento de datos personales, lo cual establece bases sólidas y deja margen para desarrollar normas específicas a medida que surjan nuevas innovaciones tecnológicas. El legislador adoptó un enfoque que tiene en cuenta el continuo desarrollo tecnológico. No obstante, para mantener la pertinencia de las normas de protección de datos en un entorno digital en constante evolución, es importante evitar vincular los supuestos jurídicos al desarrollo tecnológico.
La protección de datos personales en el contexto del uso de la IA y los sistemas de aprendizaje profundo requiere una regulación que esté a la vanguardia de los avances tecnológicos. La LPDP, establece lineamientos claros para el tratamiento de los datos. Sin embargo, con el uso de la IA, existe una variación en el nivel de protección esta información. Por tanto, debe prestarse especial atención a las operaciones de tratamiento automatizado de datos personales con el uso de la IA. En particular, el uso de big data en la gestión de recursos humanos, plantea retos en cuestiones relacionadas con el principio de finalidad, exactitud de los datos, la transparencia y el principio de legalidad.
El LPDP establece en su artículo 6 el Principio de Finalidad, el cual impide la recogida de datos sin un motivo específico. Es decir, la finalidad para la que se recopilan los datos personales debe estar bien definida con fines específicos, claros y legítimos, lo que plantea un desafío cuando se intenta conciliar el uso de big data con el Principio de Finalidad ya que los procesos de big
data a menudo implican cambios en la finalidad original de la recopilación de datos personales.
La recopilación y el tratamiento cada vez más ubicuos de datos personales pueden dar lugar a que los datos recogidos para un fin específico se almacenen y analicen para otros fines que no se especificaron inicialmente o que surgen con posterioridad, lo que constituye un problema especialmente grave cuando los datos individuales se recogen para fines diferentes sin el conocimiento ni el consentimiento de las personas implicadas, lo que vulnera el Principio de Consentimiento, establecido en el artículo 5 de la LPDP.
El Principio de Finalidad requiere una cuidadosa consideración, especialmente en el caso de los sistemas de IA. Las finalidades ampliadas del tratamiento de datos personales deben ser compatibles con la finalidad original de la recogida de datos, lo que puede entrar en conflicto con las ventajas y características de la IA, especialmente en el caso de los algoritmos de aprendizaje automático, a menudo diseñados para
"aprender" de los datos y adaptar su comportamiento en consecuencia. A
medida que los algoritmos "aprenden", pueden llegar a utilizar los datos de formas no previstas originalmente, lo que puede ser incompatible con el principio de limitación de la finalidad.
El Principio de Calidad, establecido en el artículo 8 de la LPDP, es un factor clave en la protección de datos personales y puede suponer un reto en el uso de la IA. Los datos utilizados por los sistemas de IA deben ser exactos y estar actualizados para garantizar que las decisiones basadas en ellos sean correctas y justas. Sin embargo, mantener la exactitud de los datos puede ser difícil, especialmente cuando se manejan grandes volúmenes de datos.
Por último, el uso de los sistemas basados en IA deben cumplir el Principio de Legalidad establecido en el artículo 4 de la LPDP, que establece que los datos personales deberán ser tratados conforme a lo establecido por ley. En muchos casos, será necesario el consentimiento de las personas para que los sistemas de IA puedan utilizar sus datos. Sin embargo, obtener un consentimiento válido puede ser difícil, especialmente cuando las
personas no entienden completamente cómo funciona la IA y cómo se utilizarán
sus datos.
A través del uso de la IA, las decisiones automatizadas se desarrollan mediante la elaboración de perfiles y la toma de decisiones independientes por parte de los algoritmos (Palma, 2021; Lara, 2020). Por ese motivo, con la finalidad de garantizar los derechos y libertades de los interesados, el Parlamento Europeo emitió el Reglamento General de Protección De Datos (RGPD), en cuyo artículo 22 establece el derecho de la persona a no ser objeto de decisiones basadas únicamente en un tratamiento automatizado que surtan efectos jurídicos o le afecten de forma similar. Este artículo es relevante para el uso de la IA ya que se centra en las decisiones algorítmicas.
Es importante señalar que el RGPD no prohíbe, en principio, las decisiones automatizadas o el tratamiento de datos per se. En el apartado 2 del artículo 22 del RGPD se estblecen algunas excepciones permiten las decisiones automatizadas, como la necesidad de celebrar o ejecutar un contrato, la autorización legal o el
consentimiento del interesado. Sin embargo, estas excepciones deben cumplir requisitos de proporcionalidad y no impedir el uso de otras medidas menos intrusivas. No obstante, en el caso de la selección de personal, el uso de sistemas basados en la IA podría plantear dudas sobre la aplicabilidad de estas excepciones.
La definición de decisión totalmente automatizada podría ser compleja ya que existen distintos niveles de toma de decisiones automatizada y formas mixtas en las que intervienen personas y sistemas. Sin embargo, si una persona no puede influir en el contenido de la decisión o sólo realiza comprobaciones aleatorias, se aplicaría el artículo 22 del RGPD. Por tanto, el objetivo de dicha norma es proteger a las personas contra el tratamiento automatizado de datos, no garantizar decisiones objetivamente correctas.
El uso de la IA en la SP presenta diversos retos al momento de garantizar decisiones imparciales y evitar la discriminación (Cárdenas y Molano,
2021). Los datos que alimentan estos sistemas pueden contar con ciertos niveles de sesgo y perpetrar la discriminación a nivel individual o de grupo (Raffaghelli, 2023). Si un sistema de aprendizaje automático utiliza como criterio para la medición del desempeño el número de horas trabajadas, podría afectar de manera a las mujeres que deben cumplir con labores domésticas además de su labor en la organización. Además, estos sistemas pueden analizar estados de ánimo, debilidades cognitivas, características biométricas y otros datos sensibles, lo que suscita preocupaciones sobre la protección de datos personales.
Para hacer frente a la discriminación en el ámbito laboral, se cuenta con la Ley Laboral de Productividad y Competitividad Nº 728, norma que pretende garantizar la equidad laboral y prohíbe la discriminación por motivos de sexo, etnia, orientación sexual, religión y otros factores. Sin embargo, el uso de sistemas basados en la IA para la SP también debe evitar la discriminación ya sea de manera directa o indirecta. La discriminación puede ser directa, como tratar a una persona de forma menos favorable que a otra en una situación
similar, o indirecta, cuando normas o procedimientos aparentemente neutros perjudican de forma desproporcionada a determinados grupos.
Diversos factores podrían contribuir a la discriminación en la IA. Entre ellos tenemos los sesgos introducidos por los programadores y la falta de inteligencia emocional en la tecnología de IA (Friedle, 2020). Al respecto, cabe destacar que la principal fuente de discriminación en los algoritmos reside en los datos de entrenamiento. Si un sistema se entrena con información histórica que refleja sesgos o desigualdades, es probable que reproduzca y amplifique esos sesgos a futuro. En el contexto de la SP, los sistemas de IA pueden propiciar la discriminación al seleccionar y clasificar a los postulantes de forma sesgada. La falta de transparencia en los criterios de selección puede dificultar que los candidatos comprendan y cuestionen el proceso de evaluación al cual son sometidos.
La aplicación de pruebas psicométricas en línea podría plantear problemas de discriminación al sesgar la evaluación de los candidatos y perpetuar
estereotipos (Granados, 2022),
excluyendo a las personas con alguna discapacidad o que cuenten con dificultades para acceder a internet. Además, las decisiones de selección pueden depender en gran medida de características como la edad, el sexo o el origen étnico, lo que conduciría a una discriminación indirecta. Por lo tanto, es necesario analizar críticamente estos planteamientos y considerar alternativas más equitativas y no discriminatorias.
La transparencia en la toma de decisiones en los sistemas de IA representa un reto importante, especialmente en lo que respecta a una posible discriminación (Vestri, 2021; Corvalán, 2018; Flores y García, 2023; Jalón et al., 2021). Por tal motivo, es fundamental que los usuarios puedan conocer cuál es la información almacenada en la base de datos utilizada en las aplicaciones basadas en IA y comprender la finalidad de los algoritmos que son empleados en los procesos de SP. Sin embargo, comprender el funcionamiento de algoritmos complejos puede resultar difícil, especialmente para quienes carecen de competencias digitales. Para hacer frente a estos retos, es importante adoptar un enfoque ético en
el desarrollo y uso de la IA, garantizando que los algoritmos elaborados por los programadores no tengan una finalidad discriminatoria.
Los desarrolladores de sistemas de basados en IA son responsables de garantizar que sus sistemas sean imparciales, lo que implica garantizar que los algoritmos sean transparentes y que los datos utilizados para entrenar los sistemas estén libres de sesgos (Porrúa, 2022; Sánchez, 2021). Asimismo, implica establecer medidas para detectar y mitigar cualquier sesgo que pueda surgir del uso de la IA. Por último, las organizaciones que utilizan la IA en la gestión de recursos humanos puedan invertir en formación y educación de su personal para garantizar que comprendan cómo funcionan estos sistemas y sus implicancias, lo que contribuirá a crear un entorno laboral más equitativo y justo en el que todas las personas sean valoradas por sus capacidades y talentos, mas no por características que puedan originar actos de discriminación.
La interacción entre tecnología y sociedad sigue sin estar clara, por lo que se necesita más investigación para comprender el impacto social de las decisiones algorítmicas y desarrollar estrategias adecuadas para mitigar sus consecuencias negativas. El tratamiento de datos personales en los sistemas basados en IA plantea riesgos para los derechos y libertades individuales, lo que pone de relieve la importancia de la protección de datos personales a la hora de desarrollar y utilizar estos sistemas. Las cuestiones pertinentes en este contexto son los principios de finalidad, consentimiento, calidad y legalidad. El equilibrio de intereses entre empresas y trabajadores es también un aspecto importante y deben tenerse en cuenta los derechos de los trabajadores en el uso de los sistemas de IA.
El desarrollo de sistemas basados en IA y su aplicación en recursos humanos son áreas de investigación clave, principalmente en cuestiones jurídicas con la finalidad de prevenir actos de discriminación y asegurar la protección de datos. La limitación de la finalidad, la transparencia son principios esenciales respecto al uso de sistemas basado en IA.
Asimismo, la transparencia en el control de las decisiones algorítmicas es esencial, razón por la cual los procesos de la toma de decisiones deben ser comprensibles para los trabajadores encargados de la SP.
Deben aplicarse medidas de autorregulación y programas de cumplimiento empresarial para garantizar el cumplimiento de la protección de datos personales en el desarrollo y uso de sistemas de IA, pues la falta de transparencia y las decisiones algorítmicas aumentan el riesgo de vulnerar los principios de protección de datos personales. Por ende, es necesario garantizar una programación no discriminatoria. Al respecto, cabe señalar que los algoritmos incorporan las valoraciones realizadas por los programadores y no son intrínsecamente objetivos o neutrales.
Arroyo Mesa, L. (2022). Tendencias
Actuales en la Búsqueda y Selección de Personal en el Ámbito Empresarial. [Trabajo de Fin de Grado, Universidad Pontificia Comillas]. Repositorio institucional de la Universidad Pontificia Comillas. Recuperado de
https://repositorio.comillas.edu/xmlui/ bitstream/handle/11531/61311/TFG
%20Arroyo%20Mesa%2C%20Lucia. pdf?sequence=1&isAllowed=y
Barona Vilar, S. (2019). Cuarta revolución industrial (4.0.) o ciberindustria en el proceso penal: revolución digital, inteligencia artificial y el camino hacia la robotización de la justicia (Fourth Industrial Revolution (4.0.) Or Cyber- Industry in the Criminal Process: Digital Revolution, Artificial Intelligence and the Path Towards the Robotization of Justice). Revista jurídica digital UANDES, 3(1), 1-21. https://roderic.uv.es/bitstream/handle
/10550/72535/135552.pdf?sequence
=1
Barrios Mendoza, N. E. (2019). Selección de personal y competencias laborales en Servicios Logísticos F&B SAC, Callao 2019. [Tesis para obtener el
Título de Administrador, Universidad César Vallejo]. Repositorio institucional de la Universidad César Vallejo. Recuperado de https://repositorio.ucv.edu.pe/bitstrea m/handle/20.500.12692/54710/Barrio s_MNE-SD.pdf?sequence=1
Cantero Galeano, G. L. (2021). La inteligencia artificial en los procesos de selección. [Trabajo de fin de grado, Universidad de Valladolid]. Repositorio institucional de la Universidad de Valladolid. Recuperado de
https://uvadoc.uva.es/bitstream/handl e/10324/48201/TFG-
Cárdenas, E. R., & Molano, V. M. (2021). Un estudio sobre la posibilidad de aplicar la inteligencia artificial en las decisiones judiciales. Revista Direito GV, 17.
https://www.scielo.br/j/rdgv/a/vZDXY YPRrcwgsgJDWQf97QG/?format=pd f&lang=es
Cercos Rubio, L. (2022). Inteligencia Artificial en la Gestión de RRHH: Big Data y People Analytics. https://zaguan.unizar.es/record/1208
86/files/TAZ-TFG-2022-1284.pdf
Corvalán, J. G. (2018). Inteligencia artificial: retos, desafíos y oportunidades-Prometea: la primera inteligencia artificial de Latinoamérica al servicio de la Justicia. Revista de Investigações Constitucionais, 5,
295-316.
https://www.scielo.br/j/rinc/a/gCXJgh PTyFXt9rfxH6Pw99C/
de Andara, C. F. (2021). Marvin Lee Minsky: pionero en la investigación de la inteligencia artificial (1927-2016). Publicaciones en ciencias y tecnología, 15(1), 41-50.
https://revistas.uclave.org/index.php/ pcyt/article/download/3577/2267
Díaz, J. E. F. (2016). Estrategias para mejorar el proceso de reclutamiento y selección de personal en la Dirección de teleinformática de la gobernación del estado Mérida. Sapienza Organizacional, 3(5), 79-102.
https://www.redalyc.org/journal/5530/ 553057362005/553057362005.pdf
Duarte, R., & Yesid, N. (2022). El proceso de reclutamiento y selección de personal como factor clave en el Área
de Servicio al Cliente de los supermercados de Floridablanca. [Trabajo de grado, Universidad de Pamplona]. Repositorio institucional de la Universidad de Pamplona. Recuperado de
http://repositoriodspace.unipamplona
.edu.co/jspui/bitstream/20.500.12744
Elena, J. M. (2019). Singularidad tecnológica:¿mito o nueva frontera de lo humano?. Naturaleza y Libertad. Revista de estudios interdisciplinares, (12).
https://revistas.uma.es/index.php/nat uraleza-y- libertad/article/download/6269/5793
Filgueiras, F. (2021). Inteligencia Artificial en la administración pública: ambigüedad y elección de sistemas de IA y desafíos de gobernanza digital. Revista del CLAD Reforma y Democracia, (79), 5-38.
https://www.redalyc.org/journal/3575/ 357570194001/357570194001.pdf
Flores-Vivar, J. M., & García-Peñalvo, F.
J. (2023). Reflexiones sobre la ética, potencialidades y retos de la Inteligencia Artificial en el marco de la
Educación de Calidad (ODS4). https://repositorio.grial.eu/bitstream/g rial/2738/1/10.3916_C74-2023-
Friedle, C. P. (2020). Una nueva brecha de género en la era digital: Análisis de aplicaciones con inteligencia artificial en las políticas de gestión de personas. https://repositorio.comillas.edu/xmlui/ bitstream/handle/11531/36969/Una% 20nueva%20brecha%20de%20gener o%20en%20la%20era%20digital%20
%20Friedle%2C%20Cosima.pdf?seq uence=1&isAllowed=y
Garrucho Fernández, F. (2022). Procesamiento de imágenes con técnicas de aprendizaje profundo para la detección de hojas en plantas. https://idus.us.es/bitstream/handle/11 441/141337/1/TFG4290_Garrucho% 20Fernandez.pdf?sequence=1
Granados Ferreira, J. (2022). Análisis de la inteligencia artificial en las relaciones laborales. Revista CES Derecho, 13(1), 111-132.
http://www.scielo.org.co/scielo.php?s cript=sci_arttext&pid=S2145- 77192022000100111
Jalón Arias, E., Ponce Ruiz, D., Arandia,
J. C., & Arrias Añez, J. C. (2021). Las limitaciones de la aplicación de la inteligencia artificial al derecho y el futuro de la educación jurídica. Conrado, 17(83), 439-450.
http://scielo.sld.cu/scielo.php?script= sci_arttext&pid=S1990- 86442021000600439
Lara, C. S. (2020). El Algoritmo como protagonista de la relación laboral. Un análisis desde la perspectiva de la prohibición de discriminación. Temas laborales: Revista andaluza de trabajo y bienestar social, (155), 41-
60.
https://dialnet.unirioja.es/descarga/ar ticulo/7801689.pdf
Marconi Narváez, B. E. (2022). Diseño y evaluacion de un sistema de inteligencia artificial (IA) basado en redes neuronales convolucionales (CNN) para la detección y clasificación de nódulo tiroideo por ultrasonido.
https://repository.unab.edu.co/bitstre am/handle/20.500.12749/18462/202 2_Tesis_Marconi_Narvaez_Boris.pdf
McCarthy, J., Minsky, M., Rochester, N., & Shannon, C. (2006). A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence. AI Magazine, 27, 12-14.
https://ojs.aaai.org/aimagazine/index. php/aimagazine/article/view/1904
Mina, A. (2020). Big data e inteligencia artificial en el futuro manejo de pacientes.¿ Por dónde empezar?¿ En qué punto nos encontramos?¿ Quo tendimus?. Advances in Laboratory Medicine/Avances en Medicina de Laboratorio, 1(3). https://www.degruyter.com/document
/doi/10.1515/almed-2020-0052/html
Molero Moreno, C., Sáiz Vicente, E. J., & Esteban Martínez, C. (1998). Revisión histórica del concepto de inteligencia: una aproximación a la inteligencia emocional. Revista latinoamericana de Psicología, 30(1), 11-30.
https://riucv.ucv.es/bitstream/handle/
20.500.12466/1240/80530101.pdf?s
Moure Diz, M. (2022). Estudio de la aplicación de la ética en la inteligencia artificial por IBM. https://oa.upm.es/70996/1/TFG_MA RTA_MOURE_DIZ.pdf
Palma Ortigosa, A. (2021). Régimen jurídico de la toma de decisiones automatizadas y el uso de sistemas de inteligencia artificial en el marco del derecho a la protección de datos personales. https://roderic.uv.es/bitstream/handle
Peña Vinces, F. (2021). Empowerment y gestión del talento humano, en empresas consultoras en recursos humanos. [Tesis para obtener el Título de Licenciada en Administración, Universidad Ricardo Palma]. Repositorio institucional de la Universidad Ricardo Palma. Recuperado de
https://repositorio.urp.edu.pe/bitstrea m/handle/20.500.14138/5142/ADM- T030_03887612_T%20%20%20PE
0FELICIA.pdf?sequence=1&isAllowe d=y
Porrúa Perea, V. (2022). Problemas éticos en torno a la descarga de decisiones en máquinas con algoritmos de inteligencia artificial. https://repositorio.comillas.edu/xmlui/ bitstream/handle/11531/56403/TFG
%20201704788.pdf?sequence=3&is Allowed=y
Raffaghelli, J. E. (2023). Construir culturas de datos justas en la universidad: Desafíos para el profesorado. https://diposit.ub.edu/dspace/bitstrea m/2445/196842/1/9788419506450.p
Sánchez Vásquez, C. (2021). El derecho al control humano en la inteligencia artificial: una propuesta de regulación del control humano como un nuevo derecho en el ordenamiento jurídico colombiano (Doctoral dissertation, Universidad EAFIT). https://repository.eafit.edu.co/bitstrea m/handle/10784/30580/Carolina- Sanchez-2021.pdf?sequence=2
Suarez Prieto, J. E. (2018). Los beneficios de la inteligencia artificial en el sector empresarial. [Proyecto de Grado, Universidad Santo Tomas]. Repositorio institucional de la Universidad Santo Tomas. Recuperado de
https://repository.usta.edu.co/bitstrea m/handle/11634/12948/2018juliosuar ez.pdf?sequence=1
Turing, A. M. (1950). Computing machinery and intelligence (pp. 23- 65). Springer Netherlands. https://redirect.cs.umbc.edu/courses/ 471/papers/turing.pdf
Vestri, G. (2021). La inteligencia artificial ante el desafío de la transparencia algorítmica: Una aproximación desde la perspectiva jurídico-administrativa. Revista Aragonesa de Administración Pública, (56), 368-398.