“La nueva ley de la UE prohíbe monitorizar emociones en entornos laborales y educativos, buscando proteger la intimidad. Sin embargo, esta medida plantea un dilema entre la privacidad y el potencial de la IA para mejorar la vida de las personas”
La UE busca prohibir la monitorización de las emociones.
Uno de los puntos que veta la nueva ley de regulación de IA (inteligencia artificial) de la UE es la prohibición del reconocimiento de emociones en entornos laborales y educativos.
Monitorizar las emociones no es algo nuevo, redes como Facebook permiten indicar nuestros sentimientos en forma de inocentes emojis. También Spotify es capaz de analizar nuestro estado de ánimo en función de la música que escuchamos.
Se trata de una medida que busca proteger la intimidad y evitar presiones indebidas en estos ambientes, sin embargo, se me plantea un dilema. Por un lado, valoro la necesidad de proteger la intimidad personal. Entiendo que, para mucha gente, la idea de ser monitoreado constantemente, incluso en sus emociones más sutiles, pueda resultar inquietante.
Por otro lado, como apasionado del potencial transformador de la tecnología, no puedo evitar sentir que estamos poniendo barreras a innovaciones que podrían mejorar de forma sustancial la vida de muchas personas.
¿Va a obstaculizar la regulación de la IA la posibilidad de mejorar nuestra calidad de vida?
A nivel productivo, los beneficios de monitorear las emociones son indiscutibles, ya vimos hace unos meses como Open University lleva más de una década utilizando soluciones con IA para mejorar el rendimiento de sus alumnos. A través del análisis de patrones conductuales como pueden ser la frecuencia y duración de las sesiones de estudio, la participación en foros o la constancia en la entrega de tareas, la IA puede generar otros patrones emocionales como signos de estrés, desmotivación o dificultades de aprendizaje. Gracias a esta información, tanto los tutores como los propios alumnos son más conscientes del problema y pueden afrontarlo con mejores perspectivas.
Este mismo ejemplo puede ser aplicado al ámbito de la empresa, donde este tipo de tecnología puede mejorar la productividad de forma relevante, sin embargo, más allá de los beneficios productivos, debemos tener en cuenta que estamos solo ante la punta del iceberg de una tecnología con un potencial y un recorrido enorme.
Una tecnología que puede aportar soluciones en temas tan importantes y abandonados a la mano de Dios como puede ser la prevención del suicidio, una lacra que en nuestro país se cobra cada año la vida de más de 4.000 personas.
La posibilidad de que la IA pueda identificar a personas en riesgo y ofrecer ayuda a tiempo es algo que con la actual normativa no va a ser posible.
Pienso que más que prohibir, se debe desarrollar un marco regulatorio que permita el uso ético y responsable de la IA, protegiendo nuestros derechos sin cerrar la puerta a los avances que pueden mejorar nuestras vidas.
Un dilema, el cual es un fiel reflejo de los desafíos éticos a los que se encuentra la sociedad en la era de la IA.