“Parte de la dificultad que entraña regular la Inteligencia Artificial radica en su carácter exponencial, lo que, unido a la lenta respuesta institucional, hacen inviable por el momento crear regulaciones efectivas a medio o largo plazo”
A medida que la IA avanza surgen preocupaciones sobre cómo dar a esta tecnología un uso ético y seguro.
En los últimos artículos hemos visto cómo la IA (inteligencia artificial) se ha convertido en una tecnología cada vez más presente, y cómo su aplicación a distintos ámbitos de nuestra vida social, laboral, económica o cultural, va a transformar nuestra forma de vida en los próximos años.
La IA se utiliza cada vez más en una gran variedad de sectores, desde la atención médica hasta el transporte, la logística, el ocio, la seguridad, etc. Sin embargo, a medida que la IA avanza y se vuelve más inteligente, también surgen preocupaciones sobre cómo dar a esta tecnología un uso ético y seguro.
Uno de los asuntos que más controversia ha generado durante las últimas semanas en prensa es el tema de la regulación.
¿Debe regularse la IA?
Hasta ahora la regulación de la IA se ha centrado principalmente en la protección de la privacidad y la seguridad de los datos generados entre la interacción de una aplicación con los usuarios. Un ejemplo es el Reglamento General de Protección de Datos (RGPD) de la Unión Europea, el cual establece normas sobre cómo se deben recopilar, almacenar y procesar los datos personales. El RGPD, que también establece multas significativas para las empresas que no cumplan con el reglamento, y que no dista mucho de la normativa que ya se aplicaba a las páginas web desde hace tiempo.
Ante los cada vez más visibles avances de la IA son muchas las voces que se han levantado pidiendo una normativa que regule adecuadamente el uso de la IA para garantizar la seguridad de las personas y de la propia sociedad, sin embargo, bajo mi punto de vista no va a ser una tarea sencilla.
Aunque evidentemente la privacidad y la seguridad de los datos es un aspecto importante, hay cuestiones mucho más peliagudas. Un ejemplo es donde recae la responsabilidad en la toma de decisiones basadas en la IA.
¿De quién es la culpa si el sistema no funciona bien? ¿De quien ha diseñado el algoritmo? ¿De la empresa que lo modifica para adaptarlo a una determinada función? ¿Del empleado que lo usa para ofrecer un servicio a sus clientes?
Netflix o Spotify usan IA para ofrecernos contenido adecuado a nuestros gustos. No pasa nada si nos recomiendan una película o una canción que no nos gusta, pero… ¿de quién es la responsabilidad en el caso de que un algoritmo recete por error un medicamento equivocado? ¿Y en el caso de un reconocimiento facial fallido? ¿Y en el uso de armas autónomas?
Estos servicios están a la vuelta de la esquina, y la regulación de la IA presenta desafíos descomunales. Empezando por su propia idiosincrasia exponencial. Estamos ante la punta del iceberg de esta tecnología, y ante unos cambios que van a ser cada vez más rápidos, la lenta burocracia de un país o conjunto de países como la UE, poco puede hacer para crear regulaciones efectivas a medio o largo plazo.
Otro desafío es la falta de comprensión y conocimiento sobre la IA entre el público en general, el cual, en muy poco tiempo no va a ser capaz de discernir si está siendo atendido por una máquina o por una persona.