La catedrática de Ética Adela Cortina pronunció la conferencia de clausura del XXXI Curso de Defensa que presidió el teniente general José Manuel de la Esperanza, jefe del MADOC
Intervención de los ponentes en la última jornada del XXXI Curso Internacional de Defensa de Jaca. ALEJANDRO TOQUERO
El teniente general jefe del Mando de Adiestramiento y Doctrina (MADOC) del Ejército de Tierra, José Manuel de la Esperanza, clausuró este viernes el XXXI Curso Internacional de Defensa, que se ha celebrado en Jaca durante toda la semana. En el acto, también participaron el general director de la Academia General Militar (AGM), Prudencio Horche; la concejal de Cultura del Ayuntamiento de Jaca, Andrea Vargas, y el coronel director del Curso de Defensa, Carlos Domínguez.
En esta jornada, se analizaron aspectos relacionados con los desafíos de la Inteligencia Artificial. En ello incidió especialmente la catedrática emérita de Ética y Filosofía Política de la Universidad de Valencia, Adela Cortina, que centró su ponencia en los desafíos éticos.
“La ética de los sistemas inteligentes aplicada a la Defensa y la Seguridad tiene que ser una ética de la responsabilidad”, señaló la ponente. Efectivamente, prosiguió, “la IA ofrece unos medios extraordinarios para que se gane en precisión, agilidad y para que se potencien las capacidades militares, pero eso debe tener unos límites, y lo primero que hay que saber es hacia dónde se dirige el uso de esos medios”.
A juicio de Adela Cortina, “esa dirección tiene que ir hacia la construcción de una paz justa. La Humanidad está soñando con la paz desde siempre y es cierto que a veces es difícil encontrar los caminos para llegar a ella, pero esa es la meta hacia la que tenemos que avanzar desde todos los ámbitos de la sociedad”.
Además, fue un poco más allá al asegurar que en ese camino hacia la construcción de una paz justa, “hay que poner el foco y la responsabilidad en las personas, que son seres que tienen dignidad y no un simple precio. Todo tiene que estar al servicio de las personas; ese es el gran objetivo”.
En su intervención, la catedrática emérita de Ética y Filosofía Política de la Universidad de Valencia también puso de relieve “el carácter interdisciplinar del Curso de Defensa, que viene siendo así desde hace muchos años; que personas que provienen de ámbitos muy diferentes trabajen de forma conjunta en temas de seguridad y defensa es fundamental”.
Justicia
El profesor de Derecho Civil de la Universidad de Zaragoza, Miguel Lacruz, centró su ponencia en La justicia humana y la justicia artificial. En su intervención, aseguró que “en España ya tenemos leyes que permiten actuaciones automatizadas en la Justicia, y la ley de Inteligencia Artificial europea es la más importante”.
Sobre la incidencia de la IA en el Derecho y en la Justicia, el ponente señaló que “de momento es bastante tímida y se circunscribe a temas como la trascripción oral a texto o la búsqueda de archivos”.
Durante la conferencia se hizo la pregunta: “¿Cabe la posibilidad de llegar a la figura del juez robot?”. En este sentido, manifestó que “todos los autores dicen que la utilización de la IA en la Justicia solo puede ser instrumental; tiene que ayudar a mejorarla, pero no dictarla”.
En esa misma línea argumental, el reglamento europeo de IA “califica de alto riesgo los sistemas de Inteligencia Artificial destinados a la administración de Justicia”. Y lo deja claro: “la toma de decisiones finales debe seguir siendo una actividad humana”. El profesor Miguel Lacruz concluyó diciendo que “hay una cosa que la IA no puede imitar, que es la conciencia humana”.
Protección de datos
Finalmente, el profesor y doctor en Derecho del Centro Universitario de la Defensa, Andrés Cosialls, habló de Inteligencia Artificial y protección de datos. En su exposición, analizó diferentes sectores productivos y cómo les afecta la IA y el tratamiento de los datos.
El ponente puso varios ejemplos. Entre ellos, el de una empresa que se encarga de análisis de datos genéticos y que recientemente ha llegado a un acuerdo con los usuarios porque vulneró sus bases. “La empresa ha tenido que resarcir a los perjudicados con 30 millones de dólares”, detalló.
En el ámbito de la salud, Andrés Cosialls considera que “hay aplicaciones que te hacen recomendaciones sobre salud y cuando das los datos, la aplicación ya los tiene. Te ofrece algunos consejos, pero esos datos ya los controla un tercero y no puedes saber si están en bases suficientemente seguras, ni tampoco si una cuarta persona o empresa puede conseguir esa información”.
En este sentido, el ponente indicó que “la inteligencia de datos es una herramienta muy potente que se nutre de la información personal de la gente, por lo que tenemos que ser muy cuidadosos con los que cedemos y huir de las aplicaciones sospechosas”.
Andrés Cosialls recordó que “vivimos en un mundo tan apresurado que la regulación legal va un paso por detrás de las implicaciones que supone la utilización de la IA, pero también debemos pensar que es algo que ha venido para quedarse y que hay que emplear de forma segura poniendo todas las barreras posibles a quienes la quieran usar con fines delictivos”.