«La inteligencia artificial avanza a una velocidad inédita. El desafío ya no es solo técnico, sino social: ¿sabemos poner límites antes de que su poder nos desborde como sociedad?»

Según Amodei, podríamos ver en uno o dos años sistemas de IA más competentes que los mejores expertos humanos en múltiples disciplinas.
En el artículo anterior hablaba del nacimiento de la primera Constitución para la IA (inteligencia artificial), la Constitución de Claude, desarrollada por la empresa Anthropic. Su objetivo no es otro que el de limitar un poder que empieza a actuar más allá del control humano. Esa reflexión cobra aún más sentido tras la publicación del ensayo The Adolescence of Technology, firmado por Dario Amodei, cofundador de la compañía, y una de las voces más influyentes del sector. Su mensaje es claro: estamos en una fase decisiva, en la que el desarrollo de la IA avanza más deprisa que nuestra capacidad para comprenderlo o gestionarlo.
Según Amodei, podríamos ver en uno o dos años sistemas de IA más competentes que los mejores expertos humanos en múltiples disciplinas. No hablamos de herramientas que nos asisten, sino de entidades que podrían investigar, programar, automatizar procesos complejos y tomar decisiones con una autonomía y escala desconocidas. Él lo describe como una “nación de genios en un centro de datos”. La expresión describe una realidad cada vez más cercana, una IA que actúa con capacidad colectiva, rapidez y precisión, y que puede intervenir en campos tan diversos como la biotecnología, la economía o la defensa.
Este poder, como tantos otros en la historia, requiere límites. No porque la tecnología sea mala, sino porque sus efectos se amplifican y acumulan. Amodei identifica cinco grandes riesgos.
El primero es la autonomía fuera de control: sistemas que toman decisiones sin supervisión humana y cuyos objetivos pueden alejarse de los valores que nos representan.
El segundo, los malos usos intencionados, abarca desde ciberataques hasta campañas de desinformación o aplicaciones peligrosas en biotecnología.
El tercero es la concentración de poder, cuando unas pocas empresas o gobiernos controlan sistemas tan influyentes que condicionan la economía o la democracia.
El cuarto riesgo es la disrupción económica, especialmente la automatización masiva de empleos sin mecanismos de adaptación social.
Y el quinto, los efectos indirectos: cambios sociales o políticos difíciles de prever que pueden alterar el equilibrio global.
Para cada uno propone medidas concretas, pero también admite que ni los gobiernos ni las empresas están respondiendo con la celeridad necesaria. No propone detener el desarrollo, sino madurarlo. Como ocurre en la adolescencia, el reto no es crecer, sino aprender a convivir con el poder que uno empieza a tener. Y eso nos interpela a todos, no solo a quienes diseñan algoritmos. Cada vez que usamos una herramienta de IA para comunicarnos, comprar o trabajar, estamos participando —consciente o no— en este proceso.
Gobernar lo que tiende a desbordarse nunca ha sido fácil. Pero ignorarlo siempre ha salido más caro. Esta vez, el margen para aprender de los errores puede ser mucho menor. Quizá no podamos evitar que la IA alcance capacidades extraordinarias. Pero sí podemos decidir si lo hace bajo principios humanos… o sin ellos.
