«Durante años, las máquinas solo respondían cuando las activábamos. Ahora se preparan para convivir con nosotros: sin pantalla, sin comandos, sin necesidad de invocarlas. Una voz que escucha, interpreta y calla cuando hace falta. No es un nuevo dispositivo, es una nueva forma de presencia»

Se busca crear una interfaz emocional, una tecnología que no necesite pantalla, ni teclado, ni gesto para activarse.
Durante mucho tiempo, las máquinas respondían solo cuando las activábamos: comandos, respuestas, búsquedas. Frías y obedientes, ejecutaban órdenes sin preguntar. Eran herramientas, no interlocutores. Un diálogo unidireccional, tan breve como funcional. Había una frontera clara entre nosotros y ellas: la del botón, la del clic, la del “Ok, Google” o “Hey, Siri”.
Esa frontera, sin embargo, empieza a desdibujarse. Jony Ive —diseñador del iPhone y reciente fichaje estrella de OpenAI— imagina un nuevo tipo de asistente: sin pantalla, sin activación, sin comandos. Un dispositivo siempre presente, capaz de percibir gestos y emociones, y de callar en el momento justo para sonar más natural, más cercano, más humano.
El proyecto busca redefinir nuestra relación con la tecnología. No se trata de un altavoz inteligente más, sino de una nueva forma de presencia, pensada para integrarse en nuestra rutina sin invadirla. Ive, célebre por haber dado forma al lenguaje visual de Apple, colabora con OpenAI en la creación de un objeto que no solo responda, sino que dialogue. Una voz con textura, matices y con las pausas necesarias para convertirse en una entidad capaz de entender el contexto sin necesidad de recibir órdenes explícitas.
El dispositivo combinaría sensores ambientales, cámaras de baja resolución y micrófonos para construir un mapa emocional del entorno. Capaz de distinguir si estamos hablando solos o con alguien, si estamos concentrados o distraídos, si una pausa significa duda o reflexión. Una voz, entrenada con modelos conversacionales avanzados, adaptada al ritmo y tono de cada usuario.
En el fondo, lo que se busca es crear una interfaz emocional. Una tecnología que no necesite pantalla, ni teclado, ni gesto para activarse. Que forme parte del espacio, igual que la luz o el sonido ambiente. Un asistente que no se limita a obedecer, sino que acompaña. Que pueda hablarte mientras cocinas, recordarte una cita mientras te vistes o bajar el volumen de la música si detecta que estás cansado.
Si lo consiguen, no estaremos ante un nuevo producto, sino ante un cambio de paradigma. Una presencia constante y discreta que transformaría nuestra relación con la tecnología.
El proyecto todavía se mueve entre la ambición y el misterio. Sam Altman imagina un asistente que no se enciende ni se apaga, que simplemente está. Ive, fiel a su obsesión por la simplicidad, quiere que su forma se diluya hasta casi desaparecer. Un objeto discreto, capaz de convivir con nosotros sin llamar la atención. Lo que realmente buscan no es un aparato: es una presencia.
El lanzamiento, previsto para 2027, es lo de menos. Lo relevante es lo que simboliza: el paso hacia una tecnología que ya no espera órdenes, que percibe el tono, el ritmo y la presencia. Una máquina que acompaña sin mostrarse, que escucha sin ser llamada. No hablamos de una interfaz, sino de una nueva forma de convivencia.
Quizá el futuro de la IA no consista en enseñarla a pensar, sino en enseñarla a estar.