Advierten que la IA ya interpreta emociones y conductas: cuál es el riesgo
Un estudio advierte sobre el desfasaje entre la rapidez con la que avanza la tecnología y la capacidad del Derecho para adaptarse a ella.
La inteligencia artificial (IA) ya interpreta emociones y conductas de las personas, mientras la legislación no llega a responder adecuadamente a ese tipo de tecnología, advirtió un estudio de la Universidad del País Vasco (EHU).
Se trata del trabajo de la profesora de Derecho Constitucional Leire Escajedo, que fue reconocido con un accésit en el Premio Emilio Aced 2025 de la Agencia Española de Protección de Datos (AEPD).
Titulada Tratamientos biométricos no identificantes mediante inteligencia artificial, la investigación analiza un fenómeno cada vez más común: el uso de tecnologías capaces de interpretar cómo nos sentimos o cómo actuamos a partir de señales de nuestro cuerpo.
De esta manera, advierte que la legislación actual no responde adecuadamente a este tipo de tecnologías porque estas operan de forma continua analizando lo que hacemos en cada momento y extrayendo conclusiones sobre nuestro comportamiento, lo que dificulta su encaje en las categorías jurídicas existentes.
En ese sentido, la profesora de la EHU subraya "el desfasaje entre la rapidez con la que avanza la tecnología y la capacidad del Derecho para adaptarse a ella".
Cómo la IA interpreta emociones y conductas
Muchos dispositivos y aplicaciones de uso cotidiano incorporan sistemas de IA que obtienen y analizan información del rostro, la voz, la mirada o la forma en que interactuamos con ellos.
Así, son capaces de detectar si una persona presta atención, si muestra interés o cansancio, cuánto tiempo se detiene en un contenido o cómo reacciona, y de utilizar esa información para ajustar lo que se le muestra, desde videos hasta anuncios o mensajes diseñados para captar su atención o influir en su comportamiento.
Para ello, usan tecnologías relacionadas con la biometría, como las utilizadas para reconocer huellas dactilares o desbloqueo facial, pero que en este caso no se utilizan para identificar a la persona, sino para interpretar su comportamiento y su estado en cada momento.
Es decir que son capaces de deducir información más íntima sin que la persona la haya expresado. "Estas herramientas ya no solo registran lo que hacemos, sino que intentan interpretar cómo nos sentimos o cómo podríamos actuar y son capaces de ajustarse para modular nuestro comportamiento", explica Escajedo.
Cuál es el riesgo
La investigación identifica el riesgo de que estos sistemas puedan influir en las decisiones al adaptar el entorno digital en función del comportamiento observado y alerta de una "falta de transparencia sobre qué datos se generan y con qué finalidad se utilizan".
En ese sentido, esto compromete la libertad personal, ya que el usuario puede ser guiado o condicionado sin ser plenamente consciente de cómo ocurre ese proceso.__IP__
El estudio menciona que el Reglamento Europeo de Inteligencia Artificial "no ha dado suficiente importancia a estos usos, pese a su impacto real".