Estudio revela que la música generada por IA puede emocionar más que la humana
Un estudio coordinado por la Universitat Autònoma de Barcelona (UAB) descubre que la música que es generada por inteligencia artificial puede provocar una respuesta emocional más intensa que la es compuesta por humanos
BARCELONA- De acuerdo a un comunicado publicado en el sitio web de la UAB, en este nueva investigación se llevó acabo un análisis de las respuestas fisiológica y emocional de 88 personas que participaron como voluntarios al observar videos con una idéntica imagen pero con diferente música; una que fue creada por humanos, y otra música que fue generada por la inteligencia artificial “con instrucciones (prompts) complejas y detalladas, y música generada por IA con un prompt simple y menos detallado”.
Los resultados de este estudio que se publicaron en la revista en PLOS One, desvelan que la inteligencia artificial es capaz de crear música “que se percibe como más excitante, lo que puede tener implicaciones significativas en el futuro de la producción audiovisual”, indica la UAB.
TE PUEDE INTERESAR: En Japón, los robots ya ofrecen conciertos
“La inteligencia artificial generativa está transformando el mundo de la creatividad, y la música no es la excepción”, añade el comunicado de la universidad.
Este estudio que fue coordinado por el grupo de investigación Neuro-Com del Departamento de Comunicación Audiovisual y Publicidad de la Universitat Autònoma de Barcelona, además contó con la participación del Instituto RTVE en Barcelona y de la Universidad de Liubliana (Eslovenia), indaga entorno a una pregunta esencial: “¿la música generada por IA puede provocar las mismas respuestas emocionales que la música creada por humanos en contextos audiovisuales?”, describe el comunicado.
Mientras los voluntarios miraban los videos, los investigadores realizaron un medición de sus reacciones fisiológicas, tales como la dilatación de pupilas, el parpadeo y la respuesta galvánica de la piel, y también sus respuestas emocionales “tal y como ellos mismos las describían. Los resultados del experimento fueron reveladores”; ya que la música que fue creada por la IA “provocó una mayor dilatación pupilar, lo que indica un mayor nivel de activación emocional”.
Por otra parte, prosigue la UAB en su comunicado, la música que se generó a través “prompts sofisticados” originó en las personas que participaron en la investigación más parpadeo, así como cambios en su piel, vinculados a una “mayor carga cognitiva”; es significa, que los autores del estudio observaron diferencias en el impacto provocado “por la música con IA según la complejidad del prompt utilizado”.
En cuanto a lo que se refiere a lo emocional, los voluntarios describieron que la música de IA era más excitante para ellos, no obstante la música creada por humana la percibieron más familiar.
Nikolaj Fišer, quien es el autor principal de esta nueva investigación explica que “ambos tipos de música generada por IA condujeron a una mayor dilatación pupilar y fueron percibidos como más estimulantes emocionalmente en comparación con la música creada por humanos”.
TE PUEDE INTERESAR: Toma robot la batuta
En este sentido, esta respuesta fisiológica se relaciona habitualmente “con un mayor nivel de activación emocional”, añade Fišer.
En opinión de Fišer “nuestros hallazgos sugieren que decodificar la información emocional de la música generada por IA puede requerir un mayor esfuerzo cognitivo”.
Siendo así, concluye el comunicado de la Universitat Autònoma de Barcelona “aunque la IA es capaz de producir música potente a nivel emocional, la manera en que el cerebro la procesa podría diferir en términos de carga mental y de mecanismos de interpretación emocional, lo que plantea nuevos desafíos para el diseño de experiencias sensoriales efectivas en medios audiovisuales”.
Por otra parte, Fišer, Miguel Ángel Martín-Pascual y Celia Andreu-Sánchez describen en su artículo que “la inteligencia artificial (IA) generativa ha evolucionado rápidamente, lo que ha generado debates sobre su impacto en las artes visuales y sonoras”, continúan explicando que “A pesar de su creciente integración en las industrias creativas, la opinión pública sigue siendo escéptica, ya que considera la creatividad como algo exclusivamente humano. En la producción musical, las herramientas de IA están avanzando, pero la expresión emocional sigue siendo en gran medida ignorada en el desarrollo y la investigación”.
¿CÓMO SE HIZO LA INVESTIGACIÓN’
En su artículo titulado “Emotional impact of AI-generated vs. human-composed music in audiovisual media: A biometric and self-report study” Fišer, Martín-Pascual y Andreu-Sánchez detallan que llevaron acabo un análisis entorno a “si la creación musical impulsada por IA puede evocar el mismo impacto emocional que la música creada por humanos en contextos audiovisuales”.
Los voluntarios observaron videos “acompañados por diferentes pistas de audio en tres condiciones: música creada por humanos (HCM), música generada por IA utilizando indicaciones de palabras clave más sofisticadas y detalladas (AI-KP), y música generada por IA utilizando indicaciones más simples y menos detalladas basadas en valores emocionales discretos y dimensionales (AI-DP)”, añaden los autores.
Mientras los participantes miraban los videos los autores hicieron un registro de los biométricos, así como de las respuestas afectivas de cada uno de ellos.
Los resultados obtenidos por los investigadores revelan que ambas “bandas sonoras generadas por IA provocaron una mayor dilatación pupilar en comparación con la música creada por humanos, aunque no hubo diferencias significativas entre sí”, precisa PLOS One.
En este sentido, agrega PLOS One, “la música generada por IA con indicaciones sofisticadas (AI-KP) resultó en una mayor tasa de parpadeo y un mayor nivel de impedancia de la piel como marcadores de atención y carga cognitiva, mientras que la valencia emocional se mantuvo constante en todas las condiciones”.
Para la Universitat Autònoma de Barcelona, este tipo de estudios abre nuevos caminos para llevar acabo estudios sobre “la percepción de estímulos sonoros generados por sistemas algorítmicos avanzados”.
Por lo que, concluye la UAB “estos hallazgos podrían tener implicaciones significativas para el futuro de la producción audiovisual, especialmente en lo que respecta a la personalización de la música según la narrativa visual, la economía de recursos en procesos creativos y la posibilidad de ajustar el impacto emocional del contenido con mayor precisión mediante herramientas automatizadas”.
Con información de la Agencia de Noticias EFE, Universitat Autònoma de Barcelona y PLOS One.