Avec les IAIA génératives plus performantes aujourd’hui, il devient possible de créer des musiques sans aucune intervention humaine, avec un simple prompt. Mais ces morceaux peuvent-ils faire illusion ? Pour le savoir, des chercheurs de l’Université autonome de Barcelone ont étudié les réactions de participants qui écoutaient plusieurs morceaux. Ils publient leurs résultats dans la revue Plos.
Stable Audio contre musique de film
Concrètement, il s’agissait d’observer 88 personnes sélectionnées, qui devaient regarder des clips de différents types de musique. Certaines étaient composées par des humains, d’autres par intelligence artificielle (IA) avec un prompt complexe, et d’autres encore avec un prompt basique et moins détaillé.
Les auteurs ont utilisé Stable Audio qui repose uniquement sur des morceaux sans paroles, afin d’éviter que la signification du texte ne provoque une réaction émotionnelle. Les morceaux humains, eux, étaient issus de bandes originales de plusieurs films et correspondaient à différentes ambiances, parfois plus calmes ou plus entraînantes.
La musique humaine est considérée plus familière. © Alexandru Nika shutterstock.com
Pendant ce temps, les chercheurs observaient leurs réactions physiologiques, comme la dilatationdilatation des pupilles, leurs clignements d’œil ou encore la conductanceconductance cutanée, une réaction à la surface de la peau qui est associée au plaisir.
Résultat : les morceaux réalisés par des humains sonnent plus familiers et moins engageants aux oreilles des participants. Les auteurs ont enregistré davantage de dilatation de la pupille lorsqu’ils écoutaient des morceaux générés par IA avec un simple prompt constitué de quelques mots-clés. Et lorsqu’il s’agissait de prompts plus sophistiqués, il y avait davantage de réponse de la peau et de clignements d’œilœil, ce qui révèle un engagement émotionnel plus fort et davantage d’engagement envers le morceau.
Les prompts utilisés pour produire certaines musiques. © Nikolaj Fiser, PLOS
Les participants étaient ensuite appelés à répondre à un questionnaire sur les morceaux entendus, et là aussi, ils étaient une majorité à décrire la musique faite par IA comme étant plus intéressante et agréable, tandis que les morceaux humains étaient considérés familiers et peu originaux.
Des pistes pour de futures études
Il faut dire que les outils pour créer de la musique artificiellement sont aujourd’hui bien plus développés. La mise à jour de Suno sortie fin 2024 ajoute la présence de « Personas » qui définissent l’ambiance générale d’une musique. Aiva propose des fonctions de montage et de modification par le créateur, Mubert repose sur l’utilisation d’images qui servent de prompt. Tous ces logiciels sont très simples d’accès, même sans aucune connaissance musicale et surtout, ils reposent sur les musiques déjà existantes qui leur servent de base de données.
La réponse émotionnelle et cérébrale à la musique pourrait être mieux étudiée. © Rawpixel.com, Adobe Stock
En revanche, l’étude présente quelques limites. Déjà, en raison du faible nombre de participants, mais aussi parce que la mesure des réactions peut être jugée peu précise. L’utilisation d’un encéphalogramme aurait donné des résultats plus solidessolides.
De plus, les outils d’IA évoluent tellement vite que depuis le mois de mars, lorsque les tests ont été menés, les possibilités ont énormément évolué. Pour aller plus loin, les auteurs voudraient aussi travailler avec des musiciens professionnels pour composer directement les morceaux humains et ainsi avoir plus de contrôle sur les expérimentations.