À Paris, il y a en effet le laboratoire d’IA de Spotify, celui de Sony CSL, mais surtout l’Ircam, une institution publique qui, à sa création en 1970, est apparue à certains comme trop théorique, trop hors sol, trop plongée dans la musique compliquée. « Je voulais venir à Paris parce que j’avais envie d’y vivre et continuer à apprendre le français après quelques années à Montréal, m’a dit récemment Doug Eck, petites lunettes rondes et visage éternellement jeune, dans les locaux de Google situés près de la gare Saint-Lazare (VIIIe arrondissement). Mais surtout, je voulais venir parce qu’il y a l’Ircam. Ils ont été très importants dans les travaux sur le traitement du signal et le “machine learning”. »
Retour en arrière dans l’histoire technologique qui a permis d’en arriver là où nous en sommes début 2020, à l’aube d’un surgissement de l’intelligence artificielle dans la musique populaire. On va faire court et simple, mais rassurez-vous, tout va bien se passer. Dans les années 1970, après moult débats et expériences, les chercheurs américains en sciences cognitives et informatiques Allen Newell et Herbert Simon estiment que la résolution de problèmes par le cerveau humain peut être représentée de façon mathématique, donc reproduite par un ordinateur. Il ne s’agit pas de dire qu’une machine peut penser comme un humain, mais qu’elle peut trouver ses propres façons de résoudre des problèmes précis. « La question de savoir si un ordinateur peut penser n’est pas plus intéressante que la question de savoir si un sous-marin peut nager », répondait le mathématicien néerlandais Edsger Dijkstra lorsqu’on le questionnait sur la quête d’une « intelligence » des ordinateurs.

Les barrières théoriques sont tombées, mais les résultats ne suivent pas pour autant.