Comment l’intelligence artificielle va nous permettre de parler avec les baleines

whale

L’intelligence artificielle, c’est-à-dire la création et la mise en œuvre d’algorithme, est l’un des enjeux majeurs de notre siècle. En maîtriser ses étapes relève de la souveraineté économique et c’est peu dire que l’Europe doit y trouver sa place face aux Etats-Unis et à la Chine. En France, cette semaine, le gouvernement a ainsi lancé une nouvelle phase de la stratégie nationale d’intelligence artificielle impulsée en 2018 après le rapport Villani, avec 2 milliards d'euros mobilisés. 

Les enjeux de l'intelligence artificielle

La première phase de 1,5 milliard d’euros a notamment conduit à la création et au développement d’un réseau d’instituts interdisciplinaires d’intelligence artificielle (3IA), dont celui de Toulouse, le soutien à des chaires d’excellence en IA, le financement de programmes doctoraux et l’investissement dans les capacités de calcul de la recherche publique (Jean Zay). 

Avec 6 licornes françaises (sociétés valorisées plus d’un milliard d’euros) et 502 start-up travaillant dans ce domaine (+11 % par en un an), la France a acquis une vraie expertise dans un domaine qui reste encore aussi méconnu que difficile à appréhender pour le grand public. De la robotique à l’automobile, des réseaux sociaux à la recherche médicale l’IA est partout mais ne se voit pas forcément. 

Collecter 4 milliards de sons de cétacés

C’est la raison pour laquelle quelques projets étonnants mobilisant de l’intelligence artificielle peuvent constituer de bons exemples pour sensibiliser le grand public. Le projet CETI est assurément de ceux-là puisque son ambition est de permettre à l’homme… de parler avec les baleines.

ceti

Soutenu par de grandes universités et institutions (Harvard, le MIT, la National Geographic Society…) le projet Cetacean Translation Initiative (CETI) a pour objectif d’écouter et de comprendre le langage des cachalots, des animaux parmi les plus bruyants sur Terre. Pour communiquer entre eux, les cétacés utilisent des sons (craquements, clics) appelés « codas » et qui peuvent durer parfois très longtemps. L’idée des chercheurs est de pouvoir décrypter les enregistrements de ces « chants » via une technique de Traitement Naturel du Langage (NLP). Pour que celle-ci soit le plus efficace possible, il faut l’alimenter avec un maximum d’enregistrements. Le modèle de langage GPT3 développé par la société OpenAI avait été entraîné avec 175 milliards d’occurrences. 

Le projet CETI dispose pour l’instant de seulement 100 000 sons collectés par des biologistes marins ; il en faudrait 4 milliards.

Alors pour capter les codas, le projet va déployer des micros sous-marins à des endroits stratégiques et des robots aquatiques pour suivre discrètement les cachalots. Même avec des milliards de sons les difficultés seront immenses pour pouvoir contextualiser la « parole » des cétacés qui auraient comme nous des dialectes différents. 

Mais le projet avance, l’algorithme NLP fonctionne bien « du moins pour les tâches relativement simples » selon le directeur du projet Michael Bronstein, persuadé que la révolution de parler avec les cachalots est à notre portée.