Siamo ad un passo dal parlare con i delfini grazie all’Intelligenza artificiale. A guidare questa nuova frontiera è DolphinGemma, il nuovo modello open source di intelligenza artificiale, sviluppato da Google in collaborazione con il Wild Dolphin Project (WDP), che da oltre trent’anni studia i delfini maculati delle Bahamas.
Il risultato delle ricerche è stato un database di registrazioni acustiche, grazie a cui potremmo comprendere le vocalizzazioni, ossia il linguaggio, dei cetacei.
Leggi Anche
Come funziona DolphinGemma
DolphinGemma si basa sulla tecnologia di Gemma, la famiglia di modelli linguistici leggeri sviluppata da Google con la tecnologia di IA Gemini. Così come i grandi modelli del linguaggio umano prevedono la parola successiva della frase, DolphinGemma elabora sequenze di suoni naturali emessi dai delfini per identificare la struttura e anticipare i suoni che con maggiore probabilità verranno emessi dopo. In pratica, cerca di “capire” la grammatica acustica dei delfini.
A differenza dei modelli multimodali come Gemini, progettati per elaborare testi ed immagini, DolphinGemma è interamente focalizzato sull’audio, ossia sulle sequenze sonore emesse dai delfini. Il funzionamento è proprio dei modelli linguistici umani che completano le frasi, agendo come sistema predittivo simile al “completamento automatico”. Il sistema è quindi audio-in/audio-out e trasforma i suoni in “token” comprensibili per il linguaggio macchina.
DolphinGemma, quali suoni riconosce e il potenziale interpretativo
Addestrato tramite il database estensivo del WDP, DolphinGemma è in grado di riconoscere pattern, prevedere le sequenze seguenti e associare ai suoni significato o comportamenti specifici. Le correlazioni tra suoni specifici e contesti comportamentali più noti sono i fischi firma, veri e propri “nomi” usati da madri e cuccioli per ritrovarsi, “squawk” intermittenti usati in momenti di tensione e “buzz” di clic tipici del corteggiamento o dell’inseguimento.
Per scienziati ed etologi rappresenta un grande passo avanti: finora l’analisi delle vocalizzazioni dei cetacei era un processo lungo e laborioso, spesso basato sull’ascolto manuale e sull’interpretazione soggettiva. Con DolphinGemma , sarà possibile sintetizzare i dati, visualizzare i pattern sonori e ipotizzare il significato delle “frasi” dei delfini. Questo è possibile perché la sintetizzazione corrisponde al riassumere e rappresentare in modo compatto e significativo un insieme di dati numerosi e complessi per facilitarne l’analisi.
Meet DolphinGemma, an AI helping us dive deeper into the world of dolphin communication. 🐬 pic.twitter.com/2wYiSSXMnn
— Google DeepMind (@GoogleDeepMind) April 14, 2025
L’obiettivo ambizioso: un vocabolario condiviso
Il Wild Dolphin Project inizierà a utilizzare il modello già in questa stagione di ricerca. L’obiettivo a lungo termine è la costruzione di un vocabolario condiviso tra umani e delfini. Il progetto sfrutta anche suoni sintetici associati a oggetti o interazioni specifiche per favorire una forma di comunicazione interattiva.
DolphinGemma sarà reso disponibile come modello open source entro l’estate 2025 su un dispositivo chiamato CHAT (Cetacean Hearing Augmentation Telemetry) basato su Pixel 9. Questo strumento, sviluppato dal Georgia Institute of Technology, permette di registrare e analizzare i suoni dei delfini in tempo reale.
Nonostante sia addestrato esclusivamente sui delfini maculati atlantici, gli scienziati puntano ad adattarlo anche con altre specie come i tursiopi o le stenelle dal lungo rostro, grazie alla flessibilità del modello.
© Riproduzione riservata