A un passo da Her: “Adesso l’intelligenza artificiale ascolta come noi”

L’hanno realizzata i ricercatori del Mit, allenandola grazie a centinaia di clip audio della durata di due secondi

ANCORA non parla come noi. Ma come noi ha imparato ad ascoltare. I neuroscienziati del Massachusetts institute of technology hanno sviluppato un’intelligenza artificiale che per la prima volta riesce a replicare le capacità di un essere umano nella comprensione della musica e di un discorso. Un risultato dalla portata storica, quello pubblicato sull’edizione di aprile della rivista Neuron. Perché avvicina la realtà alla fantasia. Al futuro delineato sul grande schermo dal film Her (Lei), in cui parleremo con le macchine come con una persona. Niente più fraintendimenti tra noi e Siri, o qualsiasi altro assistente vocale: ci capiranno al volo.

Tutto grazie a una rete neurale alla cui base c’è il deep learning, ossia quella tecnologia d’apprendimento automatico, sviluppata a partire dagli anni Ottanta, che mima il comportamento dei neuroni umani. I ricercatori del Mit l’hanno allenata per eseguire due compiti: da una parte, capire le parole dette nel mezzo di una conversazione di due secondi, dall’altra riconoscere il genere di una canzone attraverso un audio di durata altrettanto breve. In entrambi i casi, sono stati inseriti dei rumori di sottofondo per rendere l’impresa ancora più difficile e realistica. Proprio come se la macchina in questione si trovasse ad ascoltare ciò che diciamo mentre ci troviamo in un ambiente affollato…..Continua su Repubblica.it>>

Di |2018-04-30T14:56:23+00:0030/4/2018|2018, News|