La musica è un percorso diretto verso le emozioni e i ricordi immagazzinati nelle profondità del cervello. Sappiamo tutti che c'è un senso di profonda connessione tra la musica ei neuroni del cervello. Allo stesso modo, i modelli di attività cerebrale di qualcuno possono anche influenzare il modo in cui elaborano le note musicali, secondo un nuovo studio.
Lo studio, che è stato pubblicato sulla rivista Biologia PLOS, suggerisce un legame diretto tra l'attività cerebrale e la percezione musicale, che secondo i ricercatori potrebbe rivoluzionare la tecnologia che aiuta a parlare le persone con problemi di parola.
Tali dispositivi, noti come neuroprotesi, vengono utilizzati per aiutare le persone con paralisi a comporre un testo semplicemente immaginando di scriverlo. Allo stesso modo, alcuni di questi dispositivi sono stati progettati per consentire alle persone di costruire frasi usando i loro pensieri. Tuttavia, quando si considera l'aspetto del discorso, c'è stata una notevole sfida nel catturare il ritmo naturale e le sfumature emotive presenti nella lingua parlata, chiamata "prosodia".
Fino ad ora, gli studi non sono stati in grado di ottenere un suono più naturale e umano. Di conseguenza, ci ritroviamo con suoni meccanici privi di un'intonazione adeguata.
IL squadra utilizzata musica, che naturalmente ha elementi sia ritmici che armonici, per creare un modello per decifrare e ricreare un suono con una prosodia più ricca. Sono riusciti a decodificare una canzone dalle registrazioni cerebrali di un paziente.
"In questo momento, la tecnologia è più simile a una tastiera per la mente", ha detto l'autore principale Ludovic Bellier, dell'Università della California, Berkeley, in un dichiarazione. “Non puoi leggere i tuoi pensieri da una tastiera. Devi premere i pulsanti. E fa una specie di voce robotica; di sicuro c'è meno di quella che chiamo libertà espressiva.
I ricercatori sono ottimisti sul fatto che il loro studio possa apportare miglioramenti nella tecnologia dell'interfaccia cervello-computer.
"Man mano che l'intero campo delle interfacce cervello-macchina progredisce, questo ti dà un modo per aggiungere musicalità ai futuri impianti cerebrali per le persone che ne hanno bisogno", ha spiegato Robert Knight, professore di psicologia alla UC Berkeley presso l'Helen Wills Neuroscience Institute. “Ti dà la possibilità di decodificare non solo il contenuto linguistico ma parte del contenuto prosodico del discorso, parte dell'effetto. Penso che sia quello su cui abbiamo davvero iniziato a decifrare il codice.
Pubblicato da Medicaldaily.com