Forskarna återskapade låten genom att träna artificiell intelligens att analysera så kallade neurala mönster i patienternas hjärna under tiden som de lyssnade på låten.
Elektroderna övervakade aktivitet från patienternas så kallade auditiva cortex – ett område i hjärnan, som bearbetar alla aspekter av de ljud vi människor hör.
Genom att jämföra hjärnaktiviteten i just det området med låtens ljud upptäckte forskarna inte bara neurala mönster med speciella ord, utan även med toner, rytmer, betoning och intonation.
Med den informationen utvecklade forskarna en datormodell som kunde avkoda sambanden mellan låten och det som ägde rum i patienternas auditiva cortex.
Artificiell intelligens ger hjärnan ett instrument
Eftersom den upptränade datormodellen med tiden kunde känna igen vilka mönster i hjärnaktiviteten som motsvarade vilka musikaliska drag, kunde forskarna till slut rekonstruera hjärnans egna version av den legendariska hit-låten i ett spektrogram, vilket är en grafisk avbildning av ljus som bland annat visar ljuds frekvens, längd och ljudstyrka.
Låtens rytm och melodi verkar vara intakt intakta i den återskapade låten.
Och även om orden är otydliga framträder meningen "All in all, it's just another brick in the wall". Om man kan låten och vet vad som kommer, så är låten igenkännlig.
Kort ljudklipp av Pink Floyd-låten "Another Brick in the Wall" uppspelad för försökspersonerna
Rekonstruktion av låten utifrån elektrisk aktivitet i hjärnans auditiva cortex
"Det låter lite som om de pratar under vatten, men det är bara vårt första försök. Potentialen är enorm", säger Robert Knight, som är neurolog och professor i psykologi vid UC Berkeley, i ett pressmeddelande.
Forskarna siktar på att utveckla teknik som gör det möjligt för patienter, som har förlorat förmågan att tala, att kommunicera mer naturligt.
"Genom att förstå hur hjärnan representerar de musikaliska elementen i tal, såsom toner, rytmer och ljudstyrka, blir det lättare att ta fram talapparater som låter mindre robotaktiga", förklarar Knight.