Los escáneres cerebrales identifican qué canción estás escuchando sin escucharla

$config[ads_kvadrat] not found

Gesangslehrerin Analysiert MADONNA ESC 2019 Live /Was war da los?

Gesangslehrerin Analysiert MADONNA ESC 2019 Live /Was war da los?
Anonim

No importa cuán enfáticamente una persona mueva la cabeza o toque la música en sus audífonos, nunca podrá estar totalmente seguro de lo que está escuchando a menos que se lo pida. Muchas personas, incluido yo, encuentran un gran consuelo en la certeza de que nadie puede decir que yo más o menos como La nueva incursión extremadamente mala de Justin Timberlake en la música country. Si comparte este sentimiento, prepárese para ser sorprendido por una nueva investigación del Instituto de Investigación y Educación D’Or.

El viernes, en la revista. Informes cientificos, los investigadores detrás del estudio informaron en un nuevo artículo que utilizaron con éxito escáneres cerebrales humanos para identificar qué género de música escuchan las personas con una precisión de hasta el 85 por ciento. Utilizaron una técnica llamada decodificación del cerebro, que se basa en la suposición de que el cerebro responde de manera única a estímulos específicos, en este caso, las diferentes características de una canción, y que cada uno de estos estímulos puede combinarse con una respuesta cerebral observable para, en última instancia, formar un código.

"Las máquinas podrán traducir nuestros pensamientos musicales en canciones", dijo el coautor del estudio y Ph.D de la Universidad Federal de Río de Janeiro. El estudiante Sebastian Hoefle, quien también investiga con el Instituto D’Or, en una declaración publicada el viernes.

El equipo comenzó utilizando imágenes de resonancia magnética para capturar, usando una computadora, la actividad cerebral de seis voluntarios mientras escuchaban 40 extractos de canciones de diferentes géneros de música, incluyendo música clásica, rock, pop, folk y jazz. Las canciones se clasificaron aún más en canciones tiernas ("Albert's House" de Chet Baker) y canciones que evocan la alegría ("Take Five" de Dave Brubeck), solo para ver qué matices podría tener el código, y cada una fue evaluada para características como tonalidad, dinámica, ritmo y timbre, para que la computadora pueda combinar estas cualidades con la respuesta del cerebro.

Luego, invirtieron el experimento para ver si la computadora podía predecir, sobre la base de la actividad cerebral, qué canción se estaba escuchando. En la primera prueba, la computadora mostró un 85% de precisión cuando seleccionó la respuesta correcta de dos canciones; en el segundo, cuando eligió la respuesta correcta de diez canciones, todavía tenía las canciones correctas el 74 por ciento de las veces.

Esta no es la primera vez que una computadora puede identificar canciones basadas en los patrones cerebrales de los oyentes, pero marca un nuevo estándar de precisión. El objetivo de este tipo de trabajo no es, afortunadamente, el hecho de que los usuarios de auriculares no se avergüenzan de la vergüenza de la música que piensan que pueden escapar escuchando al viejo John Mayer desapercibido, sino más bien mejorar las interfaces cerebro-computadora para las personas que no pueden comunicarse a través de la escucha. o discurso. Eso, y rompiendo las características musicales de una canción que provoca la respuesta cerebral más positiva en los oyentes, tal vez para componer canciones pop de mejor desempeño en el futuro. Justin Timberlake, toma nota.

$config[ads_kvadrat] not found