Si eres músico, es posible que desees saltarte esta historia. La marcha de la automatización, sedienta de más trabajos para reclamar, ha asumido el papel del compositor con una nueva inteligencia artificial del laboratorio de investigación Sony CSL. El software FlowMachines escanea 13,000 piezas de partituras de una variedad de estilos, lo que permite a un compositor humano elegir un estilo y hacer que el software genere melodía y armonía. Las grabaciones de audio se combinaron con las melodías, antes de que la canción resultante fuera pulida por los humanos.
La primera canción, "Daddy's Car", es sorprendentemente buena (lo siento músicos). Es un poco pegadizo, definitivamente se hace eco del famoso estilo pop de The Beatles, e incluso logra lanzar un poco de Sargento Pimientos Distorsión al estilo hacia el final. La canción es parte de un álbum producido en su totalidad por A.I., que se lanzará el próximo año.
Una segunda canción, "Mister Shadow", se hace en un estilo de "compositor estadounidense". Éste sigue el estilo de músicos como Cole Porter, George Gershwin y Duke Ellington.
Parece que ni siquiera la industria de la música está a salvo de la automatización, y no es la primera vez que una computadora ha probado la composición. En abril, un joven de 20 años desarrolló una A.I. Creador de música que trabajó con Google Deep Dream para crear piezas de jazz.
Incluso los trabajos complejos que combinan música, actuación y escritura han sido automatizados. Thomas Middleditch y Elisabeth Gray protagonizaron una película en junio escrita en su totalidad por A.I. La película resultante, Sunspring, no era realmente tan bueno para los estándares humanos. El A.I., Benjamin, fue alimentado con guiones de ciencia ficción hasta que pronosticó palabras que podrían caber en el guión, y funcionó de manera similar a la herramienta de palabras predictivas de iOS.
Más recientemente, IBM Watson logró producir un trailer de película en solo 24 horas para la película de suspenso de ciencia ficción. Morgan, sugiriendo clips que un editor humano podría usar para crear un clip de seis minutos convincente. El hecho de que esta combinación de humano y máquina funcionara tan bien sugiere que podría haber un futuro en la creatividad humana, con A.I. trabajando como una herramienta subordinada, pero teniendo en cuenta los avances en las capacidades del software, ¿quién puede decir que eso no cambiará?
Obtenga un 62 por ciento de descuento en los audífonos que hacen obsoletos los AirPods de Apple
Los Air Buds 2.0 son pequeños, elegantes y ni siquiera los notarás en tu bolsillo cuando estén fuera de uso. Su estuche tiene 10 cargos adicionales por lo que nunca ejecutará nuestra batería, y la tecnología Bluetooth 4.2 significa que nunca escuchará una nota caída, incluso en áreas altamente pobladas.
¿Por qué diablos Zayn grabó una canción de amor para la película 'Ghostbusters'?
Solo han pasado cuatro meses desde que el desertor de One Direction, Zayn Malik, lanzó su álbum debut como solista, y ya está de vuelta con la nueva música. En Mind of Mine, Malik se aseguró de que supiéramos que él es un tipo sexualmente activo, refiriéndose a su tempestuosa vida amorosa en una parte saludable de las 18 quemaduras lentas del álbum, R ...
¿Dónde están los músicos de robot? Los científicos de la computación luchan para programar Daft Punk
Los algoritmos pueden calcular nuevas sinfonías e improvisar riffs de jazz. Incluso pueden agregar un rap. ¿Pero puede el arte real ser preprogramado? Los profesores de Dartmouth Michael Casey y Dan Rockmore, fundadores de las Pruebas de Turing en las Artes Creativas, esperan descubrirlo. Han organizado una competencia para determinar si los humanos pueden ...