DevSecOps

2 nov, 2016

Primeira música feita com a ajuda do IBM Watson é lançada

Publicidade

O produtor Alex Da Kid lançou a primeira música em parceria com o Watson. Chamada de “Not Easy”, a canção tem participação de X Ambassadors, Elle King e Wiz Khalifa.

O projeto teve início com o interesse do produtor em entender mais profundamente as emoções humanas e descobrir elementos comuns entre as canções hits. A capacidade do Watson em compreender a linguagem natural e identificar padrões e temas a partir de dados não-estruturados permitiu que o sistema analisasse milhões de conversas nas redes sociais e outras fontes sobre cultura e música, expandindo o conhecimento de Alex sobre a paisagem emocional do nosso mundo de hoje.

Além disso, no último ano, o sistema de computação cognitiva da IBM aprendeu sobre música (temas e teoria), humores e emoções. Em seguida, entendeu como esses aspectos se relacionam uns com os outros para poder indicar para Alex as características predominantes de uma música de sucesso.

[awprm urls=https://imasters.com.br/noticia/ibm-e-cisco-querem-fazer-do-watson-um-colega-de-trabalho-virtual/?trace=824205206&source=news-search,https://imasters.com.br/noticia/supercomputador-watson-da-ibm-quer-executar-um-papel-dentro-das-casas/?trace=824205206&source=news-search]

Segundo divulgado pelo site Startupi, a iniciativa foi viabilizada por duas APIs do Watson, já disponíveis na plataforma IBM Bluemix, e outros dois novos serviços que estão em fase de pesquisa.

Com a API Watson Alchemy Language, que mensura a emoção humana, tendências sociais e estilos da língua, e o Watson Tone Analyze, o Watson foi capaz de ler e entender discursos do Nobel Peace, artigos do New York Times, letras das músicas mais tocadas na Billboard, sinopses de filmes, entre outros materiais. Além disso, o software leu mais de dois milhões de linhas de conteúdo em redes sociais para extrair o sentimento emocional em torno das conversas. Combinando essas duas APIs, foi possível mapear a “temperatura emocional” dos últimos cinco anos.

O Watson BEAT, que interpreta a letra, a estrutura a intenção emocional das canções expandindo a visão do artista para criar uma composição como um todo, também foi usado. Alex conversou por chat com essa tecnologia para examinar e entender as tendências populares musicais. A análise incluiu elementos como ritmo, afinação e instrumentação para identificar a “impressão digital emocional” de cada música com base em tons de nota, gênero e acordes.

Finalmente, foi utilizada a ferramenta Cognitive Color Design, que entende os efeitos psicológicos das cores e a inter-relação entre as emoções e a imagem estética. A ideia foi criar uma visualização interativa sobre a análise cultural e da música com base em cores que inspirariam o produtor. A paleta de cores personalizada de Alex foi criada a partir de livros de arte dos últimos cinco anos, além de centenas de imagens que ele encontrou inspiração.

Conheça a música no vídeo abaixo: