Seminários

2022

  • Diversidade por Design em Sistemas de Recomendação de Música

    Os sistemas de recomendação de Música (Music RS) são, nos dias atuais, fundamentais para moldar a experiência auditiva das pessoas ao redor do mundo. Graças, também, à sua ampla utilização em plataformas de streaming, tem sido possível aprimorar diversas características desses sistemas, em relação à performance, design e experiência do usuário. Entretanto, imaginar Music RS apenas a partir de uma perspectiva de aplicação pode gerar uma visão incompleta de como essa tecnologia está afetando o hábito das pessoas, dos processos de tomada de decisão à formação do gosto e opiniões musicais.

    Palestrante: MsC. Lorenzo Porcaro

    Quando: 29 de março de 2022

    Onde: https://meet.jit.si/CompmusSeminário (apenas em caso de dificuldades técnicas, usaremos como endereço alternativo o https://meet.google.com/vhb-wfxh-pwt)

2021

  • Quantificação de incertezas e modelos estocásticos e seus impactos

    A análise de um sistema dinâmico e sua modelagem depende de vários fatores que podem implicar na sua performance. Estes modelos podem ser definidos como a idealização matemática dos processos físicos que regem sua evolução. Isso requer definições de variáveis básicas como a descrição da geometria do sistema, carregamento, propriedades do material, eventos externos, variáveis de resposta em deslocamento, deformação, tensões, e as relações entre essas várias quantidades. Neste cenário, as perguntas são: Como a incerteza do sistema impacta a sua resposta dinâmica?

    Palestrante: Profa. Dra. Marcela Rodrigues Machado (UnB)

    Quando: 30 de novembro de 2021

    Onde: https://meet.jit.si/CompmusSeminário (apenas em caso de dificuldades técnicas, usaremos como endereço alternativo o https://meet.google.com/vhb-wfxh-pwt)

  • Desajustes e rupturas como processos de criação artística: um convite para práticas colaborativas e experimentais

    Através de uma narrativa pessoal e de exemplos artísticos autorais busco introduzir algumas reflexões sobre questões amplas e complexas envolvendo a criação contemporânea.

    Palestrante: Vitor Kisil (NuSom/USP e FIAP)

    Quando: 19 de outubro de 2021

    Onde: https://meet.jit.si/CompmusSeminário (apenas em caso de dificuldades técnicas, usaremos como endereço alternativo o https://meet.google.com/vhb-wfxh-pwt)

  • Prototipagem virtual de instrumentos musicais: desenvolvimento de plataforma de apoio para fabricação de instrumentos musicais de corda.

    A fabricação de instrumentos musicais envolve diversas demandas de projeto relacionadas tanto à capacidade estrutural do instrumento, quanto a atributos sonoros e estéticos desejados. Embora haja, há pelo menos duas décadas, tecnologias disponíveis para assistir estes projetos, muito do que tem sido feito é reprodução empírica de modelos consolidados: processo que dificulta inovações pois se baseia muitas vezes em métodos de tentativas e erros.

    Palestrante: Dr. Guilherme Paiva, Dr. Rodolfo Thomazelli e Guilherme Fontebasso

    Quando: 5 de outubro de 2021

    Onde: https://meet.jit.si/CompmusSeminário (apenas em caso de dificuldades técnicas, usaremos como endereço alternativo o https://meet.google.com/vhb-wfxh-pwt)

  • From Timbre Perception to the Creative Exploration of Musical Instrument Sound Morphing (MORPH)

    The MORPH project proposes to use sound morphing to investigate timbre in traditional musical instruments. Timbre is a complex multi-dimentional perceptual phenomenon considered to be one of the last frontiers of auditory science. Sound morphing is a transformation that gradually blurs the categorical distinction between sounds by blending their sensory attributes.

    Palestrante: Dr. Marcelo Caetano

    Quando: 21 de setembro de 2021

    Onde: https://meet.jit.si/CompmusSeminário (apenas em caso de dificuldades técnicas, usaremos como endereço alternativo o https://meet.google.com/vhb-wfxh-pwt)

  • Quantifying Disruptive Influence

    Understanding how influences shape musical creation provides rich insight into cultural trends. As such, there have been several efforts to create quantitative complex network methods that support the analysis of influence networks among songs/artists in a music corpus. We contribute to this body of work by examining how disruption happens in different music corpora. That is, we leverage methods devised to study disruption in Science and Technology and apply them to the context of music creation.

    Palestrante: Prof. Dr. Flávio Figueiredo (UFMG)

    Quando: 24 de agosto de 2021

    Onde: https://meet.jit.si/CompmusSeminário (apenas em caso de dificuldades técnicas, usaremos como endereço alternativo o https://meet.google.com/vhb-wfxh-pwt)

  • Simulação e otimização em nuvem de respostas acústicas de salas

    O comportamento acústico em salas pequenas é conhecidamente caracterizado pelos fenômenos modais, que são responsáveis pela criação de respostas espacial e espectralmente heterogêneas nas baixas frequências. Para os casos nos quais almeja-se certa qualidade acústica (resposta homogênea), como salas destinadas ao registro, prática, e apreciação fonográficas, é preferível que tal característica seja contornada. Dentre as soluções conhecidas para o problema, destaca-se pela praticidade, acessibilidade e eficácia, o condicionamento acústico via aplicação de absorvedores de Helmholtz.

    Palestrante: Rodolfo Thomazelli, Guilherme Fontebasso, Lucas Egidio Neves, Victor Oliveira (Turbonius P&D) e Guilherme Paiva (pós-doutorando IME-USP e Turbonius P&D)

    Quando: 13 de julho de 2021

    Onde: https://meet.jit.si/CompmusSeminário

2020

  • Representações Tempo-Frequenciais de Alta Definição para Extração de Informação Musical

    Representações tempo-frequenciais (RTFs) são uma das ferramentas mais valiosas em processamento digital de áudio, sendo utilizadas em diversas aplicações. RTFs podem ser calculadas tendo diferentes resoluções em tempo e em frequência e podem, inclusive, representar determinadas variações em frequência, como no caso do uso da transformada de fan-chirp. A maior deficiência de RTFs é o espalhamento de energia relacionado à não-estacionariedade do sinal na região da janela de análise.

    Palestrante: Dr. Maurício do V. M. da Costa (COPPE/UFRJ)

    Quando: 23 de junho de 2020

    Onde: https://meet.jit.si/CompmusSeminário

  • The physics of the viola caipira

    Live transmission @ https://meet.jit.si/CompmusSeminárioThe viola caipira is a Brazilian guitar widely used in popular music and has been little studied in musical acoustics. Generally, it consists of ten metallic strings arranged in five pairs, tuned in unison or octave. In this seminar, the author presents some results obtained in his thesis research, which focused on the analysis and synthesis of musical sounds produced by the viola caipira.

    Palestrante: Dr. Guilherme Paiva

    Quando: 16 de junho de 2020

    Onde: https://meet.jit.si/CompmusSeminário

2019

  • Análise multi-resolução adaptativa de sinais de áudio

    Representações espectrais de sinais temporais são amplamente utilizadas em diversas áreas da engenharia, matemática e computação. Para isso, é tipicamente utilizada a STFT, que utiliza componentes de frequência igualmente espaçados e com resolução constante. Para contornar a troca entre a resolução no tempo e na frequência sempre presente nesse tipo de transformada, podem ser empregadas transformadas multi-resolução, que utilizam componentes de frequência com resolução e espaçamento variáveis.

    Palestrante: Nicolas Figueiredo

    Quando: 30 de abril de 2019

    Onde: Auditório do CCSL/IME

2018

  • Um algoritmo Bayesiano recursivo para a detecção de pontos de mudança em sinais unidimensionais

    Os problemas de detecção de pontos de mudança em séries de tempo são estudados pelo menos desde a década de 1950, e possuem aplicações em diversas áreas. Neste seminário apresentamos uma breve revisão histórica deste problema e das soluções disponíveis na literatura. Propomos ao final um algoritmo recursivo para segmentação retrospectiva de áudio, baseado na busca por pontos de mudança na potência total do sinal.

    Palestrante: Dr. Paulo Hubert, Lab. de Acústica e Meio Ambiente, EPUSP

    Quando: 30 de outubro de 2018

    Onde: Auditório Antônio Gilioli - Bloco A, IME/USP

  • Controle de Vibrações em Instrumentos Musicais Preparados

    Neste seminário será apresentada uma visão geral a respeito dos instrumentos musicais atuados com sistemas de controle de vibração, visando aumentar as possibilidades acústicas e musicais de um instrumento. Em particular, o foco será em apresentar os desafios da utilização de um sistema de controle com realimentação (feedback) com o objetivo de controlar ressonâncias, parciais e decaimentos de um instrumento acústico em tempo real.

    Palestrante: Paulo Vitor Itaboraí

    Quando: 30 de agosto de 2018

    Onde: Auditório do CCSL - IME/USP

  • Dissonância sensorial: modelos, contexto histórico e aplicações musicais

    Este seminário tem como foco a apresentação de um algoritmo que modela a dissonância sensorial a partir de um filtro de bandas críticas, baseados nas experiências de minimização de dissonância de William Sethares e John Pierce.

    Palestrante: Guilherme Feulo e Micael Antunes

    Quando: 25 de junho de 2018

    Onde: Auditório Antonio Gilioli - Bloco A

  • Balanceando Exploration e Exploitation como Estratégia para Aprimorar Recomendadores de Música

    Sistemas personalizados de recomendação de música operam geralmente recomendando itens para um determinado usuário de acordo com seus dados históricos de escuta. Essa abordagem porém apresenta um caráter guloso a longo prazo pois recomenda itens mais consumidos com maior frequência e deixa de explorar novas possibilidades.

    Palestrante: Rodrigo Borges

    Quando: 18 de junho de 2018

    Onde: Auditório Antônio Gilioli - Bloco A

  • Similaridade entre Áudio e MIDI para Consulta Cantarolada

    Mostraremos técnicas para processamento de gravações cantaroladas com intuito de cálcular níveis de similaridade entre a melodia cantada e arquivos MIDI. Este tipo de processamento é interessante para aplicações de consulta cantarolada, onde um usuário cantarola uma melodia a partir da sua memória e o computador associa melodias encontradas em um repertório de arquivos MIDI, para que o usuário tenha a possibilidade de descobrir mais informações sobre a melodia de sua cabeça.

    Palestrante: Fábio Goródscy

    Quando: 4 de junho de 2018

    Onde: Auditório Antonio Gilioli, IME/USP

  • Uma Breve Introdução a Redes Neurais e Redes Neurais Convolucionais com foco em Computação Musical

    Redes Neurais são modelos de aprendizado de máquina extremamente populares na atualidade. Nesse seminário iremos dar uma pincelada histórica nas origens desse modelo, discutir os problemas que o levaram a ser abandonado por anos, apontar as soluções para então discutir as diversas arquiteturas da atualidade com foco em Redes Neurais Convolucionais.

    Palestrante: Marcos Leal (mleal@ime.usp.br)

    Quando: 24 de maio de 2018

    Onde: Auditório Antonio Gilioli, IME/USP

  • Medindo popularidade musical usando sinais de fontes diversas

    Índices de popularidade são instrumentos tradicionalmente utilizados na indústria da música para a comparação de artistas. Apesar da ampla aceitação, pouco se conhece a respeito da metodologia que embasa tais índices, o que os torna instrumentos por vezes difíceis de compreender e/ou criticar.

    Palestrante: Giuliano Mega e Daniel Cukier (Playax)

    Quando: 21 de maio de 2018

    Onde: Auditório Antonio Gilioli, IME/USP

  • Modelagem física para síntese de áudio: uma visão geral

    Desde 1957, computadores são utilizados para a síntese e processamento de sinais de áudio. Entre as primeiras técnicas empregadas estão a síntese aditiva, síntese AM/FM e síntese subtrativa. Uma alternativa à essas técnicas é a modelagem física de instrumentos, que parte de descrições matemáticas sobre o comportamento de ondas sonoras e corpos físicos (como cordas, tubos e membranas) para a criação de sinais musicais.

    Palestrante: Nicolas Figueiredo

    Quando: 7 de maio de 2018

    Onde: Auditório Gilioli - Bloco A

  • Detecção de voz cantada em sinais de áudio polifônicos

    Seres humanos conseguem identificar facilmente trechos com voz cantada em um áudio com uma mistura de fontes sonoras. No entanto, tentar identificar tais trechos computacionalmente não é uma tarefa trivial. Neste seminário serão apresentados os fundamentos do problema de detecção de voz cantada em sinais de áudio polifônicos, uma breve descrição das técnicas utilizadas para resolvê-lo, e suas aplicações em outras tarefas de recuperação de informação musical (MIR).

    Palestrante: Shayenne da Luz Moura

    Quando: 23 de abril de 2018

    Onde: Auditório Antonio Gilioli - Bloco A

2017

  • Musical Pattern Discovery: Musicological, Cognitive and Computational Perspectives

    The emergence of musical patterns via repetition/similarity is paramount in making sense and understanding music. Yet, despite the efforts made towards its systematic description, musical similarity remains an elusive concept, resisting robust formalisation. Why does the introduction of well-established powerful pattern matching techniques (exact or approximate) in the musical domain, usually ends up with rather limited/partial/fragmentary results? Why is it so difficult to create a general model of musical similarity that may capture musically and cognitively plausible patterns?

    Palestrante: Emilios Cambouropoulos, Aristotle University of Thessaloniki (Greece)

    Quando: 1 de setembro de 2017

    Onde: Jacy Monteiro Auditorium, IME/USP

  • A relação entre os gestos auxiliares e a organização das frases musicais

    Músicos manipulam, conscientemente, diferentes parâmetros acústicos, com o objetivo de expressar suas ideias musicais para os ouvintes e para outros músicos. Eles performam, ainda, movimentos físicos que, embora sejam essenciais para a produção de som no instrumento musical, possuem estreita relação com as intenções artísticas dos performers.O termo ancillary gesture (gestos auxiliar) caracteriza os movimentos que fazem parte da performance, mas que não necessariamente produzem o som. Gestos aparecem ao longo da performance e, consequentemente, assumem a intenção de comunicar.

    Palestrante: Thais Fernandes Rodrigues Santos, UFMG

    Quando: 2 de agosto de 2017

    Onde: Auditório do CCSL/IME

  • Classificação de Gêneros Musicais utilizando Features Globais de Áudio e Classificadores Tradicionais

    Apesar da complexidade de se atribuir gêneros para músicas, a classificação automática de gêneros musicais em grandes bancos de dados possui uma grande importância para tarefas de Recuperação de Informação Musical. Historicamente, diversas técnicas de Aprendizagem de Máquina foram aplicadas utilizando como amostras características extraídas de arquivos de áudio, partituras e, até mesmo, das letras das músicas.

    Palestrante: Roberto Piassi Passos Bodo

    Quando: 28 de março de 2017

    Onde: Auditório do CCSL

2016

  • Efeitos de áudio baseados em decomposição AM/FM

    Neste seminário vamos abordar o projeto de efeitos de áudio baseados em decomposições que levam um sinal proveniente de um instrumento musical para a representação AM/FM. A decomposição AM/FM produz um par de sinais também no domínio do tempo, que representam o envelope (porção AM) e a frequência instantânea (porção FM) do sinal analisado. Estes dois sinais atuam em conjunto e podem recriar o sinal original caso utilizados para modular um oscilador senoidal em amplitude e em frequência.

    Palestrante: Antonio Goulart

    Quando: 13 de dezembro de 2016

    Onde: Sala B-7 IME

  • Um modelo probabilístico simples para taggeamento de música

    Este seminário é uma apresentação do artigo premiado como _Best Student Paper_ do ISMIR em 2009, chamado EASY AS CBA: A SIMPLE PROBABILISTIC MODEL FOR TAGGING MUSIC de Matthew D. Hoffman, David M. Blei, Perry R. Cook.Muitas músicas não são associadas a tags bem representativas e isso faz o processo de recuperação de músicas a partir das tags não ser eficiente.

    Palestrante: Rodrigo Borges e Shayenne Moura

    Quando: 29 de setembro de 2016

    Onde: Auditório Antonio Gilioli, IME/USP

  • Score Analyser: Determinando o nível de dificuldade de uma partitura para o aprendizado on-line de instrumentos automaticamente

    Atualmente existem diversas partituras de musicas disponíveis na internet, muitas vezes diversas partituras da mesma musica. Porém, ao mesmo tempo que temos acesso a este grande acervo de partituras, outro problema surge. Qual partitura é a mais adequada para o musico?

    Palestrante: Guilherme Feulo e Guilherme Jun

    Quando: 27 de setembro de 2016

    Onde: Auditório Antonio Gilioli, IME/USP

  • Acompanhamento musical em tempo real utilizando múltiplas performances como referência

    Neste seminário apresentaremos o trabalho premiado como melhor artigo na International Society for Music Information Retrieval Conference 2015 (ISMIR 2015) de Andreas Arzt e Gerhard Widmer, entitulado Real-time music tracking using multiple performances as a reference.

    Palestrante: Alessandro Palmeira e Itai Soares

    Quando: 22 de setembro de 2016

    Onde: IME/USP

  • Aprendizagem não-supervisionada de características esparsas para classificação escalável de áudio

    Neste seminário apresentaremos o trabalho premiado como melhor artigo de estudante no ISMIR 2011 de Mikael Henaff, Kevin Jarrett, Koray Kavukcuoglu e Yann LeCun, entitulado Unsupervised learning of sparse features for scalable audio classification.

    Palestrante: Marcio Masaki Tomiyoshi e Roberto Piassi Passos Bodo

    Quando: 20 de setembro de 2016

    Onde: Auditório Antonio Gilioli, IME/USP

  • Uma medida de aptidão baseada em segmentos para capturar estruturas repetitivas em gravações musicais

    Detalharemos formas de capturar estruturas repetitivas em uma gravação musical. Este tema está relacionado com a sumarização de áudio (audio thumbnailing) que tem como meta minimizar a duração de músicas mantendo características desejadas pela aplicação.Mostraremos exemplos com matrizes de aptidão para ilustrar o funcionamento de uma técnica que captura estruturas repetitivas com base na precisão e na cobertura de segmentos da música em cima de matrizes de auto-similaridade (self-similarity matrices).

    Palestrante: Fábio Goródscy e Felipe Felix

    Quando: 15 de setembro de 2016

    Onde: Auditório Antonio Giglioli, IME/USP

  • Sobre o Uso de Codificações Esparsas Relativas ao Tempo em Música

    Neste seminário vamos apresentar um trabalho de Pierre-Antoine Manzagol, Thierry Bertin-Mathieux and Douglas Eck, apresentado no ISMIR 2008.

    Palestrante: Arthur Tofani, Thilo Koch

    Quando: 13 de setembro de 2016

    Onde: Auditório Antonio Giglioli, IME/USP

  • Controladores gestuais: sempre cabe mais um

    Os últimos anos foram marcados pela variabilidade de novos dispositivos para medição gestual, dos quais vários foram utilizados como controladores musicais. Apesar da grande variedade de dispositivos, entidades acadêmicas e industriais mantêm o esforço de pesquisar e desenvolver novos dispositivos. Por quê? Nessa conversa, gostaria de levantar questionamentos do porquê não estamos satisfeitos com os dispositivos existentes: Natural inquietação humana? Consumismo e mercado? Evolução tecnológica, permitindo a criação de dispositivos mais eficientes? Busca de novas formas de expressão?

    Palestrante: Dra. Carolina Brum Medeiros (Fliprl CEO, IDMIL/McGill, Google ATAP)

    Quando: 6 de setembro de 2016

    Onde: Sala 132-A, IME/USP

  • Correlatos verbais da percepção de timbre: uma pesquisa sobre sonoridades orquestrais

    Neste seminário vamos apresentar um panorama de trabalhos que relacionam a percepção sonora com os correlatos verbais para descrever timbres instrumentais.

    Palestrante: Ivan Eiji Simurra

    Quando: 1 de junho de 2016

    Onde: Auditório do CCSL, IME/USP

  • Como medir a qualidade de áudio?

    No nosso dia a dia estamos expostos a muitos tipos de sons - ruído do transito, multidões, pessoas falando, música etc. Consequentemente, a importância de qualidade de áudio e sua percepção é crescente. Apesar de existirem entendimentos subjetivos e individuais do que venha a ser qualidade de áudio, a pesquisa científica quantitativa referente a qualidade de áudio corresponde a uma área relativamente nova.

    Palestrante: Thilo Koch

    Quando: 18 de maio de 2016

    Onde: Auditório do CCSL, IME/USP

  • Sistemas de Recomendação Musical

    Sistemas de Recomendação Musical (SRM) são ferramentas que recomendam músicas, artistas, discos ou gêneros para um usuário específico de acordo com o seu interesse pessoal. São sistemas que operam sobre uma grande quantidade de itens, e que, dependendo da natureza da informação fornecida na sua entrada, aplicam: Filtragem Colaborativa, Recomendação Baseada em Contexto ou Recomendação Baseada em Conteúdo.

    Palestrante: Rodrigo Borges

    Quando: 4 de maio de 2016

    Onde: Auditório do CCSL, IME/USP

  • Conhecendo Web Audio API

    Neste seminário realizaremos um tutorial sobre Web Audio API.Serão apresentados e demonstrados alguns exemplos simples para conhecer a estrutura e o funcionamento do Web Audio API. Os exemplos se encontram em: https://github.com/fabiogoro/webaudioAo longo do seminário será demonstrado:

    Palestrante: Fábio Goródscy

    Quando: 6 de abril de 2016

    Onde: Auditório do CCSL

  • Estimativa de frequência fundamental de sinais de áudio utilizando Phase-Lock Loops

    Neste seminário vamos apresentar o princípio de funcionamento dos sistemas de Phase-Lock Loop (PLL), muito utilizados para demodulação de sinais transmitidos por frequência modulada. Serão apresentados os conceitos básicos da ideia original dos sistemas PLL e adaptações propostas recentemente para a aplicação em sinais musicais, tais como filtros para a retroalimentação e a utilização de um sinal paralelo como indicativo da sincronização. A eficiência do sistema será ilustrada com sinais de áudio e exemplos de efeitos baseados na informação de frequência fundamental serão expostos.

    Palestrante: Antonio José Homsi Goulart

    Quando: 30 de março de 2016

    Onde: Auditório do CCSL

  • Um Tutorial em processamento de sinais de EEG

    Este seminário é baseado no artigo do Fabien Lotte, "A Tutorial on EEG Signal-processing: techniques for mental-state recognition in Brain-computer Interfaces", presente no livro "Guide to Brain-computer Music Interfacing" editado por Eduardo R. Miranda e Julien Castet.Serão apresentadas as etapas principais no desenvolvimento de Interfaces cérebro-computador através de Eletroencefalografia com descrição das Principais técnicas de Extração de Características e de Classificação das características extraídas.

    Palestrante: Guilherme Feulo do Espirito Santo

    Quando: 16 de março de 2016

    Onde: Auditório do CCSL

  • Experiências colaborativas entre Computação Musical e outras áreas

    Neste seminário serão apresentados diversos trabalhos relacionados com Computação Musical que foram realizados em colaboração com profissionais de áreas como Música, Engenharia, Física e Medicina. A discussão principal será voltada para como a área de Computação Musical teve como contribuir com as pesquisas realizadas e de que forma os profissionais interagiram diante de problemas como diferenças de linguagem, métodos, e abordagens científicas dos problemas a serem resolvidos.

    Palestrante: Antonio Deusany de Carvalho Junior, doutorando no IME/USP

    Quando: 9 de março de 2016

    Onde: Auditório do CCSL, IME/USP

  • Ruído e Timbre: Escuta Cotidiana, Sons Sintetizados e Noise Music

    Ruído é termo polissêmico e como elemento sonoro reveste-se de complexidade. Seu significado é subjetivo e sua percepção varia no sentido histórico, social e cultural. Retrospectivamente ruído está associado à negação, como não-informação, não-música, incômodo, desconforto. Timbre, por sua vez, não é definido precisamente senão como o complemento do que é descrito de forma objetiva, sendo geralmente referido como o que caracteriza um som exceto pelas suas características de intensidade, frequência e duração.

    Palestrante: Rodrigo Borges

    Quando: 2 de março de 2016

    Onde: Auditório do CCSL, IME/USP

2015

  • A utilização de descritores de áudio para a composição musical e orquestração

    Dentro da linha de pesquisa de Processos Criativos voltados à composição musical e, em especial, à orquestração assistida por computador, o trabalho descreve uma investigação sobre o processo de combinação instrumental utilizando-se um ambiente computacional projetado com descritores de áudio em PureData (PD) e utilizando a biblioteca de funções PDescriptors para analisar as características sonoras de um banco de dados de arquivos de áudio com diversos instrumentos musicais e técnicas expandidas.

    Palestrante: Ivan Simurra

    Quando: 2 de dezembro de 2015

    Onde: Auditório do CCSL, IME/USP

  • Processamento de áudio com custos computacionais flexíveis

    Programas de processamento de áudio são comuns há décadas, e correspondem a aplicações que possuem muitas formas e rodam em plataformas computacionais diversas. Todavia, todas as plataformas têm em comum o fato de possuírem um limite de capacidade computacional, o que se torna crítico especialmente em sistemas de tempo real em situação de sobrecarga, acarretando resultados insatisfatórios como interrupções intermitentes, artefatos sonoros ou mesmo a parada completa da execução do sistema. Neste seminário vamos apresentar o projeto de pesquisa de doutorado em andamento.

    Palestrante: Thilo Koch

    Quando: 18 de novembro de 2015

    Onde: Auditório do CCSL, IME/USP

  • Sistema para Mídia Interativa e Imersão Digital Utilizando Descritores de Áudio e Heurística de Algoritmos Genéticos

    No contexto do estudo e desenvolvimento de sistemas computacionais para composição e performance interativa de conteúdo multimodal, a palestra apresenta a pesquisa em andamento com objetivo de implementar infraestrutura computacional para um Laboratório de Mídia Interativa e Imersão Digital no NICS/Unicamp. O sistema em desenvolvimento no Center of Autonomous Systems and Neurorobotics (NRAS) da Universitat Pompeu Fabra (Barcelona, Espanha) gera, controla e compartilha via Internet um processo para criação multimodal.

    Palestrante: Prof. Dr. Jônatas Manzolli (NICS/UNICAMP)

    Quando: 11 de novembro de 2015

    Onde: Auditório do CCSL, IME/USP

  • Middleware ODA e sua aplicação na produção de Jogos Digitais

    ODA (Open Dynamic Audio) é um middleware que tem por objetivo facilitar a interação entre compositores, sound designers e programadores na produção de jogos digitais com trilha sonora dinâmica. Estruturalmente, o ODA possui duas componentes fornecidas aos usuários do sistema: um motor de áudio, que serve para reproduzir a música do jogo por meio de uma API oferecida aos programadores; e uma interface com o PureData (PD), para composição e sincronização do áudio pelos sound designers.

    Palestrante: Lucas Dário

    Quando: 4 de novembro de 2015

    Onde: Auditório do CCSL, IME/USP

  • The oscillator waveform animation effect

    An enhancing effect that can be applied to analogue oscillators in subtractive synthesizers is termed Animation, which is an efficient way to create a sound of many closely detuned oscillators playing in unison. This is often referred to as a supersaw oscillator. In this seminar we will explain the operating principle of this effect in the digital domain using a combination of additive and frequency modulation synthesis. The Fourier series will be derived and results will be presented to demonstrate its accuracy.

    Palestrante: Joseph Timoney, National University of Ireland - Maynooth

    Quando: 21 de outubro de 2015

    Onde: CCSL Auditorium, IME/USP

  • DIY EEG: projetos de Interfaces Cérebro-Computador "Faça você mesmo"

    Com o avanço da tecnologia, a busca por novas maneiras de intetagir com aparelhos eletrônicos, sejam estes computadores, videogames oucelulares, tem gerado novas interfaces com uma gama de aplicações cada vez maior, e custos cada vez mais baixos. Neste seminário abordaremos o uso e o projeto de interfaces cerebrais através de Eletroencefalografia (EEG) do tipo "Faça você mesmo", seu projeto básico, e suas variações disponivéis na internet.

    Palestrante: Guilherme Feulo

    Quando: 14 de outubro de 2015

    Onde: Auditório do CCSL, IME/USP

  • Técnicas computacionais para o problema de acompanhamento musical automatizado

    Neste seminário iremos apresentar os algoritmos e os resultados obtidos até o momento de algumas técnicas relativas aos problemas centrais do acompanhamento musical automatizado: rastreamento de partitura e geração do acompanhamento. Além disso, iremos apresentar o MetaRastreador: elemento criado para combinar todas as técnicas de rastreamento implementadas, rodando-as em paralelo e obtendo uma maior confiabilidade nas informações extraídas da performance.

    Palestrante: Roberto Piassi Passos Bodo

    Quando: 23 de setembro de 2015

    Onde: Auditório do CCLS, IME/USP

  • Performance musical com participação da platéia utilizando Cloud Services

    A participação da audiência em performances musicais é normalmente afetada por restrições tecnológicas do ambiente ou da forma como a interação é projetada. Disponibilizar dispositivos interativos para uma grande audiência pode resultar em alto custo, e restringir a participação por meio de tecnologias específicas também pode desestimular grande parte do público.

    Palestrante: Antonio Deusany de Carvalho Junior

    Quando: 16 de setembro de 2015

    Onde: Auditório do CCSL, IME/USP

  • Colaboração e comunicação em rede no Live Coding

    Live Coding é uma performance musical altamente interativa na qual um ou mais músicos escrevem código ao vivo para gerar música. Na prática do Live Coding existem vários problemas: (1) a necessidade de comunicação, (2) tecnologias para permitir colaboração em rede envolvendo os live coders, audiência e músicos. Neste seminário serão apresentados uma série de projetos que não apenas facilitam a comunicação e colaboração em rede no domínio do Live Coding mas também provê uma variedade de performances musicas distribuídas inovadores que estendem os limites do Live Coding.

    Palestrante: Sang Won Lee, University of Michigan/USA

    Quando: 2 de setembro de 2015

    Onde: Auditório do CCSL, IME/USP

  • Técnicas de síntese e efeitos de áudio baseadas em decomposição AM/FM

    Neste seminário vamos apresentar diversas técnicas de processamento dos sinais originados a partir de uma decomposição AM/FM de um sinal musical. Serão discutidas diferentes métodos para a decomposição e possibilidades de operação no domínio AM/FM.

    Palestrante: Antonio José Homsi Goulart

    Quando: 26 de agosto de 2015

    Onde: Auditório do CCSL, IME/USP

  • SuperCopair: uma ferramenta para live coding colaborativo e cooperativo

    Neste seminário será apresentado o SuperCopair, uma nova maneira de integrar computação em nuvem em um cenário de "live coding" colaborativo com o menor esforço. Este pacote desenvolvido em Coffee Script para o Atom.io apresenta-se como uma forma de interagir com o SuperCollider oferecendo novas possibilidades para "live coders" que desejam colaborar remotamente em performances distribuídas. Adicionalmente o pacote provê vantagens de comunicação através dos serviços em nuvem oferecidos pelo Pusher.

    Palestrante: Antonio Deusany de Carvalho Junior

    Quando: 19 de agosto de 2015

    Onde: Auditório do CCSL, IME/USP

  • Open Dynamic Audio: Um middleware para áudio dinâmico em jogos digitais

    Na busca por uma experiência mais engajadora em jogos digitais, uma estratégia reconhecidamente eficaz é a de permitir que sua trilha sonora reflita, em tempo real, os fenômenos ocorrendo dentro do universo virtual, pois isso fornece um método de interação com o usuário complementar à já bastante explorada expressão pela imagem. Contudo, dada a não-linearidade intrínseca a esse meio audiovisual, vários desafios de ordem artística, prática e tecnológica emergem dessa abordagem mais dinâmica. No presente

    Palestrante: Wilson Kazuo Mizutani

    Quando: 12 de agosto de 2015

    Onde: Auditório do CCSL, IME/USP

  • Mapeamento de Sensores Android para OSC

    Neste seminário iremos apresentar a aplicação Sensors2OSC, que envia pela rede os eventos de todos os sensores disponíveis em dispositivos com Android na forma de eventos OSC (Open-Sound-Control), tornando possível a utilização destes valores como dados de entrada em qualquer outra aplicação (musical ou não).

    Palestrante: Antonio Deusany de Carvalho Junior

    Quando: 29 de junho de 2015

    Onde: Auditório do CCSL, IME/USP

  • A Influência do Conteúdo Espectral na percepção de acordes Consonantes e Dissonantes e seu reflexo na Atividade Cerebral

    Nesse seminário apresentaremos o artigo "A Influência do Conteúdo Espectral na percepção de acordes Consonantes e Dissonantes e seu reflexo na Atividade Cerebral" feito em parceria com Antonio Goulart e Micael Antunes, que aborda as bases da Análise de Consonância musical e sua relação com o conteúdo espectral dos acordes presentes no sistema Tonal e, baseado nisso, propõe um experimento que explora através de Eletroencefalografia a relação entre a natureza harmônica dos instrumentos musicais e a resposta cerebral a estímulos auditivos.

    Palestrante: Guilherme Feulo do Espírito Santo

    Quando: 1 de junho de 2015

    Onde: 144-B

  • Processamento de áudio com custos computacionais adaptáveis

    Em sistemas de processamento de áudio ao vivo podem acontecer - e acontecem - situações de sobrecarga. Essas resultam em eventos sonoros indesejáveis: graves distorções, cliques e interrupções. Por razões práticas não é sempre viável resolver esses problemas simplesmente com mais potência computacional. As ideias que serão apresentadas neste seminário vão para uma outra direção: a da flexibilização dos custos computacionais dos elementos de processamento, visando o controle dinâmico dos mesmos para evitar as situações de sobrecarga.

    Palestrante: Thilo Koch

    Quando: 4 de maio de 2015

    Onde: 144-B

  • Interação musical via Cloud Services

    Já faz um bom tempo que a Cloud Computing tem despertado o interesse de várias áreas da computação. Uma das vantagens trazidas por esta tecnologia é a quantidade de serviços disponibilizados a partir dos recursos de processamento e distribuição de dados oferecidos. Estes serviços são em grande parte chamados de Cloud Services e trazem muitas vantagens para usuários que desejam usufruir do potencial e da estrutura da Cloud Computing, mas não pretendem gastar muito tempo criando e configurando máquinas virtuais para realizar suas tarefas.

    Palestrante: Antonio Deusany de Carvalho Junior, doutorando do IME/USP em estágio sanduíche na University of Michigan/USA

    Quando: 6 de abril de 2015

    Onde: Auditório do CCSL-IME

  • Síntese de áudio com filtros periodicamente variantes

    Neste seminário vamos apresentar uma revisão detalhada sobre duas técnicas recentes para síntese de áudio: modulação de coeficientes de filtros passa-tudo, e modulação de amplitude por retroalimentação. Ambas técnicas podem ser estudadas sob a ótica dos sistemas lineares variantes, sendo que foi mostrado que tais sistemas distorcem a fase do oscilador de entrada criando uma espécie de versão dinâmica da técnica clássica de distorção de fase implementada na série Casio-CZ de teclados na década de 80.

    Palestrante: Antonio Goulart

    Quando: 23 de março de 2015

    Onde: Auditório do CCSL-IME

2014

  • Talk about Audio Synthesis

    The description will soon be informed.

    Palestrante: Antonio Goulart

    Quando: 8 de dezembro de 2014

    Onde: CCSL Auditorium, IME/USP

  • Alguns resultados sobre Música Móvel e em Rede

    Neste seminário será apresentado um breve histórico relacionado à Música Móvel e Música em Rede desde a década de 70, levando em consideração as tecnologias disponíveis de cada época e o que era possível ser feito. As tecnologias utilizadas nesta área nos últimos anos serão apresentadas com maiores detalhes com o intuito de mostrar o que pode e o que ainda não pode ser feito. Dentre elas podemos citar o uso de rede Gigabit, Push Notifications (através de Cloud Computing), e os padrões de rede 802.11n e 802.11ac que estão sendo utilizados pelos dispositivos móveis mais atuais.

    Palestrante: Antonio Deusany de Carvalho Junior

    Quando: 1 de dezembro de 2014

    Onde: Auditório do CCSL, IME/USP

  • Trilhas sonoras adaptativas em jogos digitais

    É bastante comum que em jogos digitais a trilha sonora se resuma a uma música de fundo por cena. Poucas pesquisas foram feitas até hoje no sentido de tornar isso algo que se adapte em tempo real à experiência do jogador, principalmente se comparado ao quanto já se investiu nas capacidades gráficas dos jogos. Esse seminário tem como objetivo apresentar alguns métodos e critérios para mudar a execução de uma música em tempo real de maneira a melhor expressar a sensação que um jogo quer passar.

    Palestrante: Wilson Kazuo Mizutani

    Quando: 24 de novembro de 2014

    Onde: Auditório do CCSL, IME/USP

  • Simulação de som em salas

    Simulações têm um papel importante na área de acústica. As principais aplicações encontram-se no planejamento de ambientes, na pesquisa sobre materiais e aparelhos/construções e também em sistemas de realidade virtual. Neste seminário veremos uma pequena introdução aos métodos de simulação de acústica de ambientes. Serão apresentados os métodos mais usados: ray tracing e image source modelling tal como métodos híbridos.

    Palestrante: Thilo Koch

    Quando: 10 de novembro de 2014

    Onde: Auditório do CCSL, IME-USP

  • MIDI como protocolo de comunicação e formato digital de partitura

    Neste seminário será feita uma introdução ao MIDI como protocolo de comunicação entre instrumentos/aplicações e como formato de arquivo para representação digital de partituras.Serão apresentados os principais eventos de controle, o protocolo de codificação dos mesmos, detalhes sobre números de notas MIDI, bancos de sons e suporte a símbolos musicais, entre outros tópicos.Além disso, serão exibidas duas das APIs de áudio mais utilizadas no Linux e algumas ferramentas livres que utilizam MIDI (como, por exemplo, sintetizadores e editores de partitura).

    Palestrante: Roberto Piassi Passos Bodo

    Quando: 3 de novembro de 2014

    Onde: Auditório do CCSL

  • Modelagem de um sistema para auralização musical utilizando Wave Field Synthesis

    Buscando-se a aplicação prática da teoria de Wave Field Synthesis (WFS) na música, foi feita uma pesquisa visando à modelagem de um sistema de sonorização capaz de criar imagens sonoras espaciais com a utilização desta técnica. Diferentemente da maioria das outras técnicas de sonorização, que trabalham com uma região de escuta pequena e localizada, WFS permite projetar os sons de cada fonte sonora - como instrumentos musicais e vozes - em diferentes pontos do espaço de audição, em uma região de escuta que pode abranger quase toda a área compreendida por

    Palestrante: Marcio José da Silva

    Quando: 20 de outubro de 2014

    Onde: Auditório do CCSL, IME/USP

  • Interfaces Cérebro-Computador Musicais

    O avanço tecnológico dos últimos anos tem proporcionado o desenvolvimento mais amplo e barato de sensores e aparelhos para exames que antes, devido ao custo, eram utilizados somente para fins médicos. Dentre estes aparelhos o eletroencefalograma tem atraído a atenção de pesquisadores de interfaces pela sua versatilidades e portabilidade, fazendo assim com que o desenvolvimento de interfaces que se utilizem de tal técnica se diversifique e tenha muitas áreas de aplicação.

    Palestrante: Guilherme Feulo

    Quando: 29 de setembro de 2014

    Onde: Auditório do CCSL

  • Técnicas recentes (pós-2006) de distorção para síntese de sinais musicais

    Neste seminário vamos abordar técnicas recentemente propostas de distorção de senóides para síntese de sinais musicais, baseadas em extensões ou variações das técnicas clássicas (já apresentadas em outro seminário). No âmbito das modulações serão exploradas as técnicas de ModFM (FM Modificada), SpSB (Split Side band), e FBAM (Modulação de amplitude com retroalimentação).

    Palestrante: Antonio Goulart

    Quando: 1 de setembro de 2014

    Onde: Auditório do CCSL - IME/USP

  • Utilizando sensores de dispositivos móveis em Pure Data

    A linguagem Pure Data (PD) é muito utilizada para criação de aplicações musicais, mas foi a partir do surgimento da libpd que tornou-se mais fácil integrar esta linguagem em aplicações para dispositivos móveis. Após várias experiências com isto, foi desenvolvida a Sensors2PD (codinome S2PD), uma aplicação para facilitar o uso dos sensores dos dispositivos móveis como entrada para arquivos desta linguagem em aparelhos com Android.

    Palestrante: Antonio Deusany de Carvalho Junior, doutorando no IME/USP

    Quando: 25 de agosto de 2014

    Onde: Auditório do CCSL, IME/USP

  • Uma Introdução ao Processamento Binaural - A Escuta Binaural

    Como funciona a escuta binaural? Quais vantagens ela traz sobre uma escuta monoaural? Quais deixas/pistas (cues) permitem a localização de fontes sonoras no espaço tridimensional?O seminário tentará apresentar algumas respostas a essas questões usando modelos e exemplos que a pesquisa (psico-)acústica atual oferece. Além disso serão introduzidos modelos binaurais do sistema auditivo humano e áreas de aplicação destes modelos.Palavras-chave: escuta binaural, localização de fontes sonoras, modelagem binaural

    Palestrante: Thilo Koch, doutorando do IME/USP

    Quando: 18 de agosto de 2014

    Onde: Auditório do CCSL, IME/USP

  • Composição Interativa e Modelos derivados da Neurociência Computacional

    Esta palestra explora a convergência entre conceitos desenvolvidos no entorno da música atual e formulações que surgiram na nossa pesquisa a partir de modelos da neurociência computacional. Apontamos inicialmente que a composição musical evoluiu do uso da notação simbólica para escrita da organização interna do som. Isto pode ser observado nas técnicas instrumentais expandidas e nas estratégias mais recentes que se utilizam de novas interfaces para expressão musical.

    Palestrante: Jônatas Manzolli, coordenador do NICS/UNICAMP e professor titular do IA/UNICAMP

    Quando: 7 de agosto de 2014

    Onde: Auditório do CCSL, IME/USP

  • Oficina para desenvolvimento de externals para PureData

    Este seminário será uma oficina prática para o desenvolvimento de externos para Pure data. Nela serão apresentados os procedimentos para o desenvolvimento de um externo em C partindo de exemplos disponíveis no site de materiais de apoio. Será coberto neste seminário a estrutura básica de um externo, a utilização de parâmetros, criação de inlets "quentes" e "frios", outlets e o processamento de áudio. É necessário que os presentes tenham instalado em seus computadores as ferramentas gcc e make e também o Pure Data.

    Palestrante: Flávio Schiavoni

    Quando: 10 de junho de 2014

    Onde: Auditório do CCSL - IME/USP

  • Técnicas clássicas de distorção para síntese de áudio

    Desde que pela primeira vez sons foram criados com um computador, em 1957, este passou a ser encarado também como um instrumento musical. A partir de então compositores, cientistas e engenheiros buscam desenvolver novas técnicas para gerar sinais digitais com características musicais interessantes.

    Palestrante: Antonio Goulart

    Quando: 3 de junho de 2014

    Onde: Auditório do CCSL - IME/USP

  • Oficina de desenvolvimento de plugins para a pedaleira MOD

    Esta será uma oficina sobre criação e publicação de plugins de efeitos de áudio para a pedaleira programável MOD (http://portalmod.com/). Vamos apresentar nosso SDK para o desenvolvimento dos plugins, juntamente com alguns exemplos de efeitos e rotinas de processamento digital de áudio. Apresentaremos também nossa cloud para a publicação dos plugins e a GUI para carregar a pedaleira com os efeitos.Tragam seus computadores com python e a SDK do MOD instalada: sudo pip install modsdk

    Palestrante: Gianfranco Ceccolini, André Coutinho e Luís Henrique Fagundes

    Quando: 27 de maio de 2014

    Onde: Auditório do CCSL - IME/USP

  • Uso de Wavelets na análise de Potenciais Evocados em Eletroencefalogramas

    Potenciais Evocados (Event-Related Potentials) são frequentemente utilizados em Neurociência Cognitiva para estudar as correlações fisiológicas entre atividades sensoriais, perceptuais e cognitivas no processamento de informações neuronais associadas a eventos ou estímulos externos. Devido à importância deste método, muitas técnicas de análise de dados adquiridos através de Eletroencefalogramas foram desenvolvidas nos últimos anos para lidar com potenciais evocados.

    Palestrante: Guilherme Feulo do Espírito Santo

    Quando: 13 de maio de 2014

    Onde: Auditório do CCSL - IME/USP

  • Obtendo estatísticas normalizadas para características de croma

    Este seminário apresentará o passo a passo de um processo de extração de características de croma a partir de um arquivo de áudio de forma a se obter uma representação eficiente em termos de uso de recursos computacionais. Esta representação será então refinada para lidar com ruídos e pequenas variações de croma.

    Palestrante: Álvaro Stivi

    Quando: 29 de abril de 2014

    Onde: Auditório do CCSL - IME/USP

  • Live coding como ferramenta para DJing

    Neste seminário será apresentada uma sugestão de como fazer uma performance de DJ acrescida de técnicas de live coding, criando em tempo real sons a serem mixados com as gravações comerciais ou também utilizados em momentos de puro live coding. Dessa maneira as possibilidades oferecidas pelo live coding são colocadas ao lado das técnicas clássicas de DJing, promovendo assim a sonoridade do live coding mas mantendo a ambiência já conhecida da Electronic Dance Music (EDM).

    Palestrante: Antonio Goulart

    Quando: 22 de abril de 2014

    Onde: Auditório do CCSL - IME/USP

  • Usando Pure Data para criar Sistemas Musicais Multiagentes no Arcabouço Ensemble

    O Arcabouço Ensemble fornece um conjunto extenso de ferramentas para a criação e configuração de Sistemas Multiagentes Musicais. O objetivo deste seminário é apresentar uma interface do Ensemble com o Pure Data, uma linguagem de programação visual utilizada em aplicações musicais.Esse interfaceamento, feito através da API do Pure Data, permite a criação e configuração de aplicações do Ensemble através de patches Pure Data, combinando as ferramentas fornecidas pelo Ensemble às funcionalidades e usabilidade do ambiente Pure Data.

    Palestrante: Pedro Bruel

    Quando: 8 de abril de 2014

    Onde: Auditório do CCSL - IME/USP

  • Técnicas computacionais para síntese de acompanhamento musical expressivo

    Neste seminário o palestrante irá apresentar seu projeto de mestrado que aborda o problema de acompanhamento musical automatizado. Em tal problema o computador compara os eventos de uma performance ao vivo com os de uma partitura e, inferindo o andamento do músico, gera o acompanhamento apropriado em tempo real. Um sistema de acompanhamento musical pode ser implementado com quatro módulos separados: o preprocessador da entrada, o casador, o acompanhador e o sintetizador.

    Palestrante: Roberto Piassi Passos Bodo

    Quando: 1 de abril de 2014

    Onde: Auditório do CCSL, IME/USP

  • Segmentando pra poder fundir: fusão de sensores para análise de movimento

    Alguns dizem: “Se o problema é fácil, solucione-o diretamente. Senão, decomponha-o em partes menores.” Em ciência da computação, isto se chama Dividir e Conquistar (D&C). Mas quais tipos de problema podem ser resolvidos dividindo para conquistar? Em pesquisa, comunicação, colaboração… na vida? Carolina Brum Medeiros, estudante de doutorado no laboratório IDMIL/McGill University, rabisca possíveis formas de Dividir e Conquista em análise de movimento humano, e por que não, em pesquisa.

    Palestrante: Carolina Brum Medeiros, doutoranda do IDMIL/McGill

    Quando: 25 de março de 2014

    Onde: Auditório do CCSL - IME/USP

  • Impedância e seus efeitos

    A impedância é uma grandeza referente ao impedimento ou oposição que um sistema apresenta. A impedância elétrica pode ser representada como uma grandeza complexa em função da resistência (parte real) e reatância (parte imaginária). A impedância acústica por sua vez é dependente da frequência e pode ser calculada em função da pressão, velocidade das partículas e superfície da área, sendo possível verificar a impedância de um meio ou de um componente do acústico.

    Palestrante: Antonio Deusany de Carvalho Junior

    Quando: 18 de março de 2014

    Onde: Auditório do CCSL - IME/USP

  • Introdução ao Gstreamer

    Escrever aplicações multimídias "from scratch" é muito difícil. Muitos aspectos devem ser considerados: tipos de entrada e saída, formatos dos dados, conversão, tempo real, sincronização, (de)multiplexing, controle etc. Existem vários frameworks / bibliotecas para facilitar essa tarefa. No seminário, um dos frameworks importantes - o Gstreamer - será apresentado.

    Palestrante: Thilo Koch

    Quando: 11 de março de 2014

    Onde: Auditório do CCSL - IME/USP

2013

  • Medusa: Um ambiente musical distribuído

    A popularização das redes de computadores, o aumento da capacidade computacional e sua utilização para produção musical despertam o interesse na utilização de computadores para comunicação síncrona de conteúdo musical. Esta comunicação pode permitir um novo nível de interatividade entre máquinas e pessoas nos processos de produção musical, incluindo a distribuição de atividades, pessoas e recursos em um ambiente computacional em rede. Neste contexto, este trabalho apresenta uma solução para comunicação síncrona de fluxos de áudio e MIDI em redes de computadores.

    Palestrante: Flávio Luiz Schiavoni

    Quando: 26 de novembro de 2013

    Onde: Sala B-3 do IME/USP

  • Interfaces cérebro-computador atráves de Eletroencefalograma

    Controlar sistemas computacionais apenas com a mente é um desejo antigo entre desenvolvedores de interfaces computacionais. Neste seminário será apresentado o processo de aquisição de sinais cerebrais através de eletroencefalograma, aplicado à construção de interfaces cérebro-computador. Apresentaremos o funcionamento de tais interfaces, suas limitações e os diferentes métodos de aquisição utilizados nesse tipo de aplicação, tentando assim motivar o uso de eletroencefalogramas como mecanismo de controle em interfaces com computadores.

    Palestrante: Guilherme Feulo

    Quando: 19 de novembro de 2013

    Onde: Sala B-3 do IME/USP

  • Técnicas de aprimoramento de um sistema de acompanhamento musical

    Neste seminário iremos apresentar diversas técnicas para aprimorar um sistema de acompanhamento musical seguindo a linha de pesquisa de Roger B. Dannenberg, professor da Universidade Carnegie Mellon.Um sistema de acompanhamento musical, basicamente, compara os eventos de uma performance ao vivo com os de uma partitura e, inferindo o andamento do músico, toca o acompanhamento apropriado.

    Palestrante: Roberto Piassi Passos Bodo

    Quando: 12 de novembro de 2013

    Onde: Sala B-3 do IME/USP

  • Introdução ao Csound

    Nesse seminário será apresentado o Csound, que é uma linguagem de computação musical e uma plataforma para síntese e processamento de áudio. Csound tem uma longa tradição, tendo sido definida em 1986 a partir da série de linguagens Music-N, mas segue sendo usado por muitos artistas e pesquisadores até hoje.

    Palestrante: Thilo Koch

    Quando: 5 de novembro de 2013

    Onde: Sala B-3 do IME/USP

  • SuperCollider básico + Live Coding ácido = Jam salgada

    Neste seminário serão introduzidos elementos básicos de SuperCollider, que é uma linguagem puramente orientada a objetos e dinâmica, baseada em Smalltalk, mas específica para composição algorítmica, síntese e processamento de áudio.Também serão abordadas algumas questões sobre live coding (performance musical que consiste em escrever programas ao vivo), composição algorítmica (geração de material musical a partir de processos computacionais) e orquestras de laptop.

    Palestrante: Antonio Goulart

    Quando: 29 de outubro de 2013

    Onde: Sala B-3 do IME/USP

  • Encapsulando patches Pure Data com a libpd

    Pure Data é uma linguagem de programação visual voltada ao processamento digital de sinais e à criação de trabalhos multimídia interativos. A construção de programas em Pure Data, chamados de patches, se dá de forma rápida e interativa, mas fica restrita ao ambiente do Pd.O objetivo deste seminário é expor a libpd, uma ferramenta que encapsula o Pure Data e permite que patches sejam utilizados como bibliotecas DSP e interfaces de controle para aplicações baseadas em diferentes linguagens de programação.Código utilizado na apresentação:

    Palestrante: Pedro Henrique Rocha Bruel

    Quando: 22 de outubro de 2013

    Onde: Sala B-3 do IME/USP

  • Processamento de áudio em tempo real em dispositivos de baixo custo

    Este trabalho de mestrado explorou diferentes possibilidades de processamento de áudio em tempo real utilizando dispositivos com alta disponibilidade e baixo custo.Arduino é uma estrutura minimal para interação com microcontroladores da família ATmega e é geralmente utilizados como interface de controle de outros dispositivos elétricos ou eletrônicos. Por possuir pinos com capacidade ADC e DAC, pode ser utilizado para capturar, processar e emitir sinais analógicos.

    Palestrante: André J. Bianchi

    Quando: 15 de outubro de 2013

    Onde: Sala B-3 do IME/USP

  • Tecnologias e ferramentas para áudio espacial

    Neste seminário apresentaremos as principais referências na engenharia de sistemas para áudio espacial. Abordaremos as arquiteturas existentes, projetos de desenvolvimento de tecnologias para auralização e áudio multicanal, com uma visão de nossas pesquisas em auralização na USP. Mostraremos também os sistemas comerciais mais populares e aplicações interessantes, finalizando com uma discussão sobre que próximos passos há neste cenário.

    Palestrante: Regis Rossi Alves Faria (Depto. de Música, FFCLRP/USP)

    Quando: 10 de outubro de 2013

    Onde: Sala B-3 do IME/USP

  • Csound para Android

    Neste seminário será apresentado como é possível utilizar Csound em dispositivos com Android.

    Palestrante: Antonio Deusany de Carvalho Junior, doutorando IME/USP

    Quando: 1 de outubro de 2013

    Onde: Sala B-3 do IME/USP

  • Algoritmos de acompanhamento musical para performances polifônicas

    Neste seminário iremos apresentar o artigo de Joshua J. Bloch e Roger B. Dannenberg intitulado "Real-Time Computer Accompaniment of Keyboard Performances" (ICMC 1985). Neste artigo um conjunto de algoritmos é desenvolvido para lidar com o acompanhamento em tempo real de performances polifônicas.Estamos em um cenário no qual o computador escuta a performance de um músico, compara os eventos da entrada com os eventos de uma partitura e, com uma correlação alta entre eles, infere um andamento e toca o acompanhamento apropriado.

    Palestrante: Roberto Piassi Passos Bodo

    Quando: 24 de setembro de 2013

    Onde: Sala B-3 do IME/USP

  • O som do espaço

    Neste seminário revisitaremos algumas das principais referências na concepção e na realização de sistemas para áudio espacial. Em uma viagem cronológica, vamos abordar as idéias, invenções e as soluções da engenharia de áudio por trás das implementações dos sistemas comerciais mais interessantes até a data de hoje. Concluímos com uma visão de nossas pesquisas em auralização na USP e questões abertas para o futuro.

    Palestrante: Regis Rossi Alves Faria (Depto. de Música, FFCLRP/USP)

    Quando: 19 de setembro de 2013

    Onde: Sala B-6 do IME/USP

  • Alternativas em protocolos de redes na camada de transporte para aplicações de transmissão de áudio

    A transmissão (streaming) de áudio é frequentemente tratada como uma aplicação em redes na qual são menos importantes as questões relacionadas a perdas de pacote e integridade de dados, mas onde a latência adquire importância crucial. No entanto, pode-se identificar alguns cenários de uso, como a gravação remota, onde a integridade do fluxo de dados passa a ter maior importância.

    Palestrante: Flávio Schiavoni, doutorando do IME/USP

    Quando: 10 de setembro de 2013

    Onde: Sala B-3 do IME/USP

  • Three applications of audio and sensor processing in embedded systems

    In this talk I will present three applications of coupled audio/sensor signal processing I worked with in the first two years of my PhD, which are summarized below:

    Palestrante: Gabriel Gómez, doutorando da Friedrich-Alexander-Universität Erlangen-Nürnberg

    Quando: 27 de agosto de 2013

    Onde: Sala B-3 do IME/USP

  • Controle de material audiovisual em eventos culturais

    Neste seminário será apresentada uma proposta de ferramenta para controle de recursos audiovisuais em manifestações artísticas utilizando como base projetos abertos como a Open Lighting Architecture (OLA), que oferece comunicação pelo protocolo padrão de equipamentos de iluminação, DMX512, e a linguagem de programação visual Pure Data, amplamente utilizada para processamento sonoro.

    Palestrante: Gilmar Dias

    Quando: 20 de agosto de 2013

    Onde: Sala 3, Bloco B - IME/USP

  • Processamento de Sinais Sonoros Aleatórios

    Neste seminário serão apresentados conceitos elementares do processamento de sinais sonoros aleatórios. A expressão "sinal sonoro aleatório" não deve ser entendida como uma referência a qualquer propriedade sonora/tímbrica ou de caracterização do conteúdo do sinal, mas sim como uma referência à modelagem do sinal e às hipóteses feitas acerca de sua descrição. Abordagens determinísticas e estocásticas para problemas clássicos como predição e interpolação serão comparadas, bem como serão apresentadas soluções para o problema de filtragem estocástica através dos métodos de Wiener e Kalman.

    Palestrante: Marcelo Queiroz

    Quando: 26 de junho de 2013

    Onde: Sala B-101 do IME/USP

  • Música em rede com a Medusa

    Este seminário irá apresentar uma visão arquitetural de ferramentas de distribuição de conteúdo musical em tempo real por redes de computadores. Tal modelo arquitetural vem sendo pesquisado como tese de doutorado e resultou no desenvolvimento de uma ferramenta de música em rede chamada Medusa.Medusa trabalha com várias APIs de áudio e MIDI e também utiliza vários protocolos de transporte. É previsto em seu desenvolvimento que esta ferramenta deverá suportar diversos modelos de endereçamento de rede e também permitir a comunicação de OSC.

    Palestrante: Flávio Schiavoni

    Quando: 19 de junho de 2013

    Onde: Sala B-101 do IME/USP

  • Síntese por modulação de amplitude com realimentação

    Neste seminário será apresentada uma nova técnica de síntese sonora baseada na modulação da amplitude de um oscilador a partir da realimentação de sua saída. O sistema será interpretado como um filtro digital PLTV, cujos coeficientes variam periodicamente. Variações de arquiteturas utilizando este oscilador também serão apresentadas e analisadas, assim como suas aplicações musicais. Por último, a possibilidade de criar efeitos digitais de áudio (DAFX) com o mesmo sistema será discutida.

    Palestrante: Antonio Goulart

    Quando: 12 de junho de 2013

    Onde: Sala B-101 do IME/USP

  • MOD - Um gerenciador e processador LV2 ao alcance de seus pés

    MOD é um processador e controlador de plugins LV2 baseado em Linux. Músicos podem acessá-lo via bluetooth e gerenciar suas pedaleiras estabelecendo conexões digitais internas entre as fontes de áudio, plugins e saídas de áudio. Depois que uma pedaleira é salva, pode ser compartilhada com outros usuários na rede social MOD. Os componentes do software são Open Source, o que significa que você também pode usá-lo em qualquer máquina com Linux, não somente no hardware do MOD.

    Palestrante: Bruno Gola, Gianfranco Ceccolini e Rodrigo Ladeira

    Quando: 5 de junho de 2013

    Onde: Sala B-101 do IME/USP

  • Chuck e TAPESTREA

    Neste seminário, abordaremos duas novas ferramentas de manipulação de áudio. Na primeira parte, apresentaremos a linguagem de programação ChucK. Voltada para composição, análise e síntese de áudio em tempo real, a linguagem utiliza um modelo de programação concorrente com ênfase no controle temporal. ChucK ainda oferece a possibilidade de adicionar/alterar código durante a execução. Em seguida, iremos apresentar o framework TAPESTREA, projetado para analisar, transformar e sintetizar sons complexos interativamente.

    Palestrante: Gilmar Dias

    Quando: 29 de maio de 2013

    Onde: Sala B-101 do IME/USP

  • O papel das ferramentas na criação musical

    A partir da experiência do projeto Mobile vamos levantar algumas questões referentes às ferramentas e interfaces tecnológicas utilizadas na criação musical. Serão apresentados alguns exemplos de utilização de ferramentas tecnológicas nas produções do grupo e abordados alguns problemas que surgem entre as demandas artísticas e as tecnologias disponíveis. Em especial vamos apontar o aspecto da interação entre os projetos de pesquisa e desenvolvimento tecnológico e a produção artística experimental.

    Palestrante: Fernando Iazzetta

    Quando: 22 de maio de 2013

    Onde: Auditório Jacy Monteiro, Bloco B do IME/USP

  • Estudos de caso sobre processamento de áudio em tempo real em plataformas computacionais de alta disponibilidade e baixo custo

    Neste trabalho de mestrado estão sendo exploradas diferentes possibilidades de processamento de áudio em tempo real utilizando plataformas com alta disponibilidade e relativamente baixo custo.Arduinos são estruturas minimais para interação com microcontroladores da família ATmega e são geralmente utilizados como interface de controle de outros dispositivos elétricos ou eletrônicos. Por possuir pinos com capacidade ADC e DAC, pode ser utilizado para capturar, processar e emitir sinais analógicos.

    Palestrante: André Jucovsky Bianchi

    Quando: 8 de maio de 2013

    Onde: Sala B-101 do IME/USP

  • AudioLazy: DSP em Python

    AudioLazy = DSP (Digital Signal Processing) + expressividade + tempo real + Python puro. Trata-se de um pacote desenvolvido para o processamento, análise e síntese de áudio que visa ser utilizado tanto em tarefas de prototipação e simulação como em aplicações com exigência de processamento em tempo real. Este seminário visa apresentar a AudioLazy, os objetivos de projeto, aspectos da representação digital do som e seus impactos, relações entre a expressividade e a implementação, além de diversos exemplos de aplicações.

    Palestrante: Danilo de Jesus da Silva Bellini

    Quando: 24 de abril de 2013

  • Da Computação Musical ao Teatro: Concepção de um Autômato Teatral

    Neste seminário será apresentada uma experiência de aplicação da computação musical ao teatro realizada em 1981 no "Festival of Two Worlds" de Spoleto, na Itália. Os objetivos eram aumentar a interação entre sons, cenário e atores no palco distribuindo o controle da geração de eventos musicais. No seminário serão abordados, além da estrutura da performance e a música gerada, o aparato técnico construído para a realização do trabalho.

    Palestrante: Gilmar Dias

    Quando: 17 de abril de 2013

    Onde: Sala B-101 do IME/USP

  • Raspberry Pi: Processamento de sinais com torta de framboesa

    Neste seminário será apresentado o Raspberry Pi, exibindo desde especificações básicas à compatibilidade com versões diversas de linux. Serão apontadas possíveis utilizações em diversas áreas, comparações de desempenho com outros dispositivos, além de acessórios úteis para seu melhor funcionamento. Demonstrações relacionadas ao processamento de sinais em tempo real ocorrerão com o intuito de validar (ou não) uma possível utilização em performances artísticas deste computador do tamanho de um cartão de crédito.

    Palestrante: Antonio Deusany de Carvalho Junior

    Quando: 10 de abril de 2013

    Onde: Sala B-101 do IME/USP

  • Sistemas Musicais Multiagentes

    Sistemas Multiagentes têm utilidade na solução de problemas de alta complexidade, com informação inerentemente distribuída. Este seminário tem como objetivo a apresentação de uma visão geral sobre Sistemas Multiagentes, e a exposição de aplicações em Computação Musical.

    Palestrante: Pedro Henrique Rocha Bruel

    Quando: 3 de abril de 2013

    Onde: Sala B-101 do IME/USP

  • Artigos Clássicos em Computação Musical: Roads e a Síntese Granular

    Neste seminário será apresentado o artigo de Curtis Roads intitulado "Granular Synthesis of Sound", publicado em 1978 no Computer Music Journal. Serão apresentadas as idéias e teorias que culminaram em um novo método para síntese sonora, como o quantum de som e o estudo da informação nas mensagens sonoras, assim como as primeiras metodologias propostas para composições musicais com grãos e algumas implementações.

    Palestrante: Antonio Goulart

    Quando: 20 de março de 2013

    Onde: IME, sala B-101

  • Artigos Clássicos em Computação Musical: Dannenberg e o acompanhamento musical em tempo real

    Neste seminário apresentaremos o artigo de Roger Dannenberg intitulado "An On-Line Algorithm for Real-Time Accompaniment" (ICMC 1984). O autor apresenta uma nova abordagem para o problema de acompanhamento musical em tempo real na qual o computador possui a habilidade de seguir um músico solista. Três sub-problemas são considerados: processar a entrada do solista em tempo real (utilizando código simbólico), comparar essa entrada com a partitura original (utilizando um algoritmo de matching) e gerar o acompanhamento de acordo com o andamento do músico (utilizando um relógio virtual).

    Palestrante: Roberto Piassi Passos Bodo

    Quando: 13 de março de 2013

    Onde: Sala B-101 do IME/USP

  • Conversão de Voz Inter-Linguística

    A conversão de voz é um problema emergente em processamento de fala e vozcom um crescente interesse comercial, tanto em aplicações comoTradução Fala para Fala (Speech-to-Speech Translation - SST)e em sistemas Text-To-Speech (TTS) personalizados. Um sistema de Conversão de Vozdeve permitir o mapeamento de características acústicasde sentenças pronunciadas por um falante origempara valores correspondentes da voz do falante destino, de modoque a saída processada é percebida como uma sentença pronunciada

    Palestrante: Anderson Fraiha Machado

    Quando: 6 de março de 2013

    Onde: Sala 10-B do IME/USP

2012

  • Classificação de compositores a partir de dados simbólicos utilizando o PPM

    Neste seminário, serão apresentados quatro métodos para a classificação compositor a partir de dados simbólicos baseados em melodias fazendo uso do algoritmo de predição por correspondência parcial (Prediction by Partial Matching - PPM), além disso, haverá a apresentação de modelos para tratamento de melodias inspirado em aspectos psicofisiológicos. Elementos rítmicos e melódicos são combinados em vez de usar apenas a melodia ou ritmo sozinho. Os modelos consideram a percepção da variação de frequência e das durações das notas para serem utilizados ​​na classificação de melodias.

    Palestrante: Antonio Deusany de Carvalho Junior

    Quando: 6 de dezembro de 2012

    Onde: Sala 268-A do IME/USP

  • Síntese de Campo Sonoro (Wave Field Synthesis)

    A síntese de campo sonoro (ou WFS - wave field synthesis) é a tentativa de reproduzir em um ambiente uma cena acústica exatamente igual à original. Nos últimos 20 anos foram desenvolvidos vários sistemas de síntese de campo sonoro reais que implementam essa ideia através de técnicas holográficas. Usando sistemas multi-canais a WFS busca resintetizar um campo sonoro de duas dimensões em um ambiente espacial a partir da ideia da sobreposição / interferência de fontes sonoras pontuais, representadas por muitos alto-falantes bem próximos uns dos outros.

    Palestrante: Thilo Koch

    Quando: 29 de novembro de 2012

    Onde: Sala 268-A do IME/USP

  • Introdução a Faust

    Faust é uma linguagem de programação para Processamento Digital de Sinais baseada em álgebra de blocos. Neste seminário, apresentaremos a sintaxe básica de Faust e o ambiente de desenvolvimento FaustWorks. Um programa em Faust pode ser compilado para utilização com ferramentas de processamento de áudio como Pure Data e Csound, arquiteturas de áudio como Jack, OSS e ALSA e padrões de plugin como LADSPA e LV2.

    Palestrante: Gilmar Dias e André J. Bianchi

    Quando: 22 de novembro de 2012

    Onde: Sala 268-A do IME/USP

  • Artigos clássicos em computação musical: II - Schroeder, Moorer e a reverberação

    Neste seminário apresentaremos o artigo de James Moorer intitulado "About this reverberation business", publicado em 1979 no Computer Music Journal. Serão apresentadas as estruturas primeiramente propostas por Schroeder, baseadas em filtros pente e em filtros passa-tudo, assim como as melhorias propostas por Moorer. Considerações sobre a acústica de salas também serão expostas, para compreensão da modelagem das reflexões iniciais na reverberação em ambientes reais.

    Palestrante: Antonio Goulart

    Quando: 8 de novembro de 2012

    Onde: Sala 268-A do IME/USP

  • Analisando Ferramentas para Performances Musicais pela Rede

    Neste seminário analisaremos as opções atualmente disponíveis para a realização de performances musicais através de redes de computadores com foco na Internet residencial no Brasil. Será apresentado um panorama desta sub-área da computação musical para que sejam discutidos aspectos de implementação de softwares como o JackTrip, o SoundJack e o Skype. Também descreveremos os procedimentos tomados para a realização de testes automatizados com tais aplicativos e as técnicas utilizadas para análise dos resultados.

    Palestrante: Marcio Tomiyoshi

    Quando: 25 de outubro de 2012

    Onde: Sala 268-A do IME/USP

  • Utilizando Pure Data em softwares para Android

    Pure Data (PD) é uma linguagem de programação visual voltada para a área de multimídia. Por sua facilidade de utilização no processamento de sinais de áudio, popularizou-se entre músicos e pessoas interessadas em performances musicais. Na área da engenharia e computação é utilizada para processamento de sinais analógicos e digitais no tratamento do fluxo de dados, com aplicações em jogos, computação musical, música computacional, computação gráfica e processamento de imagen.

    Palestrante: Antonio Deusany de Carvalho Junior

    Quando: 18 de outubro de 2012

    Onde: Sala 268-A do IME/USP

  • AudioLazy - Pacote para tratamento de áudio em Python

    Python é uma linguagem de programação multi-paradigma (orientada a objetos, imperativa, funcional) de uso geral, de alto nível, interpretada, dinâmica e com uma filosofia que enfatiza a facilidade de leitura do código por pessoas. Numpy, Scipy e Matplotlib são pacotes que possibilitam que o uso e a expressividade do Python sejam similares ao de linguagens como MatLab e Octave. Entretanto, a avaliação ansiosa (eager) realizada por essas ferramentas dificulta, ou até impossibilita, o uso das mesmas para processamento de áudio em tempo real.

    Palestrante: Danilo de Jesus da Silva Bellini

    Quando: 11 de outubro de 2012

    Onde: Sala 268-A do IME/USP

  • Processamento de áudio em tempo real usando Arduino

    Arduino é uma plataforma de microcontrolador baseada em hardware e software com especificação aberta, bastante utilizada para interface com equipamentos elétricos e eletrônicos em projetos multidisciplinares. Neste seminário serão apresentadas técnicas para utilização do Arduino para processamento de áudio em tempo real, além de resultados de análise de desempenho para o cálculo de FFTs, sínteses aditivas e convoluções no domínio do tempo.

    Palestrante: André Jucovsky Bianchi

    Quando: 4 de outubro de 2012

    Onde: Sala 268-A do IME/USP

  • Artigos clássicos em Computação Musical: I - Chowning e a síntese FM

    Neste seminário apresentaremos o artigo de John Chowning intitulado "The Synthesis of Complex Audio Spectra by Means of Frequency Modulation" (J. Audio Eng. Soc. 21(7):526-534, 1973). A técnica de modulação em frequência, conhecida há muito tempo em telecomunicações, adquire a partir deste trabalho um novo campo de aplicação, que permite um sofisticado grau de controle de componentes espectrais na síntese de sinais de áudio, com evolução temporal flexível e extrema simplicidade de implementação.

    Palestrante: Marcelo Queiroz

    Quando: 27 de setembro de 2012

    Onde: Sala 268-A do IME/USP

  • Warbike - Sonificação de redes sem-fio para bicicleta

    Neste seminário será apresentado o projeto Warbike: uma sonificação artística de redes sem-fio para bicicleta, onde dados sobre atividade das redes e status de encriptação são traduzidos em sons por meio de uma bicicleta equipada com alto-falantes e um dispositivo móvel. O trabalho se situa no universo da psicogeografia e seus correspondentes contemporâneos como a mídia locativa, o wardriving e o uso da bicicleta como símbolo e plataforma de manifestação política.

    Palestrante: Gilmar Rocha de Oliveira Dias

    Quando: 20 de setembro de 2012

    Onde: Sala 268-A do IME/USP

  • Uma ferramenta de notação musical em braille

    O presente trabalho investiga as dificuldades enfrentadas por deficientes visuais ao ingressarem em um curso de nível superior em Música, onde a troca de informação musical escrita é frequente e se dá por meio de partituras impressas em tinta, e a conversão deste material para braille demanda conhecimentos específicos e disponibilidade de recursos. Igualmente problemática, a produção musical do aluno cego é feita em braille, seja para tomar nota de aulas como para realizar tarefas de disciplinas como Contraponto, Harmonia e Análise Musical, ou mesmo para a realização de exames.

    Palestrante: Arthur P. M. Tofani

    Quando: 13 de setembro de 2012

    Onde: Sala 268-A do IME/USP (ATENÇÃO PARA A TROCA DE SALA)

  • Raciocínio de agentes musicais: composição algorítmica, vida artificial e interatividade em sistemas multiagentes musicais

    Os múltiplos trabalhos de sistemas multiagentes musicais realizados nos últimos anos demonstram o interesse crescente na pesquisa de sistemas de composição e de performance musical que utilizem a tecnologia de agentes computacionais, sendo que apresentam um interesse maior por aqueles sistemas que integram técnicas de composição algorítmica, componentes de vida artificial e interatividade.

    Palestrante: Santiago Dávila Benavides

    Quando: 30 de agosto de 2012

    Onde: Sala 252-A do IME/USP

  • Dispositivos Móveis como Instrumentos Musicais

    Neste seminário iremos fazer uma análise sobre a utilização de dispositivos móveis como instrumentos musicais. Serão apresentados os seguintes tópicos: a evolução dos instrumentos musicais, as vantagens dos dispositivos móveis em relação a alguns instrumentos eletrônicos digitais, o estado atual de suporte nativo de alguns sistemas operacionais (como Android e iOS) para o processamento de áudio em tempo real, exemplos de aplicativos de áudio disponíveis no mercado e a aceitação/utilização de celulares e tablets na indústria fonográfica.

    Palestrante: Roberto Piassi Passos Bodo

    Quando: 23 de agosto de 2012

    Onde: Sala A-252 do IME/USP

  • Efeitos Digitais de Áudio, seminário 14: Separação de fontes sonoras

    Neste ciclo de seminários serão percorridos os temas principais na área de processamento de efeitos de áudio. Neste seminário, apresentaremos técnicas para separação de fontes sonoras previamente mixadas. Partindo dos princípios gerais das técnicas, iremos discutir sobre separação de fontes binaurais, separação de fontes a partir de canais misturados e sobre algumas aplicações.

    Palestrante: Antonio Deusany de Carvalho Junior

    Quando: 2 de julho de 2012

    Onde: Sala 267-A do IME/USP

  • Efeitos Digitais de Áudio, seminário 13: Mixagem automática

    Neste ciclo de seminários serão percorridos os temas principais na área de processamento de efeitos de áudio. Neste seminário apresentaremos técnicas para a mixagem automática de sinais de áudio. Tais técnicas são capazes de automaticamente realizar paneamento, correção de polaridade, correção de offset, compensação de ganho e nível de faders. Podem também propiciar realce de canais e equalização simples.

    Palestrante: Antonio Goulart

    Quando: 25 de junho de 2012

    Onde: Sala 267-A do IME/USP

  • Efeitos Digitais de Áudio, seminário 12: Efeitos analógicos virtuais

    Neste ciclo de seminários serão percorridos os temas principais na área de processamento de efeitos de áudio. Neste seminário, apresentaremos versões digitais dos seguintes efeitos analógicos virtuais: ressoador não-linear, o filtro escada Moog, tone stack, filtro de wah-wah, phaser, emulação de circuitos valvulados, reverberação de placa e mola, simulação de eco através de fita e efeito de telefone.Slides da apresentação: Google Docs

    Palestrante: Marcio Tomiyoshi

    Quando: 18 de junho de 2012

    Onde: Sala 267-A do IME/USP

  • Efeitos Digitais de Áudio, seminário 11: Warping - Deformação de sinais musicais em tempo e frequência

    Neste ciclo de seminários serão percorridos os temas principais na área de processamento de efeitos de áudio. No 11º da série, serão descritos os interessantes efeitos que podem ser obtidos deformando-se o eixo do tempo e/ou o eixo da frequência de um sinal de áudio. A deformação de tempo tem o objetivo de alterar a forma de onda ou o envelope do sinal enquanto a deformação de frequência modifica o conteúdo espectral transformando sinais harmônicos em inarmônicos e vice-versa.

    Palestrante: Gilmar Rocha de Oliveira Dias

    Quando: 11 de junho de 2012

    Onde: Sala 267-A do IME/USP

  • Efeitos Digitais de Áudio, seminário 10: Processamento espectral

    Neste ciclo de seminários serão percorridos os temas principais na área de processamento de efeitos de áudio. Neste seminário, serão apresentados modelos de tratamento e representação de áudio no domínio da frequência, assim como implicações associadas à obtenção do modelo espectral.

    Palestrante: Danilo J. S. Bellini

    Quando: 4 de junho de 2012

    Onde: Sala 267-A do IME/USP

  • Efeitos Digitais de Áudio, seminário 9: Efeitos adaptativos

    Neste ciclo de seminários serão percorridos os temas principais na área de processamento de efeitos de áudio. Neste seminário, apresentaremos o conceito de efeitos adaptativos, ou seja, processamentos sonoros cuja configuração interna se adapte ao contexto temporal, seja através do controle automatizado de parâmetros do efeito através de características extraídas do sinal de entrada ou através de reconfigurações dinâmicas das cadeias de processamento. Exemplos de efeitos adaptativos são a compressão dinâmica, a auto-afinação (auto-tune), morphing e síntese concatenativa.

    Palestrante: Marcelo Queiroz

    Quando: 28 de maio de 2012

    Onde: Sala 267-A do IME/USP

  • Efeitos Digitais de Áudio, seminário 8: Processamento fonte-filtro.

    Neste ciclo de seminários serão percorridos os temas principais na área de processamento de efeitos de áudio. Neste seminário, apresentaremos técnicas utilizadas para estimar o envelope espectral e realizar o processamento fonte-filtro, sendo elas: o Channel Vocoder, a Predição Linear e o Cepstrum. Inicialmente será descrita a separação fonte-filtro e em seguida serão apresentados exemplos de transformação fonte-filtro utilizando as três técnicas.

    Palestrante: Antonio Deusany de Carvalho Junior

    Quando: 21 de maio de 2012

    Onde: Sala 267-A do IME/USP

  • Efeitos Digitais de Áudio, seminário 7: Processamento em tempo-frequência.

    Neste ciclo de seminários serão percorridos os temas principais na área de processamento de efeitos de áudio. Neste seminário, apresentaremos inicialmente conceitos básicos para processamento em tempo-frequência e alguns modelos de implementação (banco de filtros, análise por FFT, síntese por IFFT e por soma de senóides, e soma por gaborets).

    Palestrante: André Jucovsky Bianchi

    Quando: 14 de maio de 2012

    Onde: Sala 267-A do IME/USP

  • Efeitos Digitais de Áudio, seminário 6: Processamento de segmentos temporais.

    Neste ciclo de seminários serão percorridos os temas principais na área de processamento de efeitos de áudio. Neste seminário, serão apresentados alguns algoritmos para processamento de sinais no domínio do tempo. Esses algoritmos irão modificar, basicamente, a altura e a duração do sinal de áudio. Serão apresentados métodos para reprodução com velocidade variável, mudança de escala temporal e deslocamento de altura.

    Palestrante: Roberto Piassi Passos Bodo

    Quando: 7 de maio de 2012

    Onde: Sala 267-A do IME/USP

  • Efeitos Digitais de Áudio, seminário 5: Efeitos espaciais

    Neste ciclo de seminários serão percorridos os temas principais na área de processamento de efeitos de áudio. Neste seminário serão apresentados alguns fundamentos de audição espacial e técnicas básicas de efeitos espaciais em áudio digital, tais como reprodução estereofônica, panorâmica, filtros HRTF, reverberação, efeito de distância e efeito Doppler.

    Palestrante: Santiago Dávila Benavides

    Quando: 23 de abril de 2012

    Onde: Sala 267-A do IME/USP

  • Efeitos Digitais de Áudio, seminário 4: Processamento não linear.

    Neste ciclo de seminários serão percorridos os temas principais na área de processamento de efeitos de áudio. Neste seminário serão apresentados modelos de processamento não linear e diversos tipos de efeitos criados com tal modelo como compressores, limitadores, noise gate, de-esser, simuladores de válvula, distorções, overdrive, fuzz, geradores harmônicos e sub-harmônicos, saturação de fita, exciters e enhancers.Slides da apresentação: Google Docs

    Palestrante: Marcio Masaki Tomiyoshi

    Quando: 16 de abril de 2012

    Onde: Sala 267-A do IME/USP

  • Efeitos Digitais de Áudio, seminário 3: Moduladores e demoduladores

    Neste ciclo de seminários serão percorridos os temas principais na área de processamento de efeitos de áudio. No terceiro seminário da série, serão apresentadas técnicas básicas de modulação introduzindo esquemas simples para modulação de amplitude, banda lateral única e fase junto a sua utilização em efeitos de áudio. Na sequência, serão vistos os chamados demoduladores, que extraem parâmetros de sinais de entrada para posterior processamento. A combinação dessas técnicas gera efeitos mais avançados que serão demonstrados em vários exemplos.

    Palestrante: Gilmar Rocha de Oliveira Dias

    Quando: 9 de abril de 2012

    Onde: Sala 267-A do IME/USP

  • Efeitos Digitais de Áudio, seminário 2: Filtros e retardos.

    Neste ciclo de seminários serão percorridos os temas principais na área de processamento de efeitos de áudio. Neste segundo seminário serão apresentadas ferramentas fundamentais no desenvolvimento de filtros, sejam eles construídos a partir de uma resposta em frequência pretendida, ou a partir de retardos (cópias atrasadas) do sinal de entrada. Serão discutidos os casos específicos dos equalizadores, efeitos tradicionais como wah-wah e phaser, filtros-pente FIR e IIR para reverberação, e efeitos baseados em retardos como vibrato, flanger e chorus, entre outros.

    Palestrante: Flávio Luiz Schiavoni

    Quando: 26 de março de 2012

    Onde: Sala 267-A do IME/USP

  • Efeitos Digitais de Áudio, seminário 1: Fundamentos de DSP.

    Neste ciclo de seminários serão percorridos os temas principais na área de processamento de efeitos de áudio, correspondentes aos capítulos do livro DAFX - Digital Audio Effects (ed. Udo Zölzer). Neste primeiro seminário serão apresentados os fundamentos do processamento digital de sinais: representação de sinais digitais, análise espectral através da transformada de Fourier, sistemas lineares, convolução, transformada z, filtros FIR e IIR.

    Palestrante: Marcelo Queiroz

    Quando: 19 de março de 2012

    Onde: Sala 267-A do IME/USP

  • St. Paul Revisited by Music, Fine Arts, and Mathematics

    Professor for Methods of Applied Algebra, Dresden University of Technology, GermanyThis talk gives insight into an interdisciplinary art project by the artist Franziska Leonhardi together with Jonas Leonhardi and Thomas & Stefan E. Schmidt - in collaboration with Immanuel Albrecht & Maximilian Marx et al. from the Institute of Algebra at Dresden University of Technology. Here, a major challenge was a visualization of the oratorio St. Paul by Felix Mendelssohn Bartholdy. The underlying question was how to visualize music and how deaf people can benefit from this.

    Palestrante: Franziska Leonhardi and Stefan E. Schmidt

    Quando: 13 de março de 2012

    Onde: Antonio Gilioli Auditorium, at IME/USP

2011

  • Tutorial de externals no Pd

    Material.Página de Flávio Luiz Schiavoni no IME.

    Palestrante: Flávio Luiz Schiavoni

    Quando: 17 de novembro de 2011

  • Processamento paralelo com Pure Data e GPU

    Pure Data (Pd) é uma ferramenta para processamento de sinais em tempo real muito utilizada para performance artística ao vivo. CUDA é uma plataforma para processamento paralelo utilizando placas com GPU desenvolvida pela NVIDIA. Neste seminário, apresentarei estas tecnolgias e um trabalho em andamento que tem como objetivo possibilitar o processamento paralelo de sinais em tempo real utilizando Pd e CUDA.

    Palestrante: André Jucovsky Bianchi

    Quando: 30 de setembro de 2011

  • Explorando diferentes estratégias para classificação de gênero musical

    A possibilidade de streaming e a facilidade de download de músicas na internet em computadores e dispositivos portáteis tornam vitais sistemas inteligentes para classificação automática de gênero musical (AMGC). Os sistemas de AMGC baseados na análise de metadados vinculados aos arquivos de música podem não ser precisos, e a classificação geralmente é feita por artista ou por álbum, não por música. Outros sistemas exploram o conteúdo tímbrico e rítmico das músicas, como por exemplo a obtenção de MFCCs como parâmetros, sendo LDA, SVM e GMM os classificadores mais explorados.

    Palestrante: Antonio José Homsi Goulart

    Quando: 27 de setembro de 2011

    Onde: Sala 259-A do IME/USP

  • Produção de áudio usando Linux

    Material.Página pessoal de Flávio Luiz Schiavoni no IME.

    Palestrante: Flávio Luiz Schiavoni

    Quando: 2 de setembro de 2011

  • Interactivity in Computer Music and the MOBILE Project

    In this seminar, we will begin by presenting a brief historical overview of works involving interactivity in music production using computational mechanisms. Then, we will present a few academic works developed in Brazil. Finally, we will describe the Mobile Project, which has, as its central theme, the utilization and development of interactive processes in the realm of musical production technologically mediated.

    Palestrante: Fabio Kon (IME/USP)

    Quando: 29 de agosto de 2011

    Onde: Room 256-A, at IME/USP

  • Técnicas para Conversão de Voz Inter-Linguística

    O problema de Conversão de Voz Inter-Linguística se refere à substituição do timbre ou identidade vocal de uma sentença gravada por um falante (origem) pela de outro falante (destino), supondo que ambos os falantes pronunciam suas respectivas sentenças em línguas diversas. Este problema se difere de uma conversão de voz típica no sentido de que o mapeamento de características acústicas não depende do alinhamento temporal de gravações de sentenças idênticas pronunciadas pelos falantes origem e destino.

    Palestrante: Anderson Fraiha Machado (doutorando do IME/USP)

    Quando: 23 de agosto de 2011

    Onde: Sala 254-A do IME/USP

  • Processamento de áudio digital em tempo real em dispositivos não convencionais. Estudos de caso: Arduino, GPU e Android

    Material.Página pessoal de André Jucovsky Bianchi no IME.

    Palestrante: André Jucovsky Bianchi

    Quando: 15 de agosto de 2011

  • Métodos de segmentação musical baseados em descritores sonoros

    Esta palestra apresenta um estudo comparativo de diferentes métodos computacionais de segmentação estrutural musical, onde o principal objetivo é delimitar fronteiras de seções musicais em um sinal de áudio, e rotulá-las, i.e. agrupar as seções encontradas que correspondem a uma mesma parte musical. As técnicas computacionais apresentadas neste estudo são divididas em três categorias: segmentação supervisionada, segmentação não-supervisionada e segmentação não-supervisionada em tempo real.

    Palestrante: André Salim Pires

    Quando: 16 de junho de 2011

    Onde: Sala 144-B do IME/USP

  • Um arcabouço para construção de sistemas multiagente musicais

    A área de Sistemas multiagente é um promissor domínio tecnológico para uso em performances musicais interativas. Em trabalhos recentes, essa tecnologia vem sendo utilizada para resolver problemas musicais de escopo específico e alcance limitado, como a detecção de pulsação, a simulação de instrumentos e o acompanhamento musical automático.

    Palestrante: Leandro Ferrari Thomaz (doutorando do IME/USP)

    Quando: 7 de junho de 2011

    Onde: Sala 254-A no IME/USP

  • Medusa - Um ambiente de som distribuído

    Neste seminário apresentaremos uma ferramenta que está sendo desenvolvida para distribuição síncrona de conteúdo musical (streams de áudio e MIDI) em uma rede local de computadores. Medusa é uma ferramenta que une os recursos computacionais de uma rede de computadores formando um ambiente distribuído que simplifica a utilização de recursos remotos para práticas musicais. No seminário serão apresentadas o mapeamento das características desejáveis da ferramenta, as soluções que foram propostas para a implementação e os resultados obtidos até o momento.

    Palestrante: Flávio Luiz Schiavoni (doutorando do IME/USP)

    Quando: 28 de abril de 2011

    Onde: Sala B-16 do IME/USP