Ciclo de Palestras – Segundo Semestre de 2016
As palestras ocorrerem no Auditório do Laboratório de Sistemas Estocásticos (LSE), sala I-044b, as 15:30 h, a menos de algumas exceções devidamente indicadas.
Lista completa (palestras previstas para datas futuras podem sofrer alterações)
A equação clássica de difusão admite nas suas várias versões apenas um fluxo principal. As correções que são introduzidas para darem conta de fatores de reatividade e corrigirem os modelos que representam anomalias nos processos difusivos em geral acrescentam termos que fazem a função de fontes ou sumidouros. Outras correções podem ser introduzidas a partir da expansão do potencial de fluxo com a inclusão de termos de ordem superior na expansão de Taylor. No entanto esses modelos não admitem a ocorrência de processos com múltiplos fluxos. No entanto a hipótese da ocorrência simultânea de microestados é fundamental para todo o desenvolvimento da mecânica estatística o que sustenta a hipótese de ocorrência de múltiplos fluxos nos processos difusivos. Propomos um novo modelo para a instituição da equação de difusão em que se admite a ocorrência de dois ou mais fluxos simultâneos associados a diferentes estados de energia. Explora-se o caso de dois fluxos, o fluxo principal que obedece ao caso clássico do comportamento Fickiano e o fluxo secundário que é subsidiário ao principal e existe só e só se o principal existir. A equação que rege esse fenômeno é de quarta ordem. Ao fluxo secundário está associado um novo coeficiente a que chamamos coeficiente de reatividade. Esse coeficiente, conforme mostram resultados de identificação de parâmetros está associado à fração da concentração que flui segundo a lei de Fick, isto é o fluxo principal. Mostra-se a influência do coeficiente de reatividade na evolução da concentração em meios anisotrópicos. Alguns resultados recentes para a um sistema bi-fluxo com a presença de fonte não linear são explorados e comparados com o caso clássico. Mostram-se algumas aplicações para modelos de dinâmica populacional.
Dizem que, em seu leito de morte, Heisenberg disse “Quando encontrar Deus, eu vou fazer duas perguntas: Por que relatividade? E por que turbulência? Eu realmente acredito que ele terá uma resposta para a primeira.”
Escoamentos turbulentos vivem em dois mundos: nas escalas grandes, vivem em um mundo relativamente rígido (se não houver singularidades), com muitos invariantes e simetrias, enquanto que na pequena escala, vivem em um mundo altamente dissipativo. A existência de uma escala intermediária, o intervalo inercial, abre a possibilidade para que argumentos puramente dimensionais desvendem bastante da estrutura do escoamento. Esta trilha foi seguida com sucesso parcial por cientistas como L. Prandtl, L.F. Richardson, G. I. Taylor, A.N. Kolmogorov, L. Onsager, W. Heisenberg, entre outros.
Nesta palestra, iremos discutir algumas das maiores contribuições destes cientistas à teoria estatística da turbulência de fluidos, e comentarei sobre alguns dos recentes avanços rigorosos da comunidade matemática. Mostrarei também como que recentemente conciliamos dois tipos de argumentos puramente dimensionais, à moda de Kolmogorov e Prandtl, até então divorciados, para desvendar o funcionamento da redução de arrasto para escoamentos de alguns fluidos poliméricos.
O objetivo da palestra, obviamente, não é responder às perguntas de Heisenberg, mas sim entender por que a questão é tão complicada, e, possivelmente, fora do escopo da matemática rigorosa em um futuro próximo.
Heavy tailed distributions present a tough setting for inference. They are also common in industrial applications, particularly with Internet transaction datasets, and machine learners often analyze such data without considering the biases and risks associated with the misuse of standard tool. This paper outlines a procedure for inference about the mean of a (possibly conditional) heavy tailed distribution that combines nonparametric analysis for the bulk of the support with Bayesian parametric modeling motivated from extreme value theory for the heavy tail. The procedure is fast and massively scalable. The resulting point estimators attain lowest-possible error rates and, unique among alternatives, we are able to provide accurate uncertainty quantication for these estimators.
The work should find application in settings wherever correct inference is important and reward tails are heavy; we illustrate the framework in causal inference for A/B experiments involving hundreds of millions of users of eBay.com. This is joint work with Matt Taddy (Microsoft Research and Chicago Booth) and Matthew Gardner (eBay Inc.).
Deformation based on B-splines
Ronaldo Dias (Unicamp) – 15:00hs<
We are proposing a new approach to estimation of the spatial deformation model for nonstationary spatial covariance structure introduced by Sampson and Guttorp in the 1990s. This subject is of fundamental importance in the modeling and analysis of spatial and spatio-temporal monitoring data common in the environmental sciences. It allows more accurate spatial prediction, and can be used in the design of monitoring networks for environmental pollution, a critical issue in assessing the
impacts of industrial sources of air pollution.
This approach based on B-splines, addresses a two important weaknesses in current computational approaches. First, it allows one to constrain estimated 2D deformations to be non-folding (bijective) in 2D. This requirement of the model has, up to now, been addressed only by arbitrary levels of spatial smoothing. Second, it uses a dimension reduction strategy than enables application to larger datasets of spatial monitoring sites of environmental data.
Aprendizado não-supervisionado com divergências de Bregman
Heudson Mirandola (UFRJ)
O principal objetivo desta palestra é falar de geometria da informação. Falaremos de métricas Riemannianas, conexões duais e divergências. A fim de entendermos as principais diferenças do que já é feito usualmente em machine learning, aplicaremos esses conceitos a técnicas clássicas de clusterização.
A evolução das espécies é o processo pelo qual as espécies se modificam ao longo do tempo. A evolução inclui os processos evolutivos, tais como seleção natural, acaso, migração e mutação, que são as forçam que modificam as características das populações naturais. Tais modificações ocorrem em última análise nos genes, chamadas de mutações, e podem ser bem descritas matematicamente. Assim, o uso de modelos matemáticos nos estudos evolutivos resultaram em um poder discriminatório entre hipóteses filogenéticas alternativas. A consequência desse poder discriminatório é termos hoje um conhecimento previsto por Darwin, que é o conhecimento de árvores filogenéticas bem sustentadas estatisticamente para a maior parte dos grupos da diversidade biológica.
Gravações antigas de áudio podem sofrer degradações por conta de diversos fatores: más condições de armazenamento da mídia, equipamentos de gravação precários e reprodução em caixas de som de baixa qualidade são apenas alguns dos motivos que podem impactar na inteligibilidade do som reproduzido. Muitas vezes temos acesso a somente uma cópia da gravação já degradada, e restaurar a informação presente na mídia pode ser importante, por exemplo, para preservar o conteúdo histórico da gravação.
Dessa forma, o problema de restauração de áudio pode ser visto como um problema inverso, e desde a década de 70 diversas soluções para defeitos particulares (ruído de fundo e sons semelhantes a *clicks*, presente em discos de vinil arranhados, por exemplo) foram propostas. Porém, somente no final de década de 90 um tratamento mais abrangente, baseado em métodos Bayesianos, foi proposto e se mostrou bastante efetivo.
Nessa palestra apresentarei uma breve história da gravação de áudio, mostrando vários exemplos de degradações comumente encontradas, seguidos de alguns avanços que obtive no meu Doutorado no que diz respeito à restauração de gravações de áudio degradadas por distorções não-lineares.
Em 2013, Galves e Löcherbach apresentaram uma nova classe de modelos a tempo discreto, buscando modelar probabilisticamente a atividade das redes neuronais, através das cadeias com memória de alcance variável. Devido ao comportamento de perda de energia em cada disparo, as probabilidades de transição nesse modelo dependem da configuração do sistema desde o último instante de disparo de todos neurônios do sistema.
Os processos de salto com memória de alcance variável, propostos em Rodrigues (2016), são uma abstração a tempo contínuo do modelo apresentado em Galves e Löcherbach (2013), com as probabilidades de transição dependendo de uma árvore probabilística de contextos qualquer.
Uma questão natural que surge é: dada uma amostra gerada por um processo se salto com memória de alcance variável, como inferir a árvore probabilística de contextos imersa no processo?
Propomos um novo estimador para a árvore de contextos imersa, levando em conta as taxas de transição do sistema. A ideia principal do estimador é, dada uma sequência de símbolos da amostra, estimar as taxas de transição para essa sequência e obter seu contexto através de uma função gerada pelas taxas estimadas.
Nessa palestra, faremos uma pequena introdução sobre as cadeias com memória de alcance variável, e como elas podem nos ajudar a compreender melhor a comunicação neuronal; definiremos os processos de salto com memória de alcance variável e apresentaremos o estimador para a árvore de contexto do processo, bem como os principais resultados de convergência.
Probabilistic methods in Asymptotic Geometric Analysis
Carlos Hugo Jimenez (PUC-RIO)
In this talk we will review some probabilistic applications and tools developed in Asymptotic Geometric Analysis. Asymptotic Geometric Analysis is mainly concerned with geometric and linear properties of finite dimensional objects, such as convex sets and normed spaces, especially with the characteristic behavior that emerges when the dimension, or a number of other relevant free parameters, is suitably large or tends to infinity. High-dimensional systems are very frequent in mathematics and applied sciences, hence understanding of high-dimensional phenomena is becoming increasingly important.
Towards universality in bootstrap percolation
Paul Smith (Cambridge)
Bootstrap percolation is a broad class of monotone cellular automata, which has links to the Glauber dynamics of the Ising model and other areas of statistical physics. Starting with random initial conditions, the question is to determine the threshold for complete occupation of the underlying graph. Until relatively recently, only nearest-neighbour models (and relatively minor variants of these models) had been studied — and these are now very well understood. In this talk I will discuss a new `universality’ theory for bootstrap percolation, which has emerged in the last few years. In particular, I will explain a classification of two-dimensional models, give more precise results for so-called `critical’ models (also in two dimensions), and talk about a new classification theorem for higher dimensional models.
Conventional and unconventional monetary policy with frictions
Susan Schommer (UERJ)
We consider the effects of interest-rate policy in a general equilibrium model of asset pricing and risk sharing with endogenous collateral constraints. In order to analyze conventional monetary policy (central-bank control of the riskless nominal interest rate) we consider that there is an arbitrarily given predetermined price level for the non-durable good in the initial period; but it may not be realistic to suppose that we can choose any monetary policy we like without the anticipation of that policy having had an effect on the way that prices were set. Hence we consider a second model, in which the non-durable good price and supply commitments are endogenized (modeled as being chosen before agents learn the period 0 state of the world). Here we consider uncertainty (different possible states of the world) in the first period, but assume that the values of non-durable price and supply commitments are chosen prior to the realization of the state, and so are the same for all states in the first period. We examine through numerical examples how the welfare-maximizing choice of interest-rate policy (in each state in the first period) is different depending on the severity of collateral constraints.
As diferenças teóricas na economia e as implicações para política econômica
Esther Dweck (UFRJ)
Para alguns autores o século XX foi o fim das grandes certezas na História das Ciências, o fim da era da inocência. Na Economia, infelizmente, chegamos ao século XXI sem que as grandes certezas fossem minimamente abaladas, ainda que empiricamente não tenham qualquer sustentação. A Crise de 2008/2009 levou a um intenso debate e economistas renomados foram chamados ao Congresso Americano para explicar por que não foram capazes de prever a Grande Crise. As ciências sociais, em geral, carecem de um método comum e aceito por todos de refutação de teorias o que permite a coexistência de teorias antagônicas para explicar os fenômenos. No entanto, da mesma forma que os argumentos teóricos, as implicações derivadas para política econômica são igualmente antagônicas. Na palestra, será apresentado um referencial teórico e metodológico distinto do mainstream econômico e serão discutidas as diferentes implicações para política econômica, procurando trazer a análise para a atual situação da economia brasileiras e as propostas alternativa existentes.
Nesta apresentação, procuraremos descrever algumas destas estratégias e identificar oportunidades para o desenvolvimento de novas abordagens estatísticas visando apli-cações dentro deste contexto.