Ciclo de Palestras – Primeiro Semestre de 2016

As palestras ocorrerem no Auditório do Laboratório de Sistemas Estocásticos (LSE), sala I-044b, as 15:30 h, a menos de algumas exceções devidamente indicadas.

Lista completa (palestras previstas para datas futuras podem sofrer alterações)

Transformação integral generalizada em problemas direto e inverso de convecção-difusão não-linear em domínios físicos complexos
Renato M. Cotta (COPPE-UFRJ, CNEN)
O método de transformação integral é uma ferramenta analítica derivada da técnica de separação de variáveis, bem conhecida na obtenção de soluções exatas para certas classes de equações diferenciais parciais lineares, que tem sido amplamente empregado em ciências físicas e engenharia, incluindo ciências e engenharia térmicas, por mais de um século. Com o desenvolvimento simultâneo de computadores e métodos numéricos para PDEs, tal classe de abordagem analítica vinha perdendo relevância no contexto das aplicações em engenharia, embora mantivesse um papel relevante na verificação de códigos numéricos e na solução de problemas lineares suficientemente simples. No entanto, o método de transformação integral foi progressivamente estendido e generalizado, levando ao estabelecimento nos anos 80 de uma metodologia híbrida numérico-analítica, conhecida como Generalized Integral Transform Technique (GITT). O método híbrido manteve os méritos relativos de uma técnica analítica em relação a robustez e precisão, mas introduzindo a aplicabilidade e a flexibilidade de uma abordagem puramente numérica.

Esta apresentação oferece uma revisão atualizada sobre a GITT, com foco no tratamento de geometrias complexas, formulações de múltiplas escalas, problemas acoplados não-lineares de convecção-difusão, a fim de ilustrar alguns novos paradigmas de aplicação. Assim, ênfase especial é dada em demonstrar alguns desenvolvimentos recentes na análise de problemas diretos e inversos em transferência de calor e massa. Casos-teste e exemplos de aplicação serão então discutidos envolvendo extensões recentes na GITT, para ilustrar as características de convergência das expansões em autofunções propostas. Comparações críticas com soluções numéricas por códigos comerciais e validações com resultados experimentais também serão apresentadas. A figura abaixo ilustra uma termografia de infravermelho de um microdissipador térmico com um microcanal central onde escoa um fluido aquecido, com a correspondente validação da simulação do campo de temperaturas na face do substrato obtido por transformação integral (GITT).


Ondas Gravitacionais e a Astrofísica de Altas-Energias

Rodrigo Negreiros (IF-UFF)
As recentes observações diretas de ondas gravitacionais, efetuadas pela colaboração LIGO, renovaram o interesse da comunidade científica pela astrofísica e em particular pela teoria da Relatividade Geral de Albert Einstein. Esta teoria, que completou seu centenário em 2015, representou uma mudança de paradigma na física e moldou a maneira que viríamos a enxergar nosso universo e o próprio espaço-tempo. Ainda assim, manifestações da relatividade geral que permitem detecção direta (tais como ondas gravitacionais) são elusivas. Nesta apresentação farei uma revisão dos princípios da relatividade geral, passando pelas primeiras observações desta teoria (os chamados testes clássicos) até as previsões de ondas gravitacionais. A 2ª parte desta apresentação consistirá nas perspectivas futuras que as possibilidades de detecção continuada de ondas gravitacionais apresentam para a astrofísica. Em particular, irei focar no regime da astrofísica de altas energias. Este regime, de maneira geral, consiste em corpos celestes em que encontramos a gravidade em regime forte, de maneira que a descrição de sua dinâmica requer o uso da relatividade geral em sua plenitude. Exemplos de tais sistemas são: estrelas de nêutrons, buracos negros, sistemas binários do tipo estrelas de nêutrons/estrelas de nêutrons e/ou estrelas de nêutrons/buracos negros. Irei discutir brevemente as propriedades desses sistemas, com foco em estrelas de nêutrons e as possibilidades abertas pela possibilidade de detecção de ondas gravitacionais destes corpos.

Nesta palestra, será considerado o Problema de Agrupamento (Clustering) segundo dois diferentes critérios: 1) mínima soma das distâncias das observações ao quadrado e 2) mínima soma das distâncias das observações. O primeiro critério corresponde à minimização da soma das variâncias dentro dos grupos, ou equivalentemente, à maximização da variância intra-grupos. O segundo critério é um caso particular do mais famoso problema de localização, Multisource Fermat-Weber, que trata do posicionamento ótimo de especificado número de fábricas para atender às demandas de um dado conjunto de cidades.

Esses dois critérios, sendo muito naturais, são os mais freqüentemente usados nas formulações de problemas de agrupamento. Adicionalmente à significante característica de possuírem natureza bi-nível, as formulações matemáticas associadas têm a característica de serem fortemente não- diferenciáveis. A fim de superar essas dificuldades, a nova metodologia de resolução proposta adota uma estratégia de suavização usando uma especial função completamente diferenciável.

Com o propósito de demonstrar a eficiência e a robustez do método, resultados computacionais obtidos na resolução de um conjunto canônico de problemas teste para esses dois critérios, descritos na literatura, são apresentados.

Aprendizado não-supervisionado com divergências de Bregman
Heudson Mirandola (UFRJ)

O principal objetivo desta palestra é falar de geometria da informação. Falaremos de métricas Riemannianas, conexões duais e divergências. A fim de entendermos as principais diferenças do que já é feito usualmente em machine learning, aplicaremos esses conceitos a técnicas clássicas de clusterização.

A evolução das espécies é o processo pelo qual as espécies se modificam ao longo do tempo. A evolução inclui os processos evolutivos, tais como seleção natural, acaso, migração e mutação, que são as forçam que modificam as características das populações naturais. Tais modificações ocorrem em última análise nos genes, chamadas de mutações, e podem ser bem descritas matematicamente. Assim, o uso de modelos matemáticos nos estudos evolutivos resultaram em um poder discriminatório entre hipóteses filogenéticas alternativas. A consequência desse poder discriminatório é termos hoje um conhecimento previsto por Darwin, que é o conhecimento de árvores filogenéticas bem sustentadas estatisticamente para a maior parte dos grupos da diversidade biológica.

Em colaboração com Hugo Andrés Gutiérrez Rojas, Leonardo Trujillo Oyola, Priscila Pagung de Aquino Lapa e Maria Luiza Barcelos Zacharias.

A geometric approach to the Ising model
Hugo Dumnil-Copin (Université de Genève)
In this talk, we will discuss a geometric approach to the Ising model which is based on the so-called random-current representation. We will introduce this representation and review a few results obtained in the past few years.

General equilibrium with risk loving, Friedman-Savage and other preferences
Aloisio Araujo (IMPA)
The interactions between risk averse and risk lovers (or ambiguity lovers, Friedman-Savage and related behavior) have not yet been extensively analyzed in the general equilibrium literature due to the lack of convexity and, hence, failure or existence.
We show that the aggregate risk of wealth, as well as the dominance of risk aversion in the economy, plays a role in the existence Arrow-Debreu equilibria. This result can be extended to ambiguity in the sense of prospect theory in the sense of Jullien and Salanié (2000).
Additionally, we study properties of the equilibrium, such as conditions for risk sharing, decomposition of risk factor and ambiguity factor in prices, and also the impact of regulation on volatility, particularly for preferences with distorted probabilities with CARA utility functions. Our analyses suggest that regulation increases volatility for pro-cyclical assets while reducing their utility levels; however, risk lovers or optimists are those who incur the larger losses.

This talk discusses marginal screening for detecting the presence of significant predictors in high-dimensional regression. Screening large numbers of predictors for the presence of a significant association with response is a challenging problem. The difficulty is due to the non-regular behavior of the maximal sample correlation at the null hypothesis of interest in marginal screening. To address this problem, we propose a bootstrap approach that adapts to the non-regularity. The proposed approach provides a more powerful alternative to the popular (yet conservative) Bonferroni method of controlling familywise error rates in this setting. Two applications are discussed: 1) gene expression associated with the survival time of brain cancer patients, and 2) HIV mutations associated with ARV drug resistance.
Bayesian statistical thinking has had an enormous impact on sequential analysis and forecasting across a wide spectrum of areas– from core finance, to econometrics, to IT and many other fields. Nowadays, however, as we are faced with increasingly high-dimensional data with needs for increasingly fast data processing– coupled with basic interests in coherent summary inferences and predictions being rapidly revised– the continued emphasis on building bigger, more customized and hence more elaborate statistical models must be questioned.

Can we continue to drive conceptual innovation through the lens’ of computational power available, or is it a time to step-back and reconceptualise our modelling approaches to better utilize computation as we imagine it will evolve in the near-term?

Some recent developments in dynamic modelling represents a disjunction, and at least a professionally local paradigm shift in modelling approaches, in response to this question and challenge. Building “simple”, mathematically and computationally tractable models of univariate time series is a starting
point. “Decouple/Recouple” is an overlaid strategy for coherent Bayesian analysis: That is, “Decouple” a high-dimensional system into the lowest-level components for simple/fast analysis; and then, “Recouple”– on a sound theoretical basis– to rebuild the larger multivariate process for full/formal/coherent inferences and predictions.

My talk will discuss this in the context of the class of simultaneous dynamic graphical models. Our development of sequential filtering and forecasting analysis builds on the new decouple/recouple concept and also involves innovations in computation based on importance sampling and variational Bayes ideas,
which will be described and exemplified. Examples will be drawn from applications in macroeconomic forecasting for policy studies and/or financial time
series forecasting for portfolio decisions. The advances in Bayesian dynamic modelling– and in thinking about coherent and implementable strategies for scalability to higher-dimensions (i.e. to “big, dynamic data”)– are nicely exemplified in these contexts.

This work draws on current and research with Lutz Gruber and Zoey Zhao.

Dengue is the most important arboviral disease worldwide and a major public health problem in the tropics and subtropics. The dengue vector and virus are extremely sensitive to environmental conditions such as temperature, humidity and precipitation that influence mosquito biology, abundance, habitat and viral replication rate. Thus, such climatic factors must have significant influence on dengue propagation in the population.

The first analyses presented concern the quantification of the role of climate on dengue epidemics in Thailand and Cambodia provinces using wavelet decomposition to account for the non-stationary relationships.
The second analyses presented are related to mathematical modeling at different scales: provinces, districts or rural villages, using classical 1-strain or 2-strain dengue stochastic models with Bayesian inference. Exact inference was conducted using recently developed algorithms such as particle MCMC, coupled with an initial exploration of the likelihood surface with the extended Kalman filter. This allows model selection by a quantification of the importance of different models and of their underlying hypothesis through likelihood computation and statistical information criteria. First results show that vector dynamics or strain coexistence appears crucial to provide a coherent epidemic trajectory. This approach also permits reconstruction of the dynamics with time-varying transmission parameters showing that these time-varying parameters can be statistically related to local or global climatic forcing. Therefore, one can expect that forecast climate information has utility in a dengue decision support system using mechanistic models.