Ciclo de Palestras – Segundo Semestre de 2019

As palestras ocorrerem no Auditório do Laboratório de Sistemas Estocásticos (LSE), sala I-044b, nas quartas-feiras às 15h30, a menos de algumas exceções devidamente indicadas.

Lista completa (palestras previstas para datas futuras podem sofrer alterações)

11/12 (excepcionalmente às 14h)

Species distribution models (SDMs) are extremely useful for determining preferences and habitats for different species. Appropriate estimation of species distribution depends on the adequate random sampling scheme which isn’t always available. Instead, data is frequently composed of georeferenced locations where the species has been observed, which is commonly referred to as presence-only (PO) data. The statistical modelling of PO type data through Inhomogeneous Poisson Processes (IPP) was proposed by Fithian and Hastie (2013). As has already been noted (Fithian et al, 2015), PO type data presents bias in its sampling pattern, which must be addressed. A natural way to model this bias under IPP is through thinning of the process, which is easily performed using pertinent covariates and a logistic function. A different model for the intensity is proposed. It maintains the already established flexibility, while adding extra flexibility in the choice of covariates. Therefore, it is possible to have correlated and even the same covariates in the intensity and thinning components of the model. This is shown through simulated results. Additionally, it provides computational advantages for handling integrals that appear in the likelihood without resorting to approximations.

 

Os passeios aleatórios possuem notável importância na literatura, tanto por motivações teóricas quanto para a matemática aplicada, com um amplo conjunto de aplicações em modelagem estocástica. Por conta disso, teve-se interesse de estudar (começando nos anos 80) uma extensão natural dos passeios aleatórios que consiste em considerar não apenas um passeio, mas sim uma infinidade de passeios aleatórios evoluindo em um mesmo ambiente, de acordo com algumas regras de interação. A mais importante dessas regras estabelece que, quando há encontro de duas trajetórias, elas passam a evoluir sempre juntas (coalescem). No caso de uma única trajetória, já é de amplo conhecimento que há convergência em escala difusiva para o movimento browniano (Teorema de Donsker), mas a verificação de existência de um objeto limite em escala difusiva e a caracterização desse limite, quando avançamos para sistemas de passeios aleatórios coalescentes, já se torna algo bem mais complexo e com diversos problemas em aberto.

A apresentação será dividida em duas partes. Na primeira será feita uma breve revisão de literatura, explicando a ideia geral sobre o que é um sistema de passeios aleatórios coalescentes, quais são alguns dos principais candidatos a objeto limite em escala difusiva desse tipo de sistema (Brownian Web e Brownian Net) e qual a ideia central por trás das técnicas que são usadas para se verificar convergência desse tipo de sistema. Na segunda parte, será abordado especificamente o objetivo do meu trabalho de doutorado, que é verificar a existência de um objeto limite em escala difusiva e conseguir caracterizá-lo quando temos um tipo específico de sistema de passeios aleatórios coalescentes, chamado rede de drenagem com ramificação.

This work provides a flexible methodology for the class of finite mixture of regressions with scale mixture of skew-normal errors (SMSN-FMRM) introduced by Zeller et. al. (2016) , relaxing the constraints imposed by the authors during the estimation process. Based on the data augmentation principle and Markov chain Monte Carlo (MCMC) algorithms, a Bayesian inference procedure is developed. A simulation study is implemented in order to understand the possible effects caused by the restrictions and an example with a well known dataset illustrates the performance of the proposed methods.
Vários sistemas importantes consistem de processos aleatórios que interagem entre si. Um problema de grande interesse é entender como a estrutura das interações influencia os processos. Nesta palestra, responderemos a esta pergunta no caso em que os processos são difusões e a estrutura de interação é dada por um grafo possivelmente aleatório. Nossos resultados descrevem o comportamento das difusões no limite quando o número de vértices diverge. Sob algumas hipóteses razoáveis, há dois tipos de comportamento possível. O primeiro é o que ocorre quando o número médio de vizinhos de um vértice diverge: neste caso, são encontrados o mesmo limite e o mesmo princípio de grandes desvios que num grafo completo. No segundo caso, o número de vizinhos converge e o limite do processo tem a ver com difusões interagentes num grafo infinito (e potencialmente aleatório). No fim da palestra, falaremos brevemente de trabalhos em andamento sobre medidas de equilíbrio e estimação do modelo.

Trabalho em conjunto com Guilherme Reis (UFBA) e Lucas Stolerman (UCSD).

Richard Feynman e Roger Penrose ao trabalharem com cálculo de tensores perceberam que representações visuais eram melhores de compreender do que a notação simbólica.

Representações visuais na matemática e na ciência são bastante utilizadas para explicarmos a intuição por trás de um conceito. No entanto, muitas vezes pecam pela sua informalidade.
Será que podemos trabalhar com diagramas sem perder o rigor matemático? Nessa palestra vou apresentar uma linguagem com diagramas formal que pode descrever álgebra linear, redes neurais, circuitos elétricos, mecânica quântica, teoria de controles, entre outros campos, podendo também ser utilizada para explicar e demonstrar conceitos em sala de aula.

Introdução: O estudo do aborto provocado é de grande interesse em Saúde Pública, pois sabe-se que o aborto provocado, muitas vezes, inseguro, representa riscos indevidos para a saúde e a vida das mulheres, assim como gera consequências adversas, sociais e financeiras, para o sistema de saúde público e famílias. Dessa forma, é fundamental conhecer sua magnitude com o maior grau de precisão possível. Objetivo: Estimar o número de mulheres que fizeram abortos (provocados), nos últimos 12 meses anteriores à avaliação, nas 27 capitais brasileiras, com base em modelos hierárquicos, considerando o desenho amostral e a estrutura demográfica da população, além de informações indiretas baseadas na rede social de cada participante aleatoriamente selecionado da população em geral. Materiais e métodos: O presente projeto tem como fonte de dados a base de dados secundários de acesso restrito oriundos de Inquérito domiciliar nas 27 capitais em 2012, como parte de uma ampla Pesquisa Nacional sobre o uso de crack, já concluída. Os indivíduos amostrados aleatoriamente, via amostragem complexa, na população geral das 27 capitais brasileiras no inquérito domiciliar, que contemplou o emprego da metodologia “Network scale-up”, foram questionados sobre uma gama de perguntas. Dentre elas, a pergunta de interesse do presente projeto, foi: “Quantas mulheres você conhece que residem neste município e tiveram aborto provocado nos últimos 12 meses?”. Resultados: Das 13.611.082 mulheres de 15 a 49 anos residentes nas capitais do Brasil, 65.682 mulheres fizeram aborto provocado no período de 2011-2012, resultando numa incidência acumulada de 4,83 para cada 1.000 mulheres de 15 a 49 anos. Em média, as estimativas da incidência acumulada de mulheres que fizeram aborto foram superiores nas capitais das regiões Norte e Nordeste do Brasil, como pode ser visto em Boa Vista (RR) (9,81 IC95%[6,08; 14,60]), Aracaju (SE) (9,26 IC95%[5,66; 14,00]), São Luís (MA) (8,77 IC95%[5,47; 12,95]). No entanto, ao nível de 95% de credibilidade, não houve diferença significativa entre as estimativas nas capitais brasileiras. Conclusão: O abortamento provocado é uma prática recorrente entre as mulheres nas capitais brasileiras. A utilização de metodologias de estimação indireta é preferível em contextos de estigma e eventual criminalização, como mulheres que fizeram aborto nas capitais do Brasil, e o método Network Scale-up apresenta-se como um método promissor para estimar o tamanho de populações de difícil acesso, em diversas áreas do conhecimento, como a Saúde Pública.

Palavras-chave: Aborto induzido; Aborto provocado; Métodos de estimação; Modelos hierárquicos; Network scale-up method (NSUM).

The sample mean is often used to aggregate different unbiased estimates of a real parameter, producing a final estimate that is unbiased but possibly high-variance. As an alternative, the Bayesian median of means is proposed, an aggregation rule that roughly interpolates between the sample mean and median, resulting in estimates with much smaller variance at the expense of bias. While the procedure is non-parametric, its squared bias is asymptotically negligible relative to the variance, similar to maximum likelihood estimators. The Bayesian median of means is consistent, and concentration bounds for the estimator’s bias and L1 error are derived, as well as a fast non-randomized approximating algorithm. The performances of both the exact and the approximate procedures match that of the sample mean in low-variance settings, and exhibit much better results in high-variance scenarios. The empirical performances are examined in real and simulated data, and in applications such as importance sampling, cross-validation and bagging.
About one year ago, David Donoho (professor of statistics at Stanford) gave a talk in Vienna University with the title Data Science-the end of theory. Just some months later, on the ICM in Rio de Janeiro, he was awarded the Gauss prize for his work on compressed sensing methods. This presentation is related to another Donoho’s work, which is less known. The concept of a depth function was created by J. W. Tukey’s attempts to define multidimensional counterparts to median and quantiles, in late 70’s. While Tukey gave just an idea, it was Donoho who wrote the first theory of Tukey’s depth function in his Ph.D. thesis. Thereafter, many other proposals for depth functions have appeared, but the Tukey’s one is still most popular, although this concept does not belong to the mainstream methods in Data Science.