Não foi possível enviar o arquivo. Será algum problema com as permissões?
Diferenças
Aqui você vê as diferenças entre duas revisões dessa página.
Próxima revisão | Revisão anterior Próxima revisão Ambos lados da revisão seguinte | ||
disciplinas:ce227-2016-01:historico [2016/02/25 16:34] paulojus criada |
disciplinas:ce227-2016-01:historico [2016/05/12 17:40] paulojus |
||
---|---|---|---|
Linha 1: | Linha 1: | ||
- | ====== CE-227 - Primeiro semestre de 2014 ====== | + | ====== CE-227 - Primeiro semestre de 2016 ====== |
No quadro abaixo será anotado o conteúdo dado em cada aula do curso. \\ | No quadro abaixo será anotado o conteúdo dado em cada aula do curso. \\ | ||
Linha 15: | Linha 15: | ||
^ Data ^ Conteúdo ^ Leitura ^ Exercícios ^ Tópico ^ | ^ Data ^ Conteúdo ^ Leitura ^ Exercícios ^ Tópico ^ | ||
- | | 29/02 Seg |Teorema de Bayes: revisão, interpretações e generalização. Expressão probabilística de informação subjetiva, estimação baseada nos dados, estimação combinando informação prévia (subjetiva) e dados. Exemplo Binomial-Beta | [[#29/02|Ver abaixo]] | [[#29/02|Ver abaixo]] | | | + | | 29/02 Seg |Teorema de Bayes: revisão, interpretações e generalização. Expressão probabilística de informação subjetiva, estimação baseada nos dados, estimação combinando informação prévia (subjetiva) e dados. Exemplo Binomial-Beta | | [[#29/02|Ver abaixo]] | | |
+ | | 02/03 Qua |Conceitos e fundamentos da modelagem Bayesiana. Tipos e classificações de prioris. Posterioris analíticas, aproximadas e numéricas/amostragem. Comparações com abordagens não Bayesianas. Exemplo Binomial-Beta revisitado. | | [[#02/03|Ver abaixo]] | | | ||
+ | | 07/03 Seg |Elicitação de priori. Exemplo Binomial-Beta revisitado. Algorítimo para obtenção de parâmetros da priori a partir de opinião subjetiva. Implementação condicional. Informações nas prioris/verossimilhanças e posterioris | | [[#07/03|Ver abaixo]] | | | ||
+ | | 09/03 Qua |Aproximação normal da posteriori. Revisão de aproximação. Obtenção analítica e numérica. Exemplo computacional. Ilustração com Binomial-Beta | | [[#09/03|Ver abaixo]] | | | ||
+ | | 14/03 Seg |Aproximação discreta da priori/posteriori. Obtenção da posteriori por amostragem. Métodos: amostragem por rejeição e MCMC | | [[#14/03|Ver abaixo]] | | | ||
+ | | 16/03 Qua |Implementação computacional dos métodos descritos na aula anterior. | | | | | ||
+ | | 21/03 Seg |Apresentação e discussão crítica das implementações computacionais. | | | | | ||
+ | | 23/03 Qua |Discussão sobre Cap 1 do texto do curso. Paradigmas de inferência. | | | | | ||
+ | | 28/03 Seg |Discussão sobre Cap 2 do texto do curso. |Exercícios do Capítulo | | | | ||
+ | | 30/03 Seg |Discussão sobre Cap 3 do texto do curso (prioris). |Exercícios do Capítulo | | | | ||
+ | | 04/04 Seg |Inferência (bayesiana e não bayesiana) sobre o parâmetro variância de uma distribuição normal (com média fixa). Revisão conceitual e comparações. |{{:disciplinas:ce227:ce227-av01.pdf|arquivo discutido em aula}} | | | | ||
+ | | 06/04 Qua |desenvolver análises análogas às vistas na última aula para algum outro modelo com 1 parâmetro (excluindo da binomial ou algum dos parâmetros da normal) | | | | | ||
+ | | 11/04 Seg |Discussão das análises feitas pelos participantes do curso. Modelos com mais de um parâmetro - ideais fundamentais. Distribuições posterioris marginais, conjuntas e condicionais. |Cap 4 do material do curso | | | | ||
+ | | 13/04 Qua |Resumos da posteriori |Cap 5 do material do curso | |Preparar material para discussão sobre FBST | | ||
+ | | 18/04 Seg |Predição Bayesiana |Cap 6 do material do curso | |[[#18/04|Ver abaixo]] | | ||
+ | | 20/04 Qua |Testes FBST - parte 1/2 | | | | | ||
+ | | 25/04 Seg |Testes FBST - parte 2/2 e revisão/dúvidas para prova | | | | | ||
+ | | 27/04 Qua |1a prova | | | | | ||
+ | | 02/05 Seg |Discussão da 1a prova | | | | | ||
+ | | 04/05 Qua |Atividades dos alunos - revisão da prova | | | | | ||
+ | | 09/05 Seg |Discussão da prova e detalhamento do problema da questão 5 | | |[[#09/05|Ver abaixo]] | | ||
+ | | 11/05 Qua |Discussão Caps 7 e 8 do material | | |[[#11/05|Ver abaixo]] | | ||
+ | === 29/02 === | ||
+ | Manifestar uma opinião subjetiva sobre o parâmetro de uma distribuição binomial. (basear-se no contexto de intenção de voto discutido em aula) | ||
+ | |||
+ | === 02/03 === | ||
+ | Encontrar um algoritmo que especifique os parâmetros de uma distribuição Beta a partir da opinião subjetiva manifestada. | ||
+ | |||
+ | === 07/03 === | ||
+ | Encontrar a aproximação normal para a posteriori do exemplo beta-binomial | ||
+ | |||
+ | === 09/03 === | ||
+ | Propor e implementar um algorítimo para obtenção de amostras da posteriori do exemplo discutido no curso. | ||
+ | |||
+ | === 14/03 === | ||
+ | Propor e implementar algorítimos para discretização da posteriori e amostragem via métodos a rejeição e MCMC. | ||
+ | |||
+ | === 18/04 === | ||
+ | Considere o modelo de verossimilhança <latex>[Y|\mu, \sigma^2] \sim N(\theta, \sigma^2)</latex> e a priori <latex>\tau = 1/\sigma^2 \sim Ga(a, b)</latex>. Mostre como obter a densidade: \\ <latex>[Y|\theta, a, b] = \frac{\Gamma((n/2)+a)}{\pi^{n/2} \Gamma(a) (\sum_i (x_i - \theta)^2 + 2b)^{(n/2)+a}}</latex>. \\ Como este resultado pode ser interpretado? | ||
+ | |||
+ | === 09/05 === | ||
+ | - Obter os resultados analíticos possíveis para o problema da questão 5 da prova (posteriori, constante de integração, aproximação quadrática, etc) | ||
+ | - Implementar os diferentes métodos para inferência baseada na posteriori (exata, aproximação normal, discretização, amostragem) | ||
+ | |||
+ | === 11/05 === | ||
+ | - Derivar os expressões das condicionais completas no problema do ponto de mudança da Poisson (ex. do capitulo 8) | ||
+ | - Implementar o algorítmo de Gibbs para este exemplo. | ||