pt-br

Defesa de Doutorado - Juliana Sabino Ferreira

Titulo:  Previsão de curto prazo de explosões solares de média e alta intensidade: uma comparação entre Transformers e modelos clássicos

Comissão Examinadora - Titulares 
Prof. Dr.  André Leon Sampaio Gradvohl (Presidente) - FT/Unicamp
Profa. Dra. Marcela Xavier Ribeiro - UFSCAR
Prof. Dr. José Roberto Cecatto - INPE
Prof. Dr. Paulo José de Aguiar Simões - Mackenzie
Prof. Dr. Leandro Augusto da Silva - Mackenzie

Suplentes 
Prof. Dr. Matheus Bernardelli de Moraes - CTI Renato Archer 
Prof. Dr. Danilo Rodrigues Pereira - Cotil/Unicamp
Prof. Dr. Tiago Cinto - IFRS

Local - Sala de Defesa (Prédio da Pós-Graduação FT) |  https://stream.meet.google.com/stream/8386bad4-bb13-403b-a112-2a101194b72e

Resumo:  As explosões solares são eventos violentos e repentinos que ocorrem na atmosfera do Sol e liberam grandes quantidades de energia na forma de radiação. Esses fenômenos podem impactar diretamente sistemas tecnológicos na Terra e em sua órbita, resultando em perdas financeiras e riscos à vida humana. Diante disso, a previsão dessas erupções torna-se crucial para mitigar seus efeitos. O monitoramento da atividade solar é realizado por meio de instrumentos especializados, que fornecem dados que podem ser analisados por modelos de aprendizado de máquina. No entanto, observamos que a maioria dos trabalhos se concentra em janelas de previsão de 24 h, enquanto abordagens de curto prazo, como o nowcasting (janela de 6 h), são pouco exploradas. Assim, neste trabalho desenvolvemos modelos de previsão de explosões solares em uma janela de 6 h, utilizando dados numéricos da base SHARP. Implementamos diferentes algoritmos de aprendizado de máquina, entre eles os Transformers, MLP, SVM e LSTM, visando comparar seu desempenho em um cenário de previsão de curto prazo. Particularmente no caso dos Transformers, exploramos quatro abordagens: (i) um modelo convencional aplicado à tarefa de classificação; (ii) o FT-Transformers, um modelo otimizado para dados tabulares; (iii) uma implementação adaptada para séries temporais; e (iv) o TabPFN, um modelo pré-treinado baseado em Transformers. No caso do TabPFN, o modelo foi pré-treinado em bases de dados de uso geral. Nosso objetivo, além de comparar o desempenho dos Transformers com modelos clássicos, foi verificar se o uso dessas quatro abordagens usando Transformers traria melhorias nos resultados, considerando nossa janela de 6 h com os parâmetros SHARP. Para avaliação, não escolhemos somente um limiar de decisão dos nossos modelos, e sim, verificamos como diferentes limiares influenciam nos resultados. Observamos que limiares menores favoreceram TSS e TPR, enquanto limiares maiores apresentaram melhores valores de HSS e TNR. Entre os resultados, destacamos o modelo TabPFN, que atingiu TSS = 0,79, resultado ligeiramente superior que os outros modelos analisados, mas com um tempo de treinamento significativamente menor se comparado com os outros modelos baseados em Deep Learning usados neste estudo.

Data: 
terça-feira, 24 Fevereiro, 2026 - 14:00