1. Estruturação de bases
Crio e organizo datasets com SQL e Athena para sustentar indicadores confiáveis, com foco em fonte única de verdade, consistência e escalabilidade.
Olá, meu nome é
Transformar dados brutos em informação acessível é o propósito que me move.
Atualmente focada na construção de bases especializadas para observabilidade de Qualidade, automação de fluxos com AWS Glue e visualização de indicadores com QuickSight, unindo rigor analítico à melhoria contínua de processos.
Atuo no Itaú Unibanco em um papel cross, onde utilizo minha comunicação estratégica para traduzir necessidades de negócio em estruturas de dados eficientes, rastreáveis e preparadas para escala.
Minha trajetória é marcada por aprendizado rápido e adaptabilidade, o que me permitiu navegar ferramentas como Athena e AWS Glue em pouco tempo e aplicá-las em cenários reais com impacto direto em indicadores de qualidade.
Aplico resiliência, troubleshooting e documentação clara para garantir a integridade do dado desde a ingestão em AWS Glue até a entrega final em dashboards no QuickSight.
Evidências: processos de ETL automatizados, datasets escaláveis e confiáveis, dashboards autogerenciáveis e uma atuação colaborativa que reduz a distância entre tecnologia, qualidade e negócio.
Minha atuação percorre o processo de dados end-to-end: estruturação de bases sólidas e escaláveis, exploração técnica, documentação clara e construção de visões que sustentam a observabilidade de Qualidade e a melhoria contínua de processos.
Crio e organizo datasets com SQL e Athena para sustentar indicadores confiáveis, com foco em fonte única de verdade, consistência e escalabilidade.
Investigo dados brutos para identificar padrões, falhas de preenchimento e anomalias antes que a informação avance para consumo analítico.
Construo dashboards no QuickSight para transformar métricas técnicas em leitura objetiva para times de tecnologia e stakeholders de negócio.
Registro regras, estruturas e decisões técnicas para garantir continuidade, rastreabilidade e orientação dos times para melhoria contínua de processos.
Aplicação de princípios de metodologia ágil e aprendizado contínuo.
Competências Estratégicas
Competências que conectam visão de negócio, clareza operacional e sustentação técnica no dia a dia da engenharia de dados.
Stack utilizada para estruturar dados, automatizar rotinas, sustentar observabilidade de qualidade e disponibilizar análises confiáveis para consumo interno.
Estagiária em Dados & Qualidade
Vice-líder geral e liderança de frentes
Desenvolvimento de Hard Skills em Tecnologia
Estruturação de uma base governada para transformar indicadores de qualidade em self-service confiável, com rastreabilidade desde a exploração até o consumo analítico.
Otimização e padronização da base de dados com aumento de confiabilidade, autonomia analítica e eficiência operacional.
Problema: Dados de qualidade de software estavam dispersos, pouco padronizados e exigiam exploração manual frequente, o que reduzia a confiança nas métricas.
Decisão: Explorar e estruturar os dados com Jupyter Notebooks (AWS Glue), Python, Apache Iceberg e Athena para criar um dataset governado e performático.
Resultado: Implementação de uma fonte única de verdade para sustentar visualizações no QuickSight com mais integridade e autonomia de consumo.
Sinal de sucesso: Disponibilização de datasets confiáveis, menor tempo de resposta para visualização e ganhos de custo e performance.
Pipeline distribuído para transformar arquivos brutos da CVM em camadas analíticas prontas para leitura de tendências e monitoramento de mercado.
Processamento distribuído com Spark, camadas Medallion e leitura analítica preparada para governança e monitoramento de mercado.
Problema: Informes diários de fundos da CVM chegavam em alto volume, com metadados faltantes e baixa padronização, dificultando análises ágeis de tendência.
Decisão: Implementar uma Arquitetura Medallion com PySpark, organizando o fluxo em Bronze, Silver e Gold com Apache Parquet e compressão Snappy.
Resultado: Consolidação de uma fonte única de verdade que permitiu identificar uma euforia no mercado em janeiro de 2024, com captação líquida acima de R$ 109 bilhões.
Sinal de sucesso: Pipeline automatizado, menor tempo de processamento e datasets prontos para dashboards analíticos com governança.
Implementação de frameworks de validação como Great Expectations para garantir integridade dos dados desde o S3 até o consumo final, reduzindo débitos técnicos.
Automação e orquestração de workflows de dados com AWS Step Functions e Airflow, implementando monitoramento, retry e escalabilidade em pipelines de ingestão e transformação.
Vamos conversar?
Atualmente atuo como estagiária em Dados e Qualidade no Itaú, focada na construção de bases especializadas, observabilidade de qualidade e visualização de indicadores. Estou aberta a conexões e trocas sobre tecnologia e dados.