Olá, meu nome é

Letycia Andrade Locha.

Engenheira de Dados & Analytics Estagiária em Dados e Qualidade

Transformar dados brutos em informação acessível é o propósito que me move.

Atualmente focada na construção de bases especializadas para observabilidade de Qualidade, automação de fluxos com AWS Glue e visualização de indicadores com QuickSight, unindo rigor analítico à melhoria contínua de processos.

Letycia Andrade Locha — Engenheira de Dados e Analytics
02.

Sobre Mim

Atuo no Itaú Unibanco em um papel cross, onde utilizo minha comunicação estratégica para traduzir necessidades de negócio em estruturas de dados eficientes, rastreáveis e preparadas para escala.

Minha trajetória é marcada por aprendizado rápido e adaptabilidade, o que me permitiu navegar ferramentas como Athena e AWS Glue em pouco tempo e aplicá-las em cenários reais com impacto direto em indicadores de qualidade.

Aplico resiliência, troubleshooting e documentação clara para garantir a integridade do dado desde a ingestão em AWS Glue até a entrega final em dashboards no QuickSight.

Evidências: processos de ETL automatizados, datasets escaláveis e confiáveis, dashboards autogerenciáveis e uma atuação colaborativa que reduz a distância entre tecnologia, qualidade e negócio.

03.

Atuação

Minha atuação percorre o processo de dados end-to-end: estruturação de bases sólidas e escaláveis, exploração técnica, documentação clara e construção de visões que sustentam a observabilidade de Qualidade e a melhoria contínua de processos.

1. Estruturação de bases

Crio e organizo datasets com SQL e Athena para sustentar indicadores confiáveis, com foco em fonte única de verdade, consistência e escalabilidade.

2. Exploração e validação

Investigo dados brutos para identificar padrões, falhas de preenchimento e anomalias antes que a informação avance para consumo analítico.

3. Visualização orientada à decisão

Construo dashboards no QuickSight para transformar métricas técnicas em leitura objetiva para times de tecnologia e stakeholders de negócio.

4. Documentação e melhoria contínua

Registro regras, estruturas e decisões técnicas para garantir continuidade, rastreabilidade e orientação dos times para melhoria contínua de processos.

5. Evolução contínua

Aplicação de princípios de metodologia ágil e aprendizado contínuo.

Competências Estratégicas

Competências que conectam visão de negócio, clareza operacional e sustentação técnica no dia a dia da engenharia de dados.

Maturidade Profissional

  • Decisões guiadas por evidências e contexto técnico.
  • Autonomia para organizar entregas com foco em resolução.
  • Adaptabilidade para navegar cenários novos com rapidez.
  • Boa visão de processos para identificar gargalos e oportunidades.

Mentalidade Investigativa

  • Troubleshooting com rigor analítico e senso crítico.
  • Validação de métricas com atenção à integridade da fonte.
  • Aprendizado ágil para ampliar repertório técnico continuamente.
  • Visão analítica para transformar dados brutos em insights acionáveis.

Comunicação Cross

  • Interface clara entre tecnologia, qualidade e negócio.
  • Documentação objetiva para reduzir ruído entre áreas.
  • Facilitação de alinhamentos, mentorias e trocas técnicas.
04.

Ferramentas & Tecnologias

Stack utilizada para estruturar dados, automatizar rotinas, sustentar observabilidade de qualidade e disponibilizar análises confiáveis para consumo interno.

SQL
Athena
Python
Pandas
AWS Glue
QuickSight
Iceberg
AWS
PySpark
Jupyter
AWS S3
Google Colab
Numpy
Plotly
Matplotlib
Step Functions
AWS EMR
SQLite
05.

Experiência Profissional

Itaú Unibanco

2025 — Presente

Estagiária em Dados & Qualidade

  • Desenvolvimento de dashboards no AWS QuickSight para monitoramento de indicadores de Qualidade de Software.
  • Estruturação e manipulação de grandes volumes de dados utilizando SQL e AWS Athena.
  • Exploração e análise de dados técnicos para identificação de padrões e garantia de integridade nas métricas de Qualidade.
  • Suporte técnico na manutenção de scripts e acompanhamento de metadados no ecossistema AWS, com foco em S3 e Glue.
  • Construção de bases especializadas para sustentar indicadores confiáveis de qualidade e observabilidade.
  • Atuação com tabelas SOR (System of Record) e SOT (Source of Truth) para rastreabilidade e consistência dos dados.
  • Trabalho dentro do contexto consumer no AWS Glue, construindo Jobs para ingestão e transformação de dados.
  • Análise de métricas e indicadores de Qualidade da frente de atuação, orientando os times para melhoria contínua de processos.

Liderança - Atuação Voluntária

Comunidade ProGirls

Vice-líder geral e liderança de frentes

  • Estruturação de regimentos internos para dar clareza de papéis, fluxo de trabalho e continuidade operacional à comunidade.
  • Documentação de processos, combinados e materiais de apoio para padronizar a organização interna.
  • Organização de iniciativas, frentes de trabalho e rotinas colaborativas com foco em execução sustentável.
  • Atuação como porta-voz em eventos e mentorias de tecnologia, fortalecendo comunicação, representatividade e rede.

Projetos de Desenvolvimento Técnico

Foco em Engenharia de Dados

Desenvolvimento de Hard Skills em Tecnologia

  • Aplicação de Estatística e análise de dados para extração de insights em bases brutas.
  • Desenvolvimento de scripts em Python para automação de tarefas e tratamento de arquivos JSON e CSV.
  • Modelagem de bancos de dados relacionais e otimização de consultas complexas em SQL.
  • Estudos em Back-end e Business Intelligence para compreensão do ciclo de vida completo do dado.
  • Implementação de pipelines de dados utilizando AWS Glue para ingestão e transformação automatizada.

Dedicação e Estudos

400h+ SQL & Athena
300h+ Python & Glue
480h+ AWS Services
06.

Projetos

Governança e Self-Service de Indicadores de Qualidade

Estruturação de uma base governada para transformar indicadores de qualidade em self-service confiável, com rastreabilidade desde a exploração até o consumo analítico.

Otimização e padronização da base de dados com aumento de confiabilidade, autonomia analítica e eficiência operacional.

Problema: Dados de qualidade de software estavam dispersos, pouco padronizados e exigiam exploração manual frequente, o que reduzia a confiança nas métricas.

Decisão: Explorar e estruturar os dados com Jupyter Notebooks (AWS Glue), Python, Apache Iceberg e Athena para criar um dataset governado e performático.

Resultado: Implementação de uma fonte única de verdade para sustentar visualizações no QuickSight com mais integridade e autonomia de consumo.

Sinal de sucesso: Disponibilização de datasets confiáveis, menor tempo de resposta para visualização e ganhos de custo e performance.

Python AWS Glue Apache Iceberg SQL / Athena QuickSight

Engenharia de Dados e Analytics: Fluxo de Fundos de Investimento (CVM)

Pipeline distribuído para transformar arquivos brutos da CVM em camadas analíticas prontas para leitura de tendências e monitoramento de mercado.

Processamento distribuído com Spark, camadas Medallion e leitura analítica preparada para governança e monitoramento de mercado.

Problema: Informes diários de fundos da CVM chegavam em alto volume, com metadados faltantes e baixa padronização, dificultando análises ágeis de tendência.

Decisão: Implementar uma Arquitetura Medallion com PySpark, organizando o fluxo em Bronze, Silver e Gold com Apache Parquet e compressão Snappy.

Resultado: Consolidação de uma fonte única de verdade que permitiu identificar uma euforia no mercado em janeiro de 2024, com captação líquida acima de R$ 109 bilhões.

Sinal de sucesso: Pipeline automatizado, menor tempo de processamento e datasets prontos para dashboards analíticos com governança.

Python PySpark Apache Parquet Arquitetura Medallion Analytics / Plotly Git Flow
07.

Projetos em Andamento & Aprendizado Contínuo

Q2 2026

Data Quality & Observabilidade

Implementação de frameworks de validação como Great Expectations para garantir integridade dos dados desde o S3 até o consumo final, reduzindo débitos técnicos.

Contínuo

Orquestração de Pipelines de Dados

Automação e orquestração de workflows de dados com AWS Step Functions e Airflow, implementando monitoramento, retry e escalabilidade em pipelines de ingestão e transformação.

08.

Contato

Vamos conversar?

Atualmente atuo como estagiária em Dados e Qualidade no Itaú, focada na construção de bases especializadas, observabilidade de qualidade e visualização de indicadores. Estou aberta a conexões e trocas sobre tecnologia e dados.