Disponível para Projetos

Alysson Ribeiro

Business Intelligence & Data Engineer

Mais de 7 anos de experiência em Business Intelligence e Engenharia de Dados, com atuação nos setores financeiro, bancário, segurador e de saneamento. Especialista em ETL, modelagem dimensional e dashboards analíticos.

Alysson Ribeiro
7+
Anos de Experiência
5
Certificações Microsoft
3
Setores de Atuação
Linhas de SQL

Dados contam histórias.
Eu as traduzo para o negócio.

Atuo como Analista de BI e Engenheiro de Dados Sênior, com mais de 7 anos de experiência em Business Intelligence, integração e modelagem de dados nos setores financeiro, segurador, bancário e de saneamento.

Possuo experiência consolidada com produtos financeiros como financiamentos, previdência, seguros, consórcios e capitalização, além de forte atuação em governança de dados com aplicação do framework DAMA-DMBOK e conformidade com a LGPD.

Minha formação inclui graduação em Sistemas de Informação e especialização em Inteligência Artificial, complementada por 5 certificações Microsoft em Azure, Power BI, Fabric e Database.

Modelagem de Dados

Modelos relacional (3FN) e multidimensional (estrela/floco de neve) com PowerDesigner e ER/Studio.

Governança de Dados

Framework DAMA-DMBOK, qualidade de dados, metadados e conformidade LGPD.

ETL & Integração

Pipelines com SSIS, IBM DataStage e QualityStage para integração de dados em larga escala.

Dashboards & Analytics

Power BI, MicroStrategy e Report Builder para visualizações interativas e tomada de decisão.

Ferramentas & Tecnologias

Stack completa para análise de dados, business intelligence e engenharia de dados.

Bancos de Dados

SQL Server Oracle PostgreSQL T-SQL PL/SQL SAP Hana

Business Intelligence

Power BI DAX MicroStrategy Report Builder Microsoft Fabric OLAP

ETL & Data Engineering

SSIS IBM DataStage QualityStage Information Analyzer Data Pipelines

Modelagem de Dados

PowerDesigner ER/Studio 3ª Forma Normal Modelo Estrela Floco de Neve

Governança & Qualidade

DAMA-DMBOK LGPD Qualidade de Dados Dados Mestres Metadados

Cloud & Plataformas

Microsoft Fabric Azure Power BI Service Python Direct Lake

Projetos em Destaque

Soluções de dados que geram impacto real em compliance, eficiência operacional e governança.

Seguros & Comissionamento

Plataforma Analítica de Comissionamento

Modelagem relacional e multidimensional para validação de dados de pagamento e comissionamento de seguros, capitalização, consórcios e previdência. Dashboards interativos no Power BI para insights à diretoria.

Power BI SQL Server SSIS SAP Hana
ETL & Integração

Pipelines de Integração em Larga Escala

Desenvolvimento e sustentação de processos ETL com IBM DataStage, QualityStage e SSIS para integração de dados mestres e de referência, garantindo qualidade e conformidade com LGPD.

IBM DataStage QualityStage SSIS Oracle
Compliance Regulatório

Relatórios SUSEP & Monitoramento

Análise de dados de emissões, baixas e sinistros com geração de relatórios regulatórios (PREMIT, PREMRECEB). Automação de rotinas de conformidade com regras de comissionamento enviadas à SUSEP.

T-SQL Power BI Report Builder SUSEP
Arquitetura de Dados

Modernização com Microsoft Fabric

Migração de ambientes legados para arquitetura híbrida com Microsoft Fabric, Direct Lake e SQL Server mirroring. Modelagem dimensional e dashboards de compliance regulatório para o setor de saneamento.

Microsoft Fabric Direct Lake Power BI DAX

Dashboards em Destaque

Uma amostra dos dashboards interativos que desenvolvi ao longo da carreira.

Dashboard 1 — Adicione sua imagem

Dashboard de Comissionamento

Power BI · Validação de pagamentos de seguros e previdência

Dashboard 2 — Adicione sua imagem

Monitoramento Regulatório

Power BI · Compliance e prazos ADASA/SUSEP

Dashboard 3 — Adicione sua imagem

Análise Operacional

Power BI · KPIs e métricas de performance

Dashboard 4 — Adicione sua imagem

Painel de Governança

Power BI · Qualidade de dados e metadados

Códigos & Scripts

Exemplos de código SQL, Python e DAX que demonstram minha abordagem técnica.

comissionamento_validacao.sql
-- Validação de pagamentos de comissionamento
-- Cruza dados de emissão com regras de negócio

WITH base_comissao AS (
    SELECT
        c.id_corretor,
        c.nome_corretor,
        p.nr_proposta,
        p.cd_produto,
        p.vl_premio,
        p.vl_comissao,
        p.dt_emissao,
        r.pct_comissao AS pct_esperado,
        ROUND(p.vl_premio * r.pct_comissao / 100, 2) AS vl_comissao_esperado
    FROM dbo.fato_producao p
    INNER JOIN dbo.dim_corretor c
        ON p.id_corretor = c.id_corretor
    INNER JOIN dbo.regra_comissao r
        ON p.cd_produto = r.cd_produto
        AND p.dt_emissao BETWEEN r.dt_inicio AND r.dt_fim
    WHERE p.dt_emissao >= '2024-01-01'
)
SELECT
    id_corretor,
    nome_corretor,
    COUNT(*) AS qtd_propostas,
    SUM(vl_comissao) AS total_pago,
    SUM(vl_comissao_esperado) AS total_esperado,
    SUM(vl_comissao) - SUM(vl_comissao_esperado) AS diferenca
FROM base_comissao
GROUP BY id_corretor, nome_corretor
HAVING ABS(SUM(vl_comissao) - SUM(vl_comissao_esperado)) > 0.01
ORDER BY diferenca DESC;

Query de validação que cruza produção com regras de comissionamento, identificando divergências entre valores pagos e esperados por corretor.

1 / 2
etl_pipeline.py
# Pipeline ETL para processamento de dados de produção
# Extrai do banco, transforma e carrega no data warehouse

import pandas as pd
from sqlalchemy import create_engine
from datetime import datetime

def extrair_producao(engine, data_inicio):
    """Extrai dados de produção a partir da data informada."""
    query = f"""
        SELECT id_proposta, cd_produto, vl_premio,
               dt_emissao, cd_corretor, cd_status
        FROM producao.propostas
        WHERE dt_emissao >= '{data_inicio}'
          AND cd_status = 'EMI'
    """
    return pd.read_sql(query, engine)

def transformar_dados(df):
    """Aplica regras de negócio e limpeza."""
    df['dt_emissao'] = pd.to_datetime(df['dt_emissao'])
    df['ano_mes'] = df['dt_emissao'].dt.to_period('M')
    df['faixa_premio'] = pd.cut(
        df['vl_premio'],
        bins=[0, 1000, 5000, 20000, float('inf')],
        labels=['Baixo', 'Médio', 'Alto', 'Premium']
    )
    df = df.dropna(subset=['cd_corretor'])
    return df

def carregar_dw(df, engine_dw):
    """Carrega dados transformados no DW."""
    df.to_sql(
        name='fato_producao',
        con=engine_dw,
        if_exists='append',
        index=False,
        chunksize=5000
    )
    print(f"[{datetime.now()}] {len(df)} registros carregados.")

if __name__ == '__main__':
    src = create_engine('mssql+pyodbc://server/db_prod')
    dwh = create_engine('mssql+pyodbc://server/dw')

    dados = extrair_producao(src, '2024-01-01')
    dados = transformar_dados(dados)
    carregar_dw(dados, dwh)

Pipeline ETL em Python usando Pandas e SQLAlchemy para extração, transformação e carga de dados de produção no data warehouse.

1 / 2
medidas_comissionamento.dax
// Medidas DAX para análise de comissionamento
// Usadas nos dashboards de acompanhamento gerencial

% Atingimento Meta =
VAR _realizado =
    SUM( fato_producao[vl_premio] )
VAR _meta =
    SUM( dim_meta[vl_meta] )
RETURN
    DIVIDE( _realizado, _meta, 0 )

// Comissão acumulada com filtro de contexto
Comissão YTD =
CALCULATE(
    SUM( fato_comissao[vl_comissao] ),
    DATESYTD( dim_calendario[dt_referencia] )
)

// Ranking de corretores por produção
Ranking Corretor =
RANKX(
    ALL( dim_corretor[nome_corretor] ),
    [Total Prêmio],
    ,
    DESC,
    Dense
)

// Variação mês a mês
Variação MoM =
VAR _atual = [Total Prêmio]
VAR _anterior =
    CALCULATE(
        [Total Prêmio],
        DATEADD( dim_calendario[dt_referencia], -1, MONTH )
    )
RETURN
    DIVIDE( _atual - _anterior, _anterior, 0 )

Medidas DAX para dashboards de comissionamento: atingimento de meta, acumulado YTD, ranking de corretores e variação mensal.

1 / 1

Experiência Profissional

Construindo soluções de dados que impactam decisões organizacionais.

Educação & Credenciais

Formação Acadêmica

Especialização em Inteligência Artificial

IESB — Instituto de Ensino Superior de Brasília · 2021

Graduação em Sistemas de Informação

Faculdade Projeção · 2018

Certificações Microsoft

Engenheiro Associado de Análise em Fabric

Microsoft · 2025

Engenheiro de Dados Associado do Fabric

Microsoft · 2025

Power BI Data Analyst Associate

Microsoft · 2024

Azure Data Fundamentals

Microsoft · 2023

MTA Database Fundamentals

Microsoft · 2018

Abr. 2025 – Atual

Analista de Business Intelligence Sênior

Stefanini

Levantamento de requisitos, construção de dashboards, desenvolvimento de pipelines ETL e modelagem dimensional (estrela e floco de neve). Criação e otimização de dashboards interativos no Power BI. Desenvolvimento e manutenção de processos ETL com T-SQL e SSIS.

Abr. 2025 – Ago. 2025

Analista de Gestão e Integração de Dados Pleno

POUPEX

Integração de sistemas, definição de arquitetura e suporte a usuários finais. Sustentação de bancos de dados Oracle e SQL Server. Desenvolvimento de ETL com IBM DataStage e QualityStage. Atuação ativa em governança de dados com foco em qualidade, metadados e LGPD.

Out. 2017 – Abr. 2025

Analista de BI — Junior → Pleno → Sênior

CNP Seguradora

Evolução de Junior a Sênior ao longo de 7+ anos. Modelagem relacional e multidimensional para comissionamento de seguros, previdência e consórcios. Desenvolvimento de análises SQL para diretoria, dashboards Power BI, automação com SSIS, e relatórios regulatórios para a SUSEP (PREMIT, PREMRECEB). Tuning de performance e sustentação de rotinas críticas.

Vamos Conversar?

Aberto para novas oportunidades, colaborações e projetos de dados.