

Continuare a crescere nel mondo del Data Engineering e della Cloud Architecture, guidando soluzioni che abilitano innovazione, valore e insight attraverso i dati.
Professionista senior nel campo del Data Engineering e Data Architecture, con una consolidata esperienza nella progettazione di soluzioni dati scalabili, affidabili e governate, a supporto dei processi decisionali e delle strategie aziendali. Guidata dall’innovazione e dalla trasformazione digitale, mi occupo di modernizzazione dei sistemi informativi, architetture cloud e gestione di dati critici in contesti enterprise, bancari e pubblici. Specializzata in Database Administration, ETL Enterprise, Data Integration e Cloud Data Platform, con competenze avanzate su SQL Server, Oracle, PostgreSQL, Teradata, Microsoft Fabric, Azure Data Factory, Informatica PowerCenter e IBM DataStage. Ho maturato una solida esperienza nella modellazione dati, nella Data Governance, nell’implementazione di processi metadata-driven, logging & auditing, con particolare attenzione a compliance, sicurezza, lineage e performance. Con un background in Economia e Commercio, unisco visione tecnica e funzionale, garantendo soluzioni che trasformano i dati in asset strategici, supportano la Data Strategy aziendale e generano reale valore di business. Abituata a lavorare in contesti complessi e dinamici, gestisco progetti mission-critical, coordino team multidisciplinari, supporto stakeholder istituzionali e garantisco qualità, continuità operativa e impatto strategico.
Settembre 2023 – Oggi
Senior Consultant — Data Engineering, Database Architecture & Cloud Solutions
In Avanade svolgo un ruolo tecnico-senior focalizzato su Data Engineering, Database Administration e Cloud Architecture, con responsabilità su progettazione di architetture dati scalabili in Azure, modellazione di sistemi ad alte performance, sviluppo di pipeline ETL/ELT con ADF e Microsoft Fabric, definizione di framework di logging e metadata governance, tuning avanzato di database e processi mission-critical.
Luglio 2025 – Oggi
Database Administrator & Data Architect
Ho contribuito alla modernizzazione end-to-end dell’architettura dati del Sistema Informativo del Lavoro regionale, caratterizzato da elevata complessità e criticità istituzionale. Mi sono occupata della revisione completa del modello dati su politiche attive, presa in carico, servizi specialistici, CPI, PATTO lavoratore e contratti, garantendo coerenza tra fonti, processi e strumenti di reporting. Ho progettato e implementato un framework di logging multilivello (Master → Child → Copy) basato su parametri runtime, GUID dinamici e configurazioni tabellari, rendendo tracciabili e monitorabili tutte le pipeline ETL orchestrate tramite Azure Data Factory. Ho introdotto meccanismi di metadata-driven orchestration, lineage completo, auditing, notification e granular access control, assicurando la conformità normativa (GOL, ESF, GDPR, PNRR) e gli standard ANPAL. Ho effettuato refactoring di stored procedure critiche, ottimizzandole fino al 60% in termini di performance.
Tecnologie:SQL Server, PostgreSQL, Oracle, Azure Data Factory, Microsoft Fabric (Lakehouse, Warehouse), Python, DevOps, ER Modeling, Data Governance, GDPR tagging, Logging Framework.
Ottobre 2025 – Dicembre 2025
Technical Data Architect & SME Advisory
In un contesto bancario regolamentato, ho supportato la definizione dell'architettura dati conforme agli standard BCBS239, GDPR, IFRS9 e audit trail per la tracciabilità delle transazioni finanziarie. Ho progettato un modello dati orientato alla compliance, auditabilità e classificazione dei record sensibili. Ho guidato l’implementazione di flussi ETL da sistemi legacy Oracle e DB2 verso un modello DataVault con ADF, implementando logiche di encryption, masking, pseudonimizzazione e gestione dei metadati critici. Ho affiancato i team Risk Management, Model Risk e Information Security nella definizione di data governance, controllo qualità e mapping dei flussi regolamentari.
Tecnologie:Oracle, DB2, SQL Server, Azure ADF, DataVault, Encryption & Masking, GDPR Compliance, DevOps, Data Lineage, Risk Management.
Aprile 2025 – Maggio 2025
Business Developer & Technical Coach
Ho supportato l’analisi e l’ottimizzazione dei flussi dati post-vendita di Maserati, relativi a manutenzioni, tracking veicolo, contratti di assistenza e customer care. Ho introdotto modelli di Data Enrichment per migliorare la qualità informativa e abilitare metriche avanzate per la customer experience e performance delle officine nella rete globale. Ho svolto attività di mentoring tecnico, documentazione, SQL optimization e definizione di un modello dati integrato per customer profiling e service KPIs.
Tecnologie:SQL Server, Data Modeling, Power BI, Azure, Python, Data Enrichment, Customer Analytics.
Settembre 2024 – Gennaio 2025 Query Optimization Specialist
Mi sono occupata del refactoring avanzato di oltre 180 stored procedure complesse su SQL Server e Oracle, con focus su parallel processing, reingegnerizzazione delle query, indicizzazione dinamica, function pushdown e ottimizzazione dei piani di esecuzione. Ho introdotto logiche di cursor rewrite, materialized views e incremental loads, riducendo i tempi di elaborazione ETL da 11 ore a circa 75 minuti.
Tecnologie:SQL Server, Oracle, Query Store, Performance Tuning, Parallelism, Dynamic Indexing.
Estate 2024
Data Migration Specialist
Ho progettato l’architettura di migrazione dati da sistemi legacy su SFTP verso ERP Dynamics 365, integrando controlli di qualità, transcodifica, validazione e mapping vendor-service. Ho definito e implementato pipeline automatizzate con ADF, gestione errori, logging e conservazione archivistica.
Tecnologie:Azure Data Factory, Dynamics 365, SFTP, SQL Server, ETL, Validation Rules.
Estate 2024
Database Tuning Engineer
Ho analizzato i flussi di vendita, stock, inventario e promozioni, individuando colli di bottiglia prestazionali in query e stored procedure esistenti. Ho applicato ottimizzazioni mirate tramite cardinality tuning, query rewrite e index tuning, con riduzioni dei tempi di esecuzione fino all’80%.
Tecnologie:SQL Server, Query Store, Performance Tuning, Power BI, Inventory Analytics.
Maggio 2024 – Giugno 2024
ADF Architect
Ho progettato un sistema ETL multi-sorgente (Oracle→SQL Server) con orchestrazione in Azure Data Factory, introducendo parallelizzazione dinamica basata su chunking e CICD DevOps. Ho definito un modello configurabile, scalabile e monitorabile per l’aggiornamento automatico dei dati istituzionali.
Tecnologie:Azure Data Factory, SQL Server, Oracle, DevOps CICD, Chunking, ETL Automation.
Febbraio 2024 – Maggio 2024
Data Modeling Architect
Ho progettato il modello dati di migrazione ERP, definendo staging, normalizzazione, mapping tra sistemi, business tables e data mart riconciliato. Ho introdotto SCD, chiavi surrogate e regole di qualità dati per garantire integrità e riconciliazione cross-platform.
Tecnologie: SQL Server, D365, Data Modeling, Data Mart, SCD, ERP Migration.
In Integris ho lavorato alla progettazione e realizzazione di Data Warehouse per aziende del settore Energy & Utilities, occupandomi della modellazione dati con approccio star schema e snowflake tramite Erwin Data Modeler, definendo staging area, data mart tematici e strutture di reporting direzionale. Ho sviluppato flussi ETL con Pentaho Data Integration e PostgreSQL, introducendo un data lineage tracciabile e certificato che ha migliorato la governance e l’affidabilità dei processi. Ho contribuito al potenziamento delle performance applicando tecniche di query tuning e indicizzazione avanzata, ottenendo un incremento del 50% nella velocità di elaborazione. Ho inoltre supportato la costruzione di dashboard analitiche per monitorare produzione energetica, distribuzione, costi operativi e consumi, abilitando un miglior controllo dei KPI aziendali e dei processi decisionali. Tecnologie: Pentaho Data Integration (PDI), Erwin Data Modeler, PostgreSQL, SQL, ETL Design, Data Warehouse, Star Schema, Snowflake, Performance Tuning, BI & Reporting.
In Gruppo MCR ho lavorato per oltre dieci anni come Senior ETL Specialist e consulente per progetti di Data Integration, contribuendo a iniziative strategiche per grandi realtà dei settori Energy, Banking, Insurance e Pubblica Amministrazione. Ho progettato e ottimizzato soluzioni di integrazione dati ad alta volumetria, sviluppando flussi ETL Enterprise con PowerCenter, Oracle e Teradata, introducendo best practice su logging evolutivo, tracciabilità dati, auditing e controllo qualità.
Presso Cinecittà World mi sono occupata della gestione dell’esperienza visitatori e supporto front office, supervisionando attività di ticketing, accoglienza eventi e coordinamento dei flussi di ingresso. Ho gestito la relazione con il pubblico, supportato attività commerciali e garantito qualità del servizio in contesti ad elevata affluenza.
In HRP ho ricoperto un duplice ruolo: da un lato Analista ETL senior in progetti istituzionali ad alto impatto per Pubblica Amministrazione centrale (CONSIP, SOGEI, MEF); dall'altro Docente certificata su Informatica PowerCenter, Data Warehouse e Data Governance, formando risorse tecniche, analisti funzionari ministeriali e team operativi.
HRP Academy — Training Center
Docente Senior Informatica, ETL Governance & Data Warehouse
Roma — 2007 – 2009 (in parallelo ai progetti HRP Consulting)
Presso HRP Academy ho svolto il ruolo di docente senior specializzata nella formazione su Data Integration, ETL Governance e architetture Data Warehouse, progettando e conducendo percorsi formativi destinati a sviluppatori, analisti tecnici, consulenti BI e funzionari della Pubblica Amministrazione. Ho strutturato programmi didattici completi, orientati alla progettazione ETL parametrica e metadata-driven, alla modellazione DWH (Star, Snowflake, ODS, DataVault), alla certificazione del dato e al controllo della data lineage.
Ho erogato corsi avanzati su SQL, PL/SQL e DB2 focalizzati su funzioni, stored procedure, ottimizzazione query, history tracking e modellazione dati enterprise. Ho guidato la formazione su Data Quality, introducendo proprietà di completezza, validità, unicità e coerenza nel ciclo di integrazione. Ho inoltre formato team tecnici e governativi alla progettazione di flussi certificati per audit, compliance e monitoraggio della spesa pubblica.
L’attività formativa ha coinvolto oltre 60 professionisti tra PA, consulenti, analisti e data engineer, contribuendo alla diffusione di competenze tecniche e metodologiche su ETL avanzato, data governance e modelli DWH istituzionali. Tecnologie e metodi: Informatica PowerCenter, Oracle, DB2, SQL, PL/SQL, BusinessObjects, Data Quality, ETL Governance, Data Lineage.
In Syslab ho svolto attività di analisi tecnica, sviluppo ETL e modellazione software per sistemi Telco, Banking e Network Management. Ho lavorato su integrazione dati, modellazione delle entità trasmissive e sviluppo applicazioni Java per automazione, monitoraggio e capacity planning, collaborando con clienti come Telecom Italia, Capitalia Informatica e Pride Group.
Telecom Italia — SNAP-N, Network Planning & SDH Monitoring
System Analyst & Java Developer
Ho contribuito allo sviluppo di un sistema per il monitoraggio e la pianificazione della rete SDH, con l’obiettivo di ottimizzare la gestione delle dorsali nazionali, degli apparati ottici e della capacità trasmissiva. Mi sono occupata della modellazione dei nodi di rete e backbone, dell’implementazione in Java di tool per simulazione, fault analysis e capacity prediction, integrando i sistemi applicativi con database Oracle e DB2 per l'estrazione delle configurazioni reali di rete e gestione dei permessi tramite flussi ACL.
Questo progetto ha permesso di ridurre del 45% gli errori di pianificazione e ha automatizzato analisi prima eseguite manualmente.
Tecnologie: Java, Oracle, DB2, SDH, ACL, Network Planning, Fault Simulation.
Capitalia Informatica — Monitoraggio Carte Servizi e Pagamenti
ETL Developer — Oracle, DB2, Teradata, PowerCenter
Ho progettato e implementato flussi ETL per il consolidamento e la certificazione dei dati relativi a carte di credito, ATM, POS e pagamenti digitali, integrando sistemi Oracle, DB2 e Teradata con processi di controllo qualità e deduplica in PowerCenter. Ho contribuito alla costruzione di un data mart per l’analisi delle transazioni e il monitoraggio dei rischi finanziari, migliorando l’affidabilità dei dati certificati dalla banca dal 82% al 98%.
In ADQ ho lavorato come sviluppatore Java con focus sull’integrazione dati web e sulla progettazione di applicazioni online. Ho contribuito allo sviluppo di un portale per annunci e offerte commerciali utilizzando Java, JSP e HTML, implementando componenti dinamici per la pubblicazione e gestione dei contenuti. Mi sono occupata dello scraping dei dati da siti esterni tramite integrazione HTTP e parsing strutturato, assicurando la normalizzazione e l’inserimento nei database aziendali per l’aggiornamento automatico delle offerte.
Ho supportato la manutenzione applicativa per sistemi Fineco, intervenendo su moduli software, database SQL e configurazioni server Windows. Ho fornito assistenza tecnica e help desk sia interno che esterno, occupandomi della configurazione dei sistemi, troubleshooting e supporto utente.
Tecnologie: Java, JSP, HTML/CSS, SQL, DB Design, HTTP Scraping, Windows Server, Technical Support.
Roma / Milano — 2001 – 2005
Software Engineer — Core Banking, J2EE, COBOL & DB2
In Enterprise ho lavorato come Software Engineer su sistemi core banking, applicazioni bancarie multicanale e soluzioni per gestione documentale e treasury, collaborando con istituti finanziari come IW Bank e UniCredit Parigi. Ho operato su stack Java/J2EE, COBOL, DB2, Oracle e Delphi, occupandomi sia della componente applicativa che dell’integrazione con sistemi di back-office, archivi documentali e processi autorizzativi.
Data Entry, Document Management & Protocol Administration
Presso l’Istituto Nazionale di Fisica Nucleare ho svolto attività legate alla gestione documentale, digitalizzazione degli archivi scientifici e amministrativi, protocollo informatico e catalogazione documentale. Mi sono occupata della mappatura, classificazione e digitalizzazione degli archivi storico-scientifici e amministrativi, contribuendo alla creazione delle prime strutture informatizzate per l’accesso ai documenti, con particolare attenzione alla tracciabilità, alle autorizzazioni e alla corretta catalogazione.
Ho introdotto metodologie di archiviazione digitale, gestione dei protocolli ufficiali, codifica dei documenti e classificazione automatizzata tramite metadati invarianti, contribuendo alla creazione di un sistema consultabile e strutturato. Questo ha permesso di aumentare del 60% l’efficienza nel reperimento dei documenti storici, migliorando anche la gestione interna dei flussi amministrativi.
L’esperienza ha rappresentato un importante avvio nel mondo dell'informazione strutturata, introducendo i concetti fondanti di catalogazione, data governance, controllo dei flussi e accesso regolamentato ai dati — elementi che hanno costituito la base delle successive esperienze in ambito ETL, Data Integration e Data Architecture.
Competenze sviluppate: Archiviazione digitale, gestione documentale, classificazione informatizzata, protocolli ufficiali, data governance archivistica.