Veolia Case Study

Un agente AI per estrarre valore dai dati non strutturati

Il cliente

Veolia, gruppo di riferimento in Italia per la gestione efficiente di energia, acqua e rifiuti speciali, affianca clienti pubblici e privati nel percorso di decarbonizzazione, attraverso interventi integrati di efficientamento energetico e produzione locale di energie rinnovabili. Ogni anno gestisce più di 13.000 edifici, tra scuole, ospedali e immobili pubblici e privati, e 150 siti industriali, contribuendo a rendere più sicuri, efficienti e sostenibili i luoghi in cui le persone vivono, studiano e si curano.
Appartiene al gruppo multinazionale Veolia, leader mondiale nei servizi ambientali che si impegna a garantire sicurezza ecologica a beneficio della salute pubblica e della competitività di industrie e città.
In un contesto operativo complesso, caratterizzato da elevati volumi documentali e dalla presenza di molteplici fornitori, l’accesso rapido e strutturato alle informazioni rappresenta un fattore determinante di efficienza. www.veolia.it

 

ClienteVeolia Italia
StrumentiArtificial Intelligence
logo-veolia

La sfida

L’esigenza di business nasceva da un problema molto concreto: trasformare dati non strutturati in informazioni immediatamente utilizzabili.

Gli operatori di Veolia in Italia dovevano ricercare manualmente dati all’interno di bollette energetiche multi-POD, ricostruire tabelle in Google Fogli e gestire formati differenti per ciascun fornitore.

Queste bollette potevano arrivare a diverse migliaia di pagine in formato PDF, con strutture eterogenee e non standardizzate.

L’obiettivo era chiaro: rendere quei dati rapidamente accessibili e analizzabili per supportare diagnosi energetiche, attestati con parametri fisici e termici, report tecnici e rendicontazioni, in modo semplice, scalabile e replicabile.

La soluzione

In collaborazione con auticon, Veolia ha sviluppato un agent basato su Large Language Model (LLM), progettato per trasformare documenti PDF digitali in dati strutturati.

Il principio era semplice ma estremamente efficace: l’utente carica uno o più documenti, definisce i campi da estrarre e l’agent genera automaticamente una tabella pronta per l’analisi.

Il valore dell’LLM non è stato tanto nella “conversazione”, ma nella capacità di interpretare strutture differenti, riconoscere campi denominati in modo diverso tra fornitori e ricondurli a uno schema coerente.
Nato inizialmente per le diagnosi energetiche, il progetto ha rapidamente dimostrato la propria efficacia anche su:

  • bollette multi-fornitura
  • fatture
  • report tecnici
  • documentazione di cybersecurity

L’applicazione è stata sviluppata in Python con framework LLM (LangChain), integrata con Streamlit per lo sviluppo rapido del front-end e inserita in un framework scalabile per la messa in produzione di applicazioni di Generative AI.

L’esperienza utente è stata progettata per essere essenziale e orientata al risultato: carica il documento, definisci lo schema, clicca “estrai”. Tre passaggi, nessuna complessità tecnica.

I risultati

Il sistema è stato inizialmente adottato non solo in Italia, ma anche in altre business unit internazionali (Spagna, UK), dimostrando la sua scalabilità.

I principali benefici ottenuti:

  • Riduzione significativa del tempo necessario per estrarre dati da documenti complessi
  • Maggiore standardizzazione delle informazioni tra fornitori diversi
  • Dati immediatamente utilizzabili in Google Fogli, database e strumenti di analisi
  • Creazione di un framework interno riutilizzabile per future applicazioni di Generative AI

Anche se successivamente strumenti di mercato come NotebookLM hanno offerto funzionalità analoghe, il progetto ha rappresentato un acceleratore strategico: ha permesso a Veolia Italia di sviluppare competenze interne e di costruire un modello operativo replicabile.

Highlights:
molto più di un progetto tecnico

Oltre alla componente tecnologica, il progetto ha generato un impatto organizzativo rilevante.

Dal confronto con il consulente auticon è emerso un approccio di lavoro più strutturato e modulare:

  • suddivisione delle attività in sottotask chiari
  • costruzione progressiva “a mattoncini”
  • maggiore disciplina metodologica

Un metodo inizialmente adottato per agevolare il progetto si è trasformato in una best practice organizzativa più ampia.

A questo si è aggiunta un’attenzione concreta al benessere e all’inclusività nel lavoro quotidiano: un elemento spesso sottovalutato, ma determinante per la qualità della collaborazione e la sostenibilità dei risultati

Lessons learned

  1. La Generative AI esprime il suo massimo valore quando risolve problemi operativi concreti, non quando replica semplicemente funzionalità di chat.
  2. Standardizzare l’output è più importante che arricchire l’interazione: l’obiettivo era estrarre informazioni, non conversare con il documento.
  3. Un approccio modulare e per sottotask riduce errori e rework, migliorando l’efficienza del team nel tempo.
  4. Investire in framework riutilizzabili accelera la messa in produzione di nuove applicazioni AI.
Salta al contenuto