Smart City AI: Progetto Hafnia con NVIDIA

Novembre 15, 2025

Use cases

IA e tecnologia video: fondamenti del Project Hafnia

Project Hafnia è nato come piattaforma aperta per accelerare lo sviluppo dell’IA in contesti urbani. Lanciato da Milestone Systems con partner, offre agli sviluppatori l’accesso a una libreria di dati conforme e strumenti per l’addestramento di modelli AI. In pratica, Project Hafnia fornisce dati video eticamente acquisiti che i team possono utilizzare per addestrare modelli di visione artificiale senza compromettere la privacy. Ad esempio, Milestone spiega come la piattaforma acceleri l’iterazione dei modelli offrendo filmati pre-annotati e servizi modulari che rimuovono attriti significativi che accelerano.

Visionplatform.ai contribuisce mostrando come le CCTV esistenti possano fungere da sensore operativo. La nostra piattaforma converte i flussi in eventi strutturati in modo che i team possano distribuire modelli AI in loco, mantenere i dati localmente e rispettare gli standard del Regolamento UE sull’IA. Di conseguenza, le organizzazioni possono usare il loro software di gestione video per estrarre valore. Per un riferimento pratico, vedi il nostro riferimento sul rilevamento persone negli aeroporti rilevamento persone negli aeroporti, che spiega come le reti di telecamere diventino sensori live per sicurezza e operazioni.

La tecnologia video è alla base di un addestramento accurato della visione artificiale in tre modi. Primo, frame coerenti e qualità contano; dati video di alta qualità portano a modelli migliori. Secondo, le sequenze annotate creano esempi etichettati per l’apprendimento supervisionato e per approcci emergenti visione-linguaggio. Terzo, una piattaforma aperta consente ai team di combinare filmati sintetici e reali in modo che i modelli visivi generalizzino meglio. In breve, Project Hafnia abbassa la barriera per l’addestramento di modelli di visione affidabili rendendo disponibili video conformi e strumenti. Per saperne di più sull’etica e l’origine dei dati che contano, vedi la segnalazione sul focus sulla privacy e la conformità del Project Hafnia qui.

smart cities and NVIDIA: Enabling Smarter Cities with GPU Power

L’infrastruttura GPU cambia il modo in cui le città elaborano video su scala. Ad esempio, la distribuzione a Genova utilizza NVIDIA DGX Cloud per addestrare ed eseguire carichi di lavoro complessi in ore invece che in settimane. La città di Genova è diventata una delle prime implementazioni europee in cui GPU cloud e dispositivi edge hanno lavorato insieme per ottimizzare il traffico urbano. Questa implementazione reale dimostra come compute e modelli interagiscano per fornire risultati in una città operativa.

NVIDIA fornisce l’ossatura di calcolo e l’orchestrazione dei modelli. Utilizzando NEMO Curator su NVIDIA DGX e Curator su NVIDIA DGX Cloud, i team affinano i modelli rapidamente e iterano sugli scenari. La partnership tra Milestone e NVIDIA lo mostra in pratica, e la copertura evidenzia come Milestone e NVIDIA combinino infrastrutture video e competenze AI per Genova. Di conseguenza, le città possono eseguire AI visiva senza costi eccessivi.

La combinazione aiuta a integrare software di gestione video come XProtect con pipeline accelerate da GPU. Ad esempio, l’integrazione con XProtect abilita lo streaming in tempo reale e l’estrazione di eventi su scala, il che è utile sia per la risposta alle emergenze sia per le operazioni. Per i team che esplorano casi d’uso ANPR o LPR, la nostra guida ANPR offre dettagli su come le telecamere diventano sensori operativi ANPR/LPR negli aeroporti. Complessivamente, combinare la tecnologia di Milestone Systems, le GPU NVIDIA e piattaforme specializzate avvicina l’AI di nuova generazione per le smart city alle implementazioni quotidiane. Il risultato sono città più intelligenti che possono elaborare, apprendere e agire sui flussi video in tempo quasi reale.

Sala di controllo cittadina con visualizzazione del traffico

AI vision within minutes?

With our no-code platform you can just focus on your data, we’ll do the rest

data-driven City AI: Traffic Management in Genoa

Genova illustra un approccio data-driven alla gestione del traffico urbano. Lì, la fusione di sensori e l’analisi video alimentano modelli predittivi che modulano i tempi dei semafori e riorientano i flussi. Il progetto ha utilizzato dati video di elevata qualità e addestramento abilitato da GPU in modo che i modelli si adattassero rapidamente a nuove condizioni. Project Hafnia ha supportato questi sforzi fornendo filmati annotati e strumenti che riducono i tempi di addestramento di ordini di grandezza, con report che segnalano un’accelerazione dello sviluppo dell’IA fino a 30× accelerazione fino a 30×.

Gli operatori hanno scoperto di poter misurare la congestione e adattarsi in pochi minuti. La città ha usato questi vantaggi per ridurre i tempi di inattività e per dare priorità ai corridoi del trasporto pubblico. Di conseguenza, le emissioni sono diminuite e la mobilità urbana è migliorata. Il lavoro a Genova ha anche servito come prova per estendere sistemi simili in altre città europee.

Conformità e fiducia pubblica sono state importanti per l’intero progetto. Project Hafnia sottolinea dati video conformi e l’anonimizzazione come requisiti fondamentali, il che ha contribuito a ottenere il consenso pubblico sulla conformità. Per le città di medie dimensioni, un testbed live per la gestione del traffico guidata dall’IA ha fornito lezioni pratiche. La città di Dubuque ha fatto da banco di prova per la gestione del traffico guidata dall’IA, dimostrando come la gestione del traffico si possa scalare anche a municipalità di circa 60.000 abitanti caso Dubuque. In breve, i sistemi di traffico data-driven combinano dati video conformi, calcolo GPU e governance attenta per produrre miglioramenti misurabili nel flusso e nella sicurezza.

Use of Video and AI Innovation for Public Safety

I modelli visione-linguaggio e gli approcci visione-linguaggio ora aiutano a rilevare anomalie e a generare allerte di sicurezza. Questi sistemi combinano rilevamenti a livello di frame con il contesto della scena per decidere cosa qualificare come allerta. Ad esempio, i modelli visivi contrassegnano movimenti insoliti e poi classificano gli eventi per la revisione da parte dell’operatore. Questo riduce i falsi allarmi e accelera la risposta alle emergenze, con sistemi tarati sulle regole e i flussi di lavoro locali.

Un fine-tuning continuo mantiene i modelli aggiornati. I team utilizzano servizi come NVIDIA Cosmos e NEMO Curator su NVIDIA DGX per riaddestrare i modelli con nuovi filmati. Questo approccio a microservizi supporta aggiornamenti modulari e consente ai team di distribuire modelli AI addestrati su dati sintetici insieme a filmati reali. Nel frattempo, Visionplatform.ai si concentra sul mantenere l’addestramento nell’ambiente del cliente in modo che i dati non escano dalla sede, supportando la prontezza al Regolamento UE sull’IA e i requisiti GDPR. Se hai bisogno di capacità di ricerca forense, la nostra guida alla ricerca forense mostra come i filmati archiviati diventino ricercabili e utili ricerca forense negli aeroporti.

Esempi da implementazioni mostrano benefici chiari. A Dubuque, la piattaforma ha migliorato la qualità del rilevamento e ha permesso al personale cittadino di tarare le allerte per ridurre gli allarmi fastidiosi. Il sistema supporta anche flussi di lavoro per DPI e ANPR dove necessario, e si integra con i VMS esistenti. Inoltre, i principi di tecnologia responsabile per il rilevamento del movimento hanno guidato la taratura per garantire che le allerte corrispondano al profilo di rischio. Di conseguenza, i sistemi di sicurezza potenziati dall’IA supportano sia la sicurezza sia le operazioni con guadagni misurabili nella reattività e nella consapevolezza situazionale.

Scena stradale con sovrapposizioni di rilevamenti AI

AI vision within minutes?

With our no-code platform you can just focus on your data, we’ll do the rest

nvidia omniverse blueprint for smart and omniverse blueprint for smart city

L’ecosistema NVIDIA Omniverse fornisce uno spazio virtuale condiviso per pianificare e testare i sistemi urbani. I pianificatori usano il blueprint Omniverse per le smart city per costruire gemelli digitali e eseguire scenari what-if. Gemelli digitali e agenti AI simulano traffico, eventi e stress sulle infrastrutture. Così, i team possono testare le risposte prima che interessino le strade reali.

Gli strumenti NVIDIA contribuiscono anche a un blueprint AI per il video che standardizza le pipeline per l’AI centrata sul video. Questo aiuta la portabilità e la riproducibilità dei modelli. Ad esempio, le visualizzazioni in un gemello digitale permettono agli stakeholder di confrontare interventi fianco a fianco. La capacità di avviare uno scenario, eseguirlo con parametri diversi e misurare i risultati aiuta i pianificatori urbani a scalare le soluzioni con fiducia. In effetti, il blueprint Omniverse per le smart city crea una sala di controllo per il futuro della tecnologia delle smart city.

L’integrazione è importante. Quando i gemelli digitali si connettono ai feed live, i pianificatori ottengono insight quasi in tempo reale sulla mobilità urbana e sulla salute delle infrastrutture. Il risultato è una migliore coordinazione tra controllo del traffico, servizi di emergenza e squadre di manutenzione. Il blueprint per l’IA delle smart city supporta la simulazione di dinamiche urbane complesse e consente ai team di incorporare modelli e VLM che riflettono le condizioni locali. Per i comuni che si preparano alla normativa UE sull’IA, queste simulazioni forniscono anche tracce verificabili e validazioni che informano implementazioni conformi.

Blueprint for Smart City AI: Visionplatform.ai’s Path Forward

Il modello Hafnia Smart City mostra cosa può realizzare una piattaforma coordinata. Visionplatform.ai si basa su quel lavoro offrendo uno stack AI centrato sul video che mantiene dati e modelli sotto il controllo del cliente. Aiutiamo le organizzazioni a distribuire AI all’edge o in setup ibridi in modo che i team possano soddisfare i requisiti del Regolamento UE sull’IA e mantenere la conformità al GDPR. In pratica, questo significa che puoi distribuire modelli AI on‑premise, affinarli con filmati locali e inviare eventi alle operazioni cittadine senza esporre i flussi grezzi fuori dall’ambiente.

Guardando al futuro, Project Hafnia prevede ampliamenti in città europee e mercati emergenti. Questi roll-out mirano a combinare dati video di alta qualità, compute NVIDIA e microservizi modulari in modo che i comuni possano scalare rapidamente. Thomas Jensen, CEO di Milestone Systems, ha inquadrato l’ambizione come la creazione “della piattaforma più intelligente, veloce e responsabile al mondo per dati video e addestramento di modelli AI” citazione di Thomas Jensen. Questa aspirazione sostiene una visione condivisa: AI responsabile applicata ai bisogni urbani.

Infine, Visionplatform.ai continuerà a integrarsi con i principali prodotti VMS come XProtect e a supportare casi d’uso avanzati come conteggio persone, rilevamento DPI e rilevamento di anomalie di processo. Per un riferimento pratico su come i dati delle telecamere diventano eventi operativi, vedi la nostra pagina sul conteggio persone negli aeroporti conteggio persone negli aeroporti. Insieme a partner e framework come il blueprint NVIDIA Omniverse per le smart city, puntiamo a fornire un blueprint riproducibile per l’IA delle smart city che le città possano adottare per rendere la vita urbana più sicura, più verde ed efficiente.

FAQ

What is Project Hafnia?

Project Hafnia è un’iniziativa che fornisce dati video annotati e conformi per accelerare l’addestramento di modelli AI. È progettata per aiutare sviluppatori e città a addestrare modelli più rapidamente mantenendo privacy e conformità in primo piano.

How does Visionplatform.ai fit into smart city projects?

Visionplatform.ai trasforma le CCTV esistenti in sensori operativi e invia eventi strutturati per la sicurezza e le operazioni. La piattaforma si concentra su distribuzioni on‑premise o edge in modo che le organizzazioni possano mantenere il controllo dei dati e rispettare i requisiti del Regolamento UE sull’IA.

What role does NVIDIA play in these deployments?

NVIDIA fornisce l’infrastruttura GPU e gli strumenti che velocizzano l’addestramento e l’inferenza. Tecnologie come DGX Cloud e Omniverse permettono iterazioni rapide, simulazione e distribuzione di AI centrata sul video nelle città.

Can these systems respect privacy and regulation?

Sì. Project Hafnia e i partner sottolineano dati video conformi, eticamente acquisiti e l’anonimizzazione. Le implementazioni possono essere eseguite on‑premise per supportare GDPR e il Regolamento UE sull’IA, il che facilita l’accettazione legale e pubblica.

What benefits did Genoa see from the deployment?

Genova ha utilizzato modelli accelerati da GPU per ottimizzare il flusso del traffico, ridurre la congestione e migliorare la mobilità urbana. L’implementazione ha dimostrato che dati video di alta qualità e potenza di calcolo possono fornire guadagni operativi misurabili.

Is there a role for digital twins in city planning?

Assolutamente. I gemelli digitali permettono ai pianificatori di eseguire scenari what-if, simulare interventi e convalidare agenti AI prima che i cambiamenti tocchino le strade reali. Questo riduce il rischio e migliora il processo decisionale.

How do cities handle model updates and tuning?

I modelli vengono affinati utilizzando architetture a microservizi e strumenti come NVIDIA Cosmos e NEMO. Il riaddestramento continuo su filmati locali mantiene alta la performance e riduce i falsi positivi.

Can smaller cities use these technologies?

Sì. La città di Dubuque ha dimostrato che le città di medie dimensioni possono fungere da banco di prova per la gestione del traffico guidata dall’IA. Le soluzioni scalate si adattano a diverse dimensioni di città e budget.

How does this impact emergency response?

Il video potenziato dall’AI può accelerare la consapevolezza situazionale e automatizzare le allerte, favorendo una risposta alle emergenze più rapida. Gli stream di eventi strutturati possono integrarsi con sistemi di dispatch e gestione degli incidenti.

Where can I learn more about operationalising camera data?

Visionplatform.ai fornisce indicazioni pratiche sulla conversione dei feed delle telecamere in eventi operativi ricercabili. Per esempi pratici, consulta le nostre risorse sul rilevamento persone e sulla ricerca forense per comprendere i flussi di lavoro tipici.

next step? plan a
free consultation


Customer portal