KI-Smart Cities: Projekt Hafnia mit NVIDIA

November 15, 2025

Use cases

KI und Videotechnologie: Grundlagen von Project Hafnia

Project Hafnia begann als offene Plattform, um die KI‑Entwicklung in urbanen Kontexten zu beschleunigen. Von Milestone Systems mit Partnern gestartet, bietet sie Entwicklern Zugriff auf eine konforme Datensammlung und Werkzeuge zum Training von KI‑Modellen. Praktisch stellt Project Hafnia ethisch gewonnenes Videomaterial bereit, das Teams zum Training von Computer‑Vision‑Modellen nutzen können, ohne die Privatsphäre zu kompromittieren. Zum Beispiel erklärt Milestone, wie die Plattform die Modelliteration beschleunigt, indem sie vorannotiertes Filmmaterial und modulare Dienste anbietet, die erhebliche Reibungsverluste entfernen die beschleunigen.

Visionplatform.ai trägt dazu bei, zu zeigen, wie vorhandene CCTV‑Systeme als operative Sensoren fungieren können. Unsere Plattform wandelt Streams in strukturierte Ereignisse um, sodass Teams KI‑Modelle vor Ort einsetzen, Daten lokal halten und die Anforderungen des EU AI Act erfüllen können. Dadurch können Organisationen ihren Video‑Management‑Softwarewert erschließen. Als praktischen Hinweis sehen Sie unsere Referenz zur Personenerkennung an Flughäfen Personenerkennung an Flughäfen, die erklärt, wie Kameranetzwerke zu Live‑Sensoren für Sicherheit und Betrieb werden.

Videotechnologie bildet die Grundlage für präzises Computer‑Vision‑Training in dreierlei Hinsicht. Erstens sind konsistente Frames und Qualität wichtig; hochwertiges Videomaterial führt zu besseren Modellen. Zweitens erzeugen annotierte Sequenzen gelabelte Beispiele für überwachte Lernverfahren und für aufkommende Vision‑Language‑Ansätze. Drittens erlaubt eine offene Plattform Teams, synthetisches und reales Filmmaterial zu kombinieren, sodass visuelle KI‑Modelle besser generalisieren. Kurz gesagt senkt Project Hafnia die Hürde für das Training zuverlässiger Computer‑Vision‑Modelle, indem es konformes Videomaterial und entsprechende Werkzeuge bereitstellt. Für mehr zu Ethik und Beschaffung, die eine Rolle spielen, siehe die Berichterstattung über Project Hafnias Fokus auf Datenschutz und Compliance zur Compliance.

Smart Cities und NVIDIA: Mit GPU‑Power intelligentere Städte ermöglichen

GPU‑Infrastruktur verändert die Art und Weise, wie Städte Video in großem Maßstab verarbeiten. Beispielsweise verwendet die Implementierung in Genua NVIDIA DGX Cloud, um komplexe Workloads in Stunden statt Wochen zu trainieren und auszuführen. Die Stadt Genua wurde zu einer frühen europäischen Implementierung, bei der Cloud‑GPUs und Edge‑Geräte zusammenarbeiteten, um den städtischen Verkehr zu optimieren. Diese reale Implementierung zeigt, wie Compute und Modelle zusammenwirken, um Ergebnisse in einer lebenden Stadt zu liefern.

NVIDIA stellt das Rechenrückgrat und die Modellorchestrierung bereit. Mit NEMO Curator auf NVIDIA DGX und Curator auf NVIDIA DGX Cloud können Teams Modelle schnell feinabstimmen und Szenarien iterieren. Die Partnerschaft zwischen Milestone und NVIDIA zeigt dies in der Praxis, und Berichte heben hervor, wie Milestone und NVIDIA Video‑Infrastruktur und KI‑Expertise für Genua kombinieren. Folglich können Städte visuelle KI ohne übermäßigen Aufwand betreiben.

Die Kombination hilft, Video‑Management‑Software wie XProtect mit GPU‑beschleunigten Pipelines zu integrieren. Zum Beispiel ermöglicht die XProtect‑Integration Echtzeit‑Streaming und Ereignisextraktion im großen Maßstab, was sowohl Notfallreaktionen als auch den operativen Betrieb unterstützt. Für Teams, die ANPR‑ oder LPR‑Anwendungsfälle erkunden, bietet unsere ANPR‑Anleitung Details dazu, wie Kameras zu operativen Sensoren werden ANPR/LPR an Flughäfen. Insgesamt rückt die Kombination aus Milestone‑Technologie, NVIDIA‑GPUs und spezialisierten Plattformen die nächste Generation der KI für Smart Cities näher an den Alltag. Das Ergebnis sind intelligentere Städte, die Videostreams in nahezu Echtzeit verarbeiten, daraus lernen und darauf reagieren können.

City control room with traffic visualisation

AI vision within minutes?

With our no-code platform you can just focus on your data, we’ll do the rest

Datengetriebene Stadt‑KI: Verkehrsmanagement in Genua

Genua veranschaulicht einen datengetriebenen Ansatz für städtischen Verkehr. Dort speisen Sensorfusion und Videoanalyse prädiktive Modelle, die Signalzeiten anpassen und Verkehrsflüsse umleiten. Das Projekt nutzte hochwertiges Videomaterial und GPU‑gestütztes Training, sodass sich Modelle schnell an neue Bedingungen anpassten. Project Hafnia unterstützte diese Bemühungen, indem es annotiertes Filmmaterial und Werkzeuge bereitstellte, die die Trainingszeit um große Faktoren reduzierten, wobei Berichte von einer Beschleunigung der KI‑Entwicklung um bis zu 30× Beschleunigung sprechen.

Betreiber stellten fest, dass sie Staus in Minuten messen und anpassen konnten. Die Stadt nutzte diese Fortschritte, um Leerlaufzeiten zu verringern und den öffentlichen Verkehr zu priorisieren. In der Folge sanken die Emissionen und die urbane Mobilität verbesserte sich. Die Arbeit in Genua diente außerdem als Beweis dafür, ähnliche Systeme in europäischen Städten auszurollen.

Compliance und öffentliches Vertrauen waren durchgehend wichtig. Project Hafnia betont konformes Videomaterial und Anonymisierung als Kernanforderungen, was zur Akzeptanz in der Öffentlichkeit beitrug zur Compliance. Für mittelgroße Städte lieferte ein Live‑Testbett für KI‑gestütztes Verkehrsmanagement Erkenntnisse. Die Stadt Dubuque diente als Testbett für KI‑gestütztes Verkehrsmanagement und zeigte, wie Verkehrsmanagement auf Kommunen mit etwa 60.000 Einwohnern skaliert werden kann Dubuque‑Fall. Kurz gesagt kombinieren datengetriebene Verkehrssysteme konformes Videomaterial, GPU‑Compute und sorgfältige Governance, um messbare Verbesserungen bei Verkehrsfluss und Sicherheit zu erzielen.

Einsatz von Video‑ und KI‑Innovationen für die öffentliche Sicherheit

Vision‑Language‑Modelle und Vision‑Language‑Ansätze helfen inzwischen, Anomalien zu erkennen und Sicherheitsalarme auszulösen. Diese Systeme kombinieren Frame‑Level‑Detektionen mit Szenenkontext, um zu entscheiden, was als Alarm qualifiziert. Beispielsweise markieren visuelle KI‑Modelle ungewöhnliche Bewegungen und bewerten dann Ereignisse zur Überprüfung durch einen Operator. Dies reduziert Fehlalarme und beschleunigt die Notfallreaktion, wobei die Systeme an lokale Regeln und Arbeitsabläufe angepasst werden.

Laufende Feinabstimmung hält Modelle aktuell. Teams nutzen Dienste wie NVIDIA Cosmos und NEMO Curator auf NVIDIA DGX, um Modelle mit neuem Filmmaterial nachzutrainieren. Dieser Mikroservice‑Ansatz unterstützt modulare Updates und erlaubt Teams, KI‑Modelle, die mit synthetischen Daten trainiert wurden, neben realem Filmmaterial einzusetzen. Gleichzeitig konzentriert sich Visionplatform.ai darauf, das Training in der Kundenumgebung zu halten, sodass Daten das Gelände nicht verlassen und die Bereitschaft für den EU AI Act sowie DSGVO‑Anforderungen unterstützt wird. Wenn Sie forensische Suchfunktionen benötigen, zeigt unser Leitfaden zur forensischen Suche, wie archiviertes Filmmaterial durchsuchbar und verwertbar wird forensische Durchsuchungen in Flughäfen.

Beispiele aus Einsätzen zeigen klare Vorteile. In Dubuque verbesserte die Plattform die Erkennungsqualität und ermöglichte es dem Stadtpersonal, Alarme so zu justieren, dass Belästigungsalarme reduziert wurden. Das System unterstützt außerdem PPE‑ und ANPR‑Workflows, wo erforderlich, und lässt sich in bestehende VMS integrieren. Darüber hinaus leiteten verantwortungsbewusste Technologie‑Städte‑Prinzipien die Feinabstimmung, um sicherzustellen, dass Alarme dem Risikoprofil entsprechen. In der Folge unterstützen KI‑gestützte Sicherheitsysteme sowohl Sicherheit als auch Betrieb mit messbaren Verbesserungen bei Reaktionsfähigkeit und Situationsbewusstsein.

Street scene with AI detection overlays

AI vision within minutes?

With our no-code platform you can just focus on your data, we’ll do the rest

NVIDIA Omniverse Blueprint für Smart und Omniverse Blueprint für Smart City

Das NVIDIA Omniverse‑Ökosystem bietet einen gemeinsamen virtuellen Raum für die Planung und das Testen von Stadt‑Systemen. Planer nutzen das Omniverse Blueprint für Smart City, um digitale Zwillinge zu erstellen und What‑If‑Szenarien zu fahren. Digitale Zwillinge und KI‑Agenten simulieren Verkehr, Ereignisse und Infrastrukturbelastungen. So können Teams Reaktionen testen, bevor sie reale Straßen betreffen.

NVIDIAs Werkzeuge tragen außerdem ein NVIDIA AI Blueprint für Video bei, das Pipelines für videozentrierte KI standardisiert. Dies fördert Modellportabilität und Reproduzierbarkeit. Beispielsweise erlauben Visualisierungen in einem digitalen Zwilling Stakeholdern, Interventionen nebeneinander zu vergleichen. Die Fähigkeit, ein Szenario zu starten, es mit unterschiedlichen Parametern laufen zu lassen und Ergebnisse zu messen, hilft Stadtplanern, Lösungen mit Vertrauen zu skalieren. Effektiv schafft das Omniverse Blueprint für Smart City einen Kontrollraum für die Zukunft der Smart‑City‑Technologie.

Integration ist entscheidend. Wenn digitale Zwillinge mit Live‑Feeds verbunden sind, erhalten Planer nahezu Echtzeit‑Einblicke in urbane Mobilität und Infrastrukturzustand. Das Ergebnis ist eine bessere Koordination zwischen Verkehrssteuerung, Notdiensten und Wartungsteams. Das Blueprint für Smart City‑KI unterstützt die Simulation komplexer städtischer Dynamiken und ermöglicht es Teams, Modelle und VLMs einzubeziehen, die lokale Bedingungen widerspiegeln. Für Gemeinden, die sich auf EU‑KI‑Regulierung vorbereiten, liefern diese Simulationen außerdem prüfbare Spuren und Validierungen, die konforme Implementierungen informieren.

Blueprint für Smart City‑KI: Visionplatform.ais Weg nach vorn

Das Hafnia Smart City‑Modell zeigt, was eine koordinierte Plattform erreichen kann. Visionplatform.ai baut auf dieser Arbeit auf, indem es einen videozentrierten KI‑Stack anbietet, der Daten und Modelle unter der Kontrolle des Kunden hält. Wir helfen Organisationen, KI am Edge oder in hybriden Setups einzusetzen, sodass Teams die Anforderungen des AI Act erfüllen und DSGVO‑Bereitschaft wahren können. In der Praxis bedeutet dies, dass Sie KI‑Modelle vor Ort bereitstellen, mit lokalem Filmmaterial anpassen und Ereignisse an die Stadtoperationen streamen können, ohne dass Roh‑Streams die Umgebung verlassen.

Mit Blick nach vorn plant Project Hafnia Erweiterungen in europäischen Städten und auf Wachstumsmärkten. Diese Rollouts zielen darauf ab, hochwertiges Videomaterial, NVIDIA‑Compute und modulare Microservices zu kombinieren, sodass Kommunen schnell skalieren können. Thomas Jensen, CEO von Milestone Systems, formulierte die Ambition als die Schaffung „der weltweit intelligentesten, schnellsten und verantwortungsvollsten Plattform für Videodaten und das Training von KI‑Modellen“ Thomas Jensen‑Zitat. Diese Aspiration untermauert eine gemeinsame Vision: verantwortungsvolle KI, die auf städtische Bedürfnisse angewandt wird.

Schließlich wird Visionplatform.ai weiterhin in führende VMS‑Produkte wie XProtect integrieren und fortgeschrittene Anwendungsfälle wie Personenzählung, PPE‑Erkennung und Prozess‑Anomalie‑Erkennung unterstützen. Für eine praktische Referenz dazu, wie Kameradaten zu operativen Ereignissen werden, sehen Sie unsere Seite zur Personenzählung an Flughäfen Personenzählung an Flughäfen. Zusammen mit Partnern und Frameworks wie dem NVIDIA Omniverse Blueprint für Smart streben wir an, eine reproduzierbare Blaupause für Smart City‑KI bereitzustellen, die Städte übernehmen können, um das urbane Leben sicherer, grüner und effizienter zu machen.

FAQ

Was ist Project Hafnia?

Project Hafnia ist eine Initiative, die annotierte und konforme Videodaten bereitstellt, um das Training von KI‑Modellen zu beschleunigen. Sie ist darauf ausgelegt, Entwicklern und Städten zu helfen, Modelle schneller zu trainieren und dabei Datenschutz und Compliance im Blick zu behalten.

Wie passt Visionplatform.ai in Smart‑City‑Projekte?

Visionplatform.ai verwandelt vorhandene CCTV‑Systeme in operative Sensoren und streamt strukturierte Ereignisse für Sicherheit und Betrieb. Die Plattform konzentriert sich auf On‑Premise‑ oder Edge‑Deployments, sodass Organisationen die Kontrolle über Daten behalten und die Anforderungen des EU AI Act erfüllen können.

Welche Rolle spielt NVIDIA in diesen Implementierungen?

NVIDIA liefert die GPU‑Infrastruktur und die Tools, die Training und Inferenz beschleunigen. Technologien wie DGX Cloud und Omniverse ermöglichen schnelle Iteration, Simulation und Bereitstellung videozentrierter KI in Städten.

Können diese Systeme Privatsphäre und Regulierung respektieren?

Ja. Project Hafnia und Partner betonen konforme, ethisch beschaffte Videodaten und Anonymisierung. Implementierungen können On‑Premise laufen, um DSGVO und den EU AI Act zu unterstützen, was bei rechtlicher und öffentlicher Akzeptanz hilft.

Welche Vorteile sah Genua durch die Implementierung?

Genua nutzte GPU‑beschleunigte Modelle, um den Verkehrsfluss zu optimieren, Staus zu reduzieren und die urbane Mobilität zu verbessern. Die Implementierung bewies, dass hochwertiges Videomaterial und Rechenleistung messbare operative Verbesserungen liefern können.

Gibt es eine Rolle für digitale Zwillinge in der Stadtplanung?

Absolut. Digitale Zwillinge erlauben Planern, What‑If‑Szenarien durchzuspielen, Interventionen zu simulieren und KI‑Agenten zu validieren, bevor Änderungen in die Realität übernommen werden. Das reduziert Risiken und verbessert die Entscheidungsfindung.

Wie gehen Städte mit Modell‑Updates und Feinabstimmung um?

Modelle werden mit Mikroservice‑Architekturen und Tools wie NVIDIA Cosmos und NEMO feinabgestimmt. Kontinuierliches Retraining auf lokalem Filmmaterial hält die Leistung hoch und reduziert Fehlalarme.

Können kleinere Städte diese Technologien nutzen?

Ja. Die Stadt Dubuque zeigte, dass mittelgroße Städte als Testbett für KI‑gestütztes Verkehrsmanagement dienen können. Skalierte Lösungen passen zu einer Bandbreite von Stadtgrößen und Budgets.

Wie wirkt sich das auf die Notfallreaktion aus?

KI‑gestütztes Video kann das Situationsbewusstsein beschleunigen und Alarme automatisieren, was schnellere Notfallreaktionen unterstützt. Strukturierte Ereignisströme lassen sich in Dispositions‑ und Vorfallsmanagementsysteme integrieren.

Wo kann ich mehr darüber erfahren, wie Kameradaten operationalisiert werden?

Visionplatform.ai bietet praxisnahe Anleitungen zur Umwandlung von Kamerafeeds in durchsuchbare, operative Ereignisse. Für praktische Beispiele sehen Sie unsere Ressourcen zur Personenerkennung und forensischen Suche, um typische Workflows zu verstehen.

next step? plan a
free consultation


Customer portal