IA et technologie vidéo : fondations du Project Hafnia
Le Project Hafnia a commencé comme une plateforme ouverte pour accélérer le développement de l’IA dans les contextes urbains. Lancée par Milestone Systems avec des partenaires, elle donne aux développeurs accès à une bibliothèque de données conforme et à des outils pour l’entraînement de modèles d’IA. En pratique, le Project Hafnia fournit des données vidéo sourcées de manière éthique que les équipes peuvent utiliser pour entraîner des modèles de vision par ordinateur sans compromettre la vie privée. Par exemple, Milestone explique comment la plateforme accélère l’itération des modèles en offrant des séquences pré-annotées et des services modulaires qui suppriment une friction significative qui accélèrent.
Visionplatform.ai contribue en montrant comment les CCTV existants peuvent agir comme des capteurs opérationnels. Notre plateforme convertit les flux en événements structurés afin que les équipes puissent déployer des modèles d’IA sur site, garder les données localement et répondre aux exigences de l’AI Act de l’UE. Par conséquent, les organisations peuvent utiliser leur logiciel de gestion vidéo pour en extraire de la valeur. Pour une indication pratique, voir notre référence sur la détection de personnes dans les aéroports, qui explique comment les réseaux de caméras deviennent des capteurs en temps réel pour la sécurité et les opérations.
La technologie vidéo sous-tend un entraînement de vision par ordinateur précis de trois manières. Premièrement, la consistance des images et la qualité comptent ; des données vidéo de haute qualité conduisent à de meilleurs modèles. Deuxièmement, les séquences annotées créent des exemples étiquetés pour l’apprentissage supervisé et pour les approches émergentes vision-langage. Troisièmement, une plateforme ouverte permet aux équipes de combiner des séquences synthétiques et réelles afin que les modèles visuels généralisent mieux. En bref, le Project Hafnia abaisse la barrière pour entraîner des modèles de vision fiables en rendant la vidéo conforme et les outils disponibles. Pour en savoir plus sur l’éthique et le sourcing qui importent, voyez le reportage sur l’accent mis par le Project Hafnia sur la confidentialité et la conformité ici.
villes intelligentes et NVIDIA : permettre des villes plus intelligentes grâce à la puissance GPU
L’infrastructure GPU change la façon dont les villes traitent la vidéo à grande échelle. Par exemple, le déploiement à Gênes utilise NVIDIA DGX Cloud pour entraîner et exécuter des charges de travail complexes en quelques heures plutôt qu’en semaines. La ville de Gênes est devenue un des premiers déploiements européens où les GPU cloud et les dispositifs edge ont travaillé ensemble pour optimiser le trafic urbain. Ce déploiement réel démontre comment le calcul et les modèles interagissent pour produire des résultats dans une ville en fonctionnement.
NVIDIA fournit l’ossature de calcul et l’orchestration des modèles. En utilisant nemo curator sur NVIDIA DGX et curator sur NVIDIA DGX Cloud, les équipes affinent rapidement les modèles et itèrent sur les scénarios. Le partenariat entre Milestone et NVIDIA l’illustre dans la pratique, et les articles mettent en lumière comment Milestone et NVIDIA combinent l’infrastructure vidéo et l’expertise en IA pour Gênes. Par conséquent, les villes peuvent exécuter de l’IA visuelle sans frais généraux excessifs.
Cette association aide à intégrer des logiciels de gestion vidéo comme XProtect avec des pipelines accélérés par GPU. Par exemple, l’intégration XProtect permet le streaming en temps réel et l’extraction d’événements à grande échelle, ce qui aide à la fois la réponse d’urgence et les opérations. Pour les équipes explorant des cas d’usage ANPR ou LPR, notre guide ANPR donne des détails sur la façon dont les caméras deviennent des capteurs opérationnels ANPR/LPR dans les aéroports. Globalement, la combinaison de la technologie Milestone Systems, des GPU NVIDIA et de plateformes spécialisées rapproche l’IA de nouvelle génération pour les villes intelligentes des déploiements quotidiens. Le résultat est des villes plus intelligentes capables de traiter, d’apprendre et d’agir sur des flux vidéo en quasi temps réel.

AI vision within minutes?
With our no-code platform you can just focus on your data, we’ll do the rest
IA urbaine pilotée par les données : gestion du trafic à Gênes
Gênes illustre une approche pilotée par les données pour le trafic urbain. Là-bas, la fusion de capteurs et l’analytique vidéo alimentent des modèles prédictifs qui ajustent les timings des signaux et réacheminent les flux. Le projet a utilisé des données vidéo de haute qualité et un entraînement accéléré par GPU afin que les modèles s’adaptent rapidement aux nouvelles conditions. Le Project Hafnia a soutenu ces efforts en fournissant des séquences annotées et des outils qui réduisent le temps d’entraînement par des facteurs importants, des rapports notant une accélération du développement de l’IA jusqu’à 30×.
Les opérateurs ont constaté qu’ils pouvaient mesurer la congestion et s’adapter en quelques minutes. La ville a utilisé ces gains pour réduire le temps de ralenti et pour prioriser les couloirs de transport public. En conséquence, les émissions ont diminué et la mobilité urbaine s’est améliorée. Le travail à Gênes a également servi de preuve de concept pour déployer des systèmes similaires dans d’autres villes européennes.
La conformité et la confiance du public ont compté tout au long du projet. Le Project Hafnia met l’accent sur des données vidéo conformes et l’anonymisation comme exigences essentielles, ce qui a aidé à obtenir l’adhésion publique sur la conformité. Pour les villes de taille moyenne, un banc d’essai en conditions réelles pour la gestion du trafic pilotée par l’IA a apporté des enseignements. La ville de Dubuque a servi de terrain d’essai pour la gestion du trafic pilotée par l’IA, démontrant comment la gestion du trafic peut être adaptée aux municipalités d’environ 60 000 habitants cas Dubuque. En bref, les systèmes de trafic pilotés par les données combinent des données vidéo conformes, du calcul GPU et une gouvernance rigoureuse pour produire des améliorations mesurables du flux et de la sécurité.
Utilisation de la vidéo et innovation IA pour la sécurité publique
Les modèles vision-langage et les approches vision-langage aident désormais à détecter les anomalies et à déclencher des alertes de sécurité. Ces systèmes combinent des détections au niveau de l’image avec le contexte de la scène pour décider de ce qui constitue une alerte. Par exemple, les modèles d’IA visuelle signalent des mouvements inhabituels puis classent les événements pour la revue par un opérateur. Cela réduit les fausses alertes et accélère la réponse aux urgences, avec des systèmes adaptés aux règles et aux workflows locaux.
Le fine-tuning continu maintient les modèles à jour. Les équipes utilisent des services tels que NVIDIA Cosmos et NEMO sur NVIDIA DGX pour réentraîner les modèles avec de nouvelles séquences. Cette approche microservices supporte des mises à jour modulaires et permet aux équipes de déployer des modèles d’IA entraînés sur des données synthétiques parallèlement à des séquences réelles. Pendant ce temps, Visionplatform.ai se concentre sur le maintien de l’entraînement dans l’environnement du client afin que les données ne quittent pas les locaux, soutenant la préparation à l’AI Act de l’UE et les exigences du RGPD. Si vous avez besoin de capacités de recherche médico-légale, notre guide de recherche médico-légale montre comment les séquences archivées deviennent consultables et exploitables recherche médico-légale dans les aéroports.
Des exemples de déploiements montrent des bénéfices clairs. À Dubuque, la plateforme a amélioré la qualité de détection et a permis au personnel municipal d’ajuster les alertes pour réduire les alarmes intempestives. Le système prend aussi en charge les workflows EPI et ANPR lorsque nécessaire, et il s’intègre aux VMS existants. De plus, des principes de technologie responsable pour la détection de mouvement ont guidé l’ajustement afin d’assurer que les alertes correspondent au profil de risque. En conséquence, les systèmes de sécurité pilotés par l’IA soutiennent à la fois la sécurité et les opérations avec des gains mesurables en réactivité et en conscience situationnelle.

AI vision within minutes?
With our no-code platform you can just focus on your data, we’ll do the rest
plan directeur NVIDIA Omniverse pour la ville intelligente
L’écosystème NVIDIA Omniverse fournit un espace virtuel partagé pour la planification et les tests des systèmes urbains. Les urbanistes utilisent le plan directeur Omniverse pour la ville intelligente afin de construire des jumeaux numériques et d’exécuter des scénarios ‘et si’. Les jumeaux numériques et les agents IA simulent le trafic, les événements et la résistance des infrastructures. Ainsi, les équipes peuvent tester les réponses avant qu’elles n’atteignent les rues réelles.
Les outils de NVIDIA contribuent également à un plan directeur IA pour la vidéo qui standardise les pipelines pour l’IA centrée sur la vidéo. Cela aide à la portabilité et à la reproductibilité des modèles. Par exemple, les visualisations dans un jumeau numérique permettent aux parties prenantes de comparer les interventions côte à côte. La capacité de lancer un scénario, de l’exécuter avec différents paramètres et de mesurer les résultats aide les urbanistes à déployer des solutions à l’échelle avec confiance. En effet, le plan directeur Omniverse pour la ville intelligente crée une salle de contrôle pour l’avenir de la technologie des villes intelligentes.
L’intégration est essentielle. Lorsque les jumeaux numériques sont connectés aux flux en direct, les planificateurs obtiennent des insights quasi en temps réel sur la mobilité urbaine et la santé des infrastructures. Le résultat est une meilleure coordination entre le contrôle du trafic, les services d’urgence et les équipes de maintenance. Le plan directeur pour l’IA des villes intelligentes permet de simuler des dynamiques urbaines complexes et permet aux équipes d’incorporer des modèles et des VLM qui reflètent les conditions locales. Pour les municipalités se préparant à la réglementation AI de l’UE, ces simulations fournissent aussi des pistes auditées et des validations qui informent des déploiements conformes.
Plan directeur pour l’IA des villes intelligentes : la voie de Visionplatform.ai
Le modèle Hafnia Smart City montre ce qu’une plateforme coordonnée peut accomplir. Visionplatform.ai s’appuie sur ce travail en offrant une pile d’IA centrée sur la vidéo qui garde les données et les modèles sous le contrôle du client. Nous aidons les organisations à déployer l’IA en périphérie ou en configurations hybrides afin que les équipes puissent répondre aux exigences de l’AI Act et maintenir la conformité RGPD. En pratique, cela signifie que vous pouvez déployer des modèles d’IA sur site, les ajuster avec des séquences locales et diffuser des événements aux opérations de la ville sans exposer les flux bruts en dehors de l’environnement.
À l’avenir, le Project Hafnia prévoit des expansions à travers les villes européennes et les marchés émergents. Ces déploiements visent à combiner des données vidéo de haute qualité, le calcul NVIDIA et des microservices modulaires afin que les municipalités puissent monter en charge rapidement. Thomas Jensen, PDG de Milestone Systems, a présenté l’ambition comme la création « de la plateforme la plus intelligente, la plus rapide et la plus responsable au monde pour les données vidéo et l’entraînement de modèles d’IA » citation de Thomas Jensen. Cette aspiration sous-tend une vision partagée : une IA responsable appliquée aux besoins urbains.
Enfin, Visionplatform.ai continuera de s’intégrer aux principaux produits VMS tels que XProtect, et de prendre en charge des cas d’usage avancés comme le comptage de personnes, la détection EPI et la détection d’anomalies de processus. Pour une référence pratique sur la façon dont les données des caméras deviennent des événements opérationnels, consultez notre page sur le comptage de personnes dans les aéroports. Avec des partenaires et des cadres tels que le plan directeur NVIDIA Omniverse pour la ville intelligente, nous visons à fournir un plan directeur reproductible pour l’IA des villes intelligentes que les municipalités peuvent adopter pour rendre la vie urbaine plus sûre, plus verte et plus efficace.
FAQ
Qu’est-ce que le Project Hafnia ?
Le Project Hafnia est une initiative qui fournit des données vidéo annotées et conformes pour accélérer l’entraînement des modèles d’IA. Elle est conçue pour aider les développeurs et les villes à entraîner des modèles plus rapidement tout en gardant la confidentialité et la conformité au premier plan.
Comment Visionplatform.ai s’inscrit-elle dans les projets de villes intelligentes ?
Visionplatform.ai transforme les CCTV existants en capteurs opérationnels et diffuse des événements structurés pour la sécurité et les opérations. La plateforme se concentre sur des déploiements sur site ou en périphérie afin que les organisations puissent garder le contrôle des données et répondre aux exigences de l’AI Act de l’UE.
Quel rôle joue NVIDIA dans ces déploiements ?
NVIDIA fournit l’infrastructure GPU et les outils qui accélèrent l’entraînement et l’inférence. Des technologies comme DGX Cloud et Omniverse permettent une itération rapide, la simulation et le déploiement de l’IA centrée sur la vidéo dans les villes.
Ces systèmes peuvent-ils respecter la vie privée et la réglementation ?
Oui. Le Project Hafnia et ses partenaires mettent l’accent sur des données vidéo conformes et sourcées de manière éthique ainsi que sur l’anonymisation. Les déploiements peuvent s’exécuter sur site pour soutenir le RGPD et l’AI Act de l’UE, ce qui facilite l’acceptation légale et publique.
Quels bénéfices Gênes a-t-elle tirés du déploiement ?
Gênes a utilisé des modèles accélérés par GPU pour optimiser le flux de trafic, réduire la congestion et améliorer la mobilité urbaine. Le déploiement a prouvé que des données vidéo de haute qualité et la capacité de calcul peuvent fournir des gains opérationnels mesurables.
Le jumeau numérique a-t-il un rôle dans la planification urbaine ?
Absolument. Les jumeaux numériques permettent aux planificateurs d’exécuter des scénarios ‘et si’, de simuler des interventions et de valider les agents IA avant que les changements n’affectent les rues réelles. Cela réduit les risques et améliore la prise de décision.
Comment les villes gèrent-elles les mises à jour et l’ajustement des modèles ?
Les modèles sont affinés à l’aide d’architectures microservices et d’outils tels que NVIDIA Cosmos et NEMO. Le réentraînement continu sur des séquences locales maintient la performance élevée et réduit les faux positifs.
Les petites villes peuvent-elles utiliser ces technologies ?
Oui. La ville de Dubuque a démontré que les villes de taille moyenne peuvent servir de bancs d’essai pour la gestion du trafic pilotée par l’IA. Des solutions évolutives conviennent à une gamme de tailles et de budgets municipaux.
Quel impact cela a-t-il sur la réponse aux urgences ?
La vidéo améliorée par l’IA peut accélérer la conscience situationnelle et automatiser les alertes, ce qui favorise une réponse aux urgences plus rapide. Les flux d’événements structurés peuvent s’intégrer aux systèmes de répartition et de gestion des incidents.
Où puis-je en savoir plus sur l’opérationnalisation des données caméra ?
Visionplatform.ai fournit des conseils pratiques sur la conversion des flux de caméras en événements opérationnels consultables. Pour des exemples pratiques, consultez nos ressources sur la détection de personnes et la recherche médico-légale pour comprendre les workflows typiques.