Plugin d’analyse vidéo IA de Hanwha pour Wisenet Wave

décembre 7, 2025

Platform updates

wisenet wave vms : gestion vidéo pour les systèmes de surveillance modernes

Wisenet WAVE VMS est une plateforme centralisée qui simplifie la gestion vidéo pour les équipes de sécurité modernes. Premièrement, elle offre un tableau de bord unique pour l’état des caméras, les flux en direct et les enregistrements. Ensuite, elle permet aux opérateurs de configurer des alertes et de revoir les incidents avec moins de clics. La plateforme s’intègre aux services cloud, tout en prenant en charge des workflows sur site afin que les organisations puissent répondre aux exigences de conformité. Hanwha Vision a conçu ce VMS pour prendre en charge l’IA embarquée sur les caméras et les appliances, de sorte que l’analyse vidéo s’exécute au plus près de la source.

De plus, la plateforme réduit la surveillance manuelle en mettant en avant les clips et événements pertinents. Par exemple, le comportement anormal assisté par IA et les workflows d’incident automatiques réduisent le temps nécessaire pour retrouver des séquences. En conséquence, les temps de réponse s’améliorent et l’efficacité opérationnelle globale augmente. Le système prend en charge une gamme de types d’appareils, ce qui rend l’intégration des caméras existantes simple. De plus, les administrateurs peuvent contrôler les paramètres des caméras de manière centralisée et pousser des mises à jour de profil sans se rendre sur chaque appareil.

En outre, Wisenet WAVE apporte des analyses au niveau des appareils vers la console centrale. Le traitement en périphérie réduit la charge réseau et diminue les coûts de stockage, car seuls les clips ou métadonnées pertinents sont transmis au serveur. Ce modèle décentralisé permet de supporter davantage de caméras avec la même infrastructure. Il permet également des contrôles de sécurité plus stricts puisque les vidéos brutes peuvent rester sur site tandis que les métadonnées alimentent les tableaux de bord. Pour les équipes soucieuses des performances du système, la plateforme offre des performances constantes et une voie claire de montée en version.

Également utile, la plateforme prend en charge des extensions par plugin afin d’ajouter des fonctionnalités sur mesure. Les administrateurs peuvent ajouter ou supprimer des fonctionnalités sans réarchitecturer le VMS. Pour les équipes qui ont besoin d’analyses plus poussées ou de détections personnalisées, les plugins permettent l’intégration avec des services tiers. Par exemple, Visionplatform.ai s’intègre à Wisenet WAVE pour publier des détections sous forme d’événements MQTT afin que les opérations puissent utiliser les caméras comme capteurs pour les tableaux de bord et l’automatisation. Si vous déployez la vidéosurveillance à grande échelle, Wisenet WAVE offre le contrôle et la flexibilité requis par les projets de systèmes de sécurité modernes.

ai analytics plugin: plugin deployment and integration

L’architecture du plugin d’analyse IA prend en charge à la fois les déploiements sur appareils en périphérie et sur serveur hébergé. Premièrement, les modèles d’IA peuvent s’exécuter sur des caméras compatibles ou sur des appliances NVR. Deuxièmement, ils peuvent s’exécuter sur un serveur GPU si vous préférez un traitement centralisé. Cette approche hybride signifie que vous pouvez équilibrer latence, bande passante et coût. Le plugin communique avec le VMS via une API standard afin que les événements apparaissent dans la console principale. De plus, les administrateurs peuvent acheminer les métadonnées vers des systèmes tiers, ce qui aide les équipes opérationnelles à transformer les alertes en workflows.

Le déploiement suit des étapes claires. D’abord, installez le paquet du plugin sur le serveur WAVE ou sur l’appliance. Ensuite, appliquez la clé de licence appropriée et activez les fonctionnalités requises pour votre site. Puis, enregistrez les caméras supportées et confirmez la compatibilité du firmware. Le plugin prend en charge une gamme de modèles HANWHA et de nombreuses caméras ONVIF tierces. De plus, vous pouvez configurer des profils d’analyse des caméras et ajuster la sensibilité via les paramètres des caméras. Pour les sites complexes, Visionplatform.ai propose un réentraînement optionnel des modèles et un réglage spécifique au site afin que les détections correspondent aux types d’objets réels et réduisent les faux positifs.

Les principales fonctionnalités du plugin incluent des alertes en temps réel, une réduction de la bande passante et du stockage, et une configuration flexible des règles. Le plugin peut déclencher des alarmes lorsqu’un événement est détecté puis, en option, lancer un enregistrement ou une notification. Ce comportement garantit que la fonction d’enregistrement vidéo se concentre sur les séquences significatives. De plus, le plugin permet d’exécuter plusieurs analyses en parallèle afin que vous puissiez combiner la détection de flânage avec le comptage de personnes. Lorsqu’un événement déclencheur se produit, le VMS enregistre l’incident et lie le clip pertinent.

Opérateur utilisant un tableau de bord centralisé de gestion vidéo

Enfin, le plugin propose un portail d’assistance pour la gestion des licences et les mises à jour. Les administrateurs peuvent télécharger les firmwares compatibles et accéder aux guides de configuration. Si une intégration avec des systèmes externes est nécessaire, le plugin prend en charge les webhooks et MQTT afin que les trigger_events circulent vers les plateformes de ticketing ou d’automatisation.

AI vision within minutes?

With our no-code platform you can just focus on your data, we’ll do the rest

hanwha vision and hanwha ai analytics

Hanwha est un développeur actif de technologies de surveillance pilotées par l’IA depuis plusieurs années. Hanwha Vision se concentre sur du matériel et des firmwares robustes, tandis que ses équipes logicielles développent des fonctionnalités analytiques qui fonctionnent en périphérie. La société publie des guides techniques et des résultats de performance montrant une amélioration de la précision de détection et une réduction des fausses alertes. Par exemple, la documentation de Hanwha Vision met en avant comment la détection automatique d’incidents réduit les alertes inutiles et renforce la confiance des opérateurs Détection automatique d’incidents – Hanwha Vision Europe Limited.

De plus, la feuille de route des analyses IA de Hanwha met l’accent sur l’inférence en périphérie, l’élargissement des classifications d’objets et les modèles de déploiement hybrides. La feuille de route prend en charge des fonctionnalités analytiques embarquées qui permettent aux caméras de pré-filtrer les événements avant de les transmettre au VMS. Hanwha investit dans la recherche sur l’analyse des comportements et les métriques de foule, ce qui améliore la surveillance de grands sites comme les hubs de transport. De plus, la société suit des indicateurs de durabilité et de performance dans des rapports publics ; le rapport de durabilité 2025 détaille comment la co-conception des analyses et du matériel réduit la charge des centres de données et la consommation d’énergie Rapport de durabilité 2025 – Hanwha Vision.

Les données du marché montrent que le secteur est en expansion. Le marché mondial de l’analyse vidéo par IA était évalué à environ 9,40 milliards USD en 2024 et devrait augmenter, reflétant la demande croissante pour la détection automatisée et les workflows de revue efficaces Marché de l’analyse vidéo IA – Taille, part et tendances mondiales …. De plus, les solutions de Hanwha ont démontré des améliorations mesurables dans la réponse aux incidents et des économies de coûts en réduisant les patrouilles et la surveillance en direct. Hanwha TechWin America et les équipes régionales associées soutiennent également les déploiements et l’intégration des systèmes, garantissant la conformité locale et le service pour les grands clients.

analytics and ai analytics capabilities

Les fonctions analytiques de base incluent la détection de comportements anormaux, le comptage de foule et la classification d’objets. La plateforme peut détecter des bagages laissés sans surveillance, compter des personnes dans une file et classifier des véhicules par type. Ces fonctions s’exécutent sur les caméras, sur les NVR et au sein du client WAVE, de sorte que le traitement est décentralisé. L’IA sur les caméras réduit la latence et maintient les flux bruts localement. Par conséquent, les réseaux transportent moins de trafic et l’utilisation du stockage diminue. De plus, les analystes peuvent rechercher les métadonnées rapidement et trouver le bon clip sans rembobiner des heures de vidéos.

Le système améliore la détection automatique d’incidents en combinant plusieurs indices capteurs et seuils de confiance. Cette méthode réduit les faux positifs et allège ainsi la fatigue des opérateurs. Par exemple, lorsqu’un objet détecté déclenche une règle d’intrusion, le système peut vérifier la taille, la vitesse et la direction avant d’escalader. Les modèles d’IA sont optimisés pour détecter les personnes et les véhicules dans des scènes encombrées. Lorsque les détections sont incertaines, le VMS peut signaler les événements pour une revue humaine plutôt que de générer une alarme complète.

De plus, l’analyse caméra peut diffuser des événements structurés vers des systèmes externes. Visionplatform.ai utilise ce schéma pour publier des détections via MQTT afin que les équipes opérationnelles puissent utiliser les données caméra pour les KPI et la surveillance des processus. Cette approche transforme les caméras en capteurs opérationnels. Pour les sites qui nécessitent des détections spécifiques, les équipes peuvent créer des modèles personnalisés qui reconnaissent de nouveaux types d’objets cibles. Le résultat est une meilleure adéquation entre les analyses et les objets réels importants pour un site. Pour plus de détails sur des détections spécifiques au site comme le flânage ou les métriques de foule, consultez les ressources sur le comptage de personnes et le flânage, telles que la page détaillée sur le comptage de personnes dans les aéroports comptage de personnes dans les aéroports.

Caméra de surveillance IP montée sur un mur

AI vision within minutes?

With our no-code platform you can just focus on your data, we’ll do the rest

loiter, line crossing and object detection

La détection de flânage identifie les objets qui restent dans une zone définie plus longtemps que prévu. Vous créez un polygone virtuel pour spécifier la zone, puis vous définissez les seuils temporels. Si le système détecte des objets qui restent dans ce polygone plus longtemps qu’un temps spécifié, une alerte est déclenchée. Cette logique aide les équipes à repérer des personnes non accompagnées ou des objets laissés. Le système prend également en charge la détection d’objets laissés et peut détecter des objets abandonnés dans un terminal fréquenté ; consultez l’exemple de détection d’objets abandonnés pour les opérations aéroportuaires détection d’objets abandonnés dans les aéroports.

L’analyse de franchissement de ligne vous permet de tracer une ligne virtuelle et de définir des règles de direction. Le système détecte si une personne ou un véhicule franchit cette ligne virtuelle pendant une période prédéfinie et peut ignorer les franchissements dans la direction opposée. Vous pouvez créer une ligne virtuelle à segments multiples pour des périmètres complexes. Si un objet traverse une ligne virtuelle et correspond au type d’objet que vous avez défini, le VMS peut marquer le clip et envoyer une alerte. Ceci est utile pour le contrôle des flux aux entrées et pour les vérifications de périmètre dans des zones restreintes.

Les classes de détection d’objets incluent personnes, véhicules et animaux. Les classificateurs d’objets avancés peuvent distinguer les bicyclettes des motos et les camionnettes des camions. Vous pouvez combiner la détection d’objets avec d’autres règles pour créer des alertes composites. Par exemple, vous pouvez détecter et classifier des personnes qui entrent dans une zone puis y restent, ou détecter des véhicules qui se garent dans une zone de chargement plus longtemps que permis. Pour affiner la couverture, vous pouvez tracer un polygone personnalisé pour englober la zone des vérifications d’objets et créer des règles personnalisées qui ne déclenchent que lorsque des types d’objets spécifiques entrent dans ce polygone. Cette flexibilité réduit les alertes indésirables et améliore la précision.

wisenet wave and video surveillance use cases

Wisenet WAVE est largement utilisé dans le commerce de détail, les hubs de transport et les infrastructures critiques. Dans le commerce de détail, les analyses aident à la gestion des files d’attente et à la prévention des pertes. Dans les aéroports, la détection de foule et le comptage de personnes fluidifient le flux des passagers et soutiennent les décisions opérationnelles ; voyez comment la détection de personnes dans les aéroports s’applique ici détection de personnes dans les aéroports. De plus, les cas d’utilisation de violation de périmètre combinent la détection d’intrusion avec la vérification vidéo pour réduire les fausses alertes et accélérer la réponse. Pour les centres de données et autres sites à haute sécurité, le système prend en charge les intégrations de contrôle d’accès et les workflows d’intrusion qui s’alignent sur les exigences de conformité Défendre vos centres de données – Hanwha Vision Europe Limited.

Les indicateurs de performance montrent des bénéfices clairs. Les déploiements rapportent des temps de détection d’incidents plus rapides, des coûts de stockage réduits et moins de faux positifs. Les caméras IA et les analyses vidéo et audio périphériques réduisent le volume de séquences enregistrées tout en augmentant la pertinence des clips stockés. Par conséquent, les opérateurs passent moins de temps à chercher et plus de temps à agir. Les vendeurs estiment que le marché mondial de l’analyse vidéo par IA connaîtra une forte croissance au cours de la prochaine décennie, ce qui soutient l’investissement continu dans la vidéo intelligente et les technologies d’analyse caméra Marché de l’analyse vidéo IA – Taille, part et tendances mondiales ….

De plus, les intégrateurs peuvent activer plusieurs analyses en parallèle, ce qui aide à une sécurité en couches. Par exemple, les équipes peuvent exécuter la détection de flânage et le comptage de personnes dans les halls d’arrivée et les associer à la détection thermique de personnes pour la surveillance hors horaires détection thermique de personnes dans les aéroports. Cette approche combinée améliore la conscience situationnelle et réduit la dépendance à la surveillance en direct. Pour les organisations qui nécessitent un réglage spécifique au site, Visionplatform.ai peut créer des modèles personnalisés et diffuser des événements vers les opérations afin que les caméras fonctionnent comme des capteurs pour l’intelligence métier et les systèmes OT.

FAQ

What is the Wisenet WAVE VMS?

Wisenet WAVE est un système de gestion vidéo centralisé conçu par Hanwha pour les déploiements de surveillance modernes. Il simplifie la gestion des appareils, l’enregistrement et l’alerte tout en prenant en charge les analyses embarquées et les extensions par plugin.

How does the AI analytics plugin deploy?

Le plugin d’analyse IA peut s’exécuter sur des appareils en périphérie comme les caméras et les NVR ou sur un serveur GPU. L’installation nécessite une licence, un firmware compatible et l’enregistrement des caméras supportées ; après la configuration, les événements s’intègrent au client WAVE.

Can loiter detection be customised?

Oui, vous pouvez tracer un polygone personnalisé pour englober la zone et définir des seuils temporels afin que le système détecte les objets qui restent dans la zone définie plus longtemps que permis. Cela réduit les alertes indésirables.

Does the system support line crossing rules?

Oui, les administrateurs peuvent créer une ligne virtuelle ou une ligne virtuelle à segments multiples et définir des règles spécifiques à la direction. Le système détecte les objets qui franchissent une ligne définie pendant la période configurée.

How are false positives reduced?

Les modèles d’IA combinent des vérifications de taille, de vitesse et de classification pour valider les événements avant de déclencher des alarmes. De plus, des règles en couches et des seuils de confiance empêchent les détections de faible qualité de générer une alerte.

Can analytics run on cameras as well as servers?

Oui, l’analyse IA sur les caméras est supportée afin que le traitement s’effectue en périphérie. Cette configuration réduit la bande passante et maintient les vidéos brutes localement tout en diffusant les métadonnées vers le VMS pour revue.

How do plugins integrate with other systems?

Les plugins peuvent publier des événements via des webhooks ou MQTT afin que les alertes circulent vers des systèmes de ticketing, BI ou OT. Cela permet aux équipes de traiter les caméras comme des capteurs opérationnels ainsi que comme des dispositifs de sécurité.

What types of objects can be detected?

Les classes typiques incluent personnes, véhicules et animaux. Les classificateurs avancés reconnaissent des sous-types, et des modèles personnalisés peuvent ajouter un nouvel objet cible spécifique à votre site.

Is Visionplatform.ai compatible with Wisenet WAVE?

Oui, Visionplatform.ai s’intègre à Wisenet WAVE pour diffuser les détections et permettre des usages opérationnels au-delà des alertes. L’intégration prend en charge les déploiements sur site et les workflows conformes au RGPD.

Where can I find detailed airport use cases?

Visionplatform.ai publie des pages dédiées qui couvrent la détection de personnes, la détection de flânage, la détection d’objets abandonnés et d’autres sujets pour aider les équipes aéronautiques à planifier les déploiements. Consultez les ressources sur la détection de personnes et le flânage pour des conseils ciblés détection de personnes dans les aéroports et détection de flânage dans les aéroports.

next step? plan a
free consultation


Customer portal