Hanwha Vision : analyse vidéo pilotée par l’IA et capacités intelligentes
Hanwha Vision a transformé la vidéo d’un enregistrement passif en un capteur actif, en intégrant l’intelligence artificielle directement dans le matériel des caméras. Le SoC Wisenet 9 alimente ce changement et exécute un traitement d’image complexe en périphérie pour réduire la latence et les besoins en bande passante. Par exemple, le SoC permet à une caméra de filtrer les événements avant qu’ils ne quittent l’appareil, et ce modèle réduit à la fois la bande passante et les besoins de stockage tout en protégeant les données localement. Vous pouvez en lire plus sur le SoC Wisenet 9 et les points forts des produits lors de la présentation de Hanwha Vision à ISC West.
Premièrement, l’IA transforme chaque caméra en un capteur sur site qui voit, classe et priorise les événements en temps réel. Deuxièmement, cette approche améliore la connaissance de la situation et accélère la réaction. Troisièmement, elle rend la vidéo avancée accessible au-delà des équipes de sécurité pour les opérations et les tableaux de bord exécutifs. Dans le commerce de détail, par exemple, les informations issues des caméras soutiennent le merchandising et la gestion des files d’attente, et les opérateurs peuvent agir sur les données de temps d’attente pour réduire les pertes et améliorer le service. Pour un exemple pratique de métriques centrées sur les personnes, voir notre référence au comptage de personnes, qui montre comment les données des caméras deviennent une métrique opérationnelle.
Hanwha Vision se positionne comme fournisseur global de solutions visuelles et promeut des modèles dignes de confiance et explicables. An Soon-Hong a déclaré que le marché évolue vers des systèmes « super-intelligents » qui utilisent l’IA pour décider et non simplement pour enregistrer ; cette citation et cette analyse apparaissent dans le communiqué de tendances de Hanwha sur les tendances de la vidéosurveillance pour 2025. De plus, la société met en avant sa conception optique de classe mondiale qui favorise les performances en faible luminosité et une classification précise.
Visionplatform.ai considère ce changement comme complémentaire. Nous aidons les organisations à transformer les caméras CCTV existantes en capteurs opérationnels et à intégrer les détections dans les VMS et les systèmes métier, et nous le faisons avec un contrôle sur site pour répondre aux besoins de protection des données. Ainsi, lorsqu’un site a besoin de modèles personnalisés, ou lorsque des équipes veulent tirer parti de l’IA sans envoyer la vidéo uniquement vers le cloud, notre plateforme prend en charge cette intégration et conserve les jeux de données localement pour la conformité.
Globalement, la combinaison d’analyses vidéo basées en périphérie et d’une conception SoC robuste offre des alertes plus rapides, une meilleure connaissance de la situation et une moindre dépendance aux serveurs centraux. Par conséquent, les opérateurs obtiennent un système de sécurité vidéo plus proactif qui soutient la sûreté et l’intelligence métier tout en réduisant les coûts et les risques.
Analyses et informations opérationnelles : détection d’objets et détection de flânage dans la série P
La série P apporte des analyses embarquées aux déploiements quotidiens. Son moteur intégré classe les personnes, véhicules et objets à la périphérie, puis envoie des événements structurés plutôt que des flux bruts. Cette famille de fonctionnalités comprend la détection d’objets, qui reconnaît les formes et les classes même dans des scènes dynamiques. Pour les ateliers de fabrication, la détection d’objets aide à suivre les palettes, véhicules et outils, et réduit les vérifications manuelles tout en améliorant le débit. Pour le commerce de détail, la détection d’objets informe le personnel sur la manipulation des produits et le flux de clients, et améliore les décisions de merchandising.
La détection du flânage est une capacité clé de la série P qui fournit des alertes proactives lorsqu’un individu reste dans une zone au-delà du temps attendu. Lorsqu’elle est appliquée aux zones d’accès ou aux périmètres, cette fonctionnalité réduit le risque en signalant les comportements suspects et en facilitant la vérification rapide. Pour les lecteurs qui souhaitent un cas d’utilisation détaillé, notre ressource sur la détection du flânage explique comment les règles de temps de présence se traduisent en seuils d’alerte et en workflows opérationnels.
La série P utilise l’IA embarquée pour appliquer des listes de surveillance et des cartes thermiques, et elle alimente un tableau de bord central avec des données d’événements affinées au lieu de vidéo brute. En conséquence, le personnel de sécurité passe moins de temps sur des fausses alertes et plus de temps sur des incidents vérifiés. Le système prend également en charge la reconnaissance de plaques d’immatriculation pour l’accès des véhicules et la logistique. Par exemple, les plaques peuvent être comparées à des listes de surveillance pour déclencher des actions de portail ou des notifications, ce qui accélère le passage aux entrées très fréquentées.
Cette série s’étend également au-delà des alarmes standard et prend en charge des objectifs non liés à la sécurité. Les installations surveillent la longueur des files et les temps d’attente pour améliorer la satisfaction client, et les superviseurs mesurent l’occupation pour optimiser le personnel. La série P réalise cela tout en maintenant une grande précision de détection, grâce à une conception optique de classe mondiale et au pipeline de traitement d’image du SoC. De plus, les caméras peuvent exécuter des classifieurs personnalisés, de sorte que les sites peuvent entraîner des modèles pour des objets spécifiques sans envoyer les images à des fournisseurs externes. Dans l’industrie, cela réduit les temps d’arrêt puisque la caméra reconnaît rapidement les allées bloquées, les pièces mal placées ou les mouvements de véhicules.

Enfin, les analyses de la série P produisent des informations opérationnelles qui alimentent les tableaux de bord et les systèmes opérationnels. Elles créent des flux d’événements utilisables par les outils SCADA ou BI, ce qui permet aux équipes des installations de convertir les détections en améliorations mesurables. L’effet combiné est une utilisation plus intelligente des données des caméras pour la sécurité et les opérations.
AI vision within minutes?
With our no-code platform you can just focus on your data, we’ll do the rest
vidéo intelligente et gestion des alarmes IA pour des alertes et des informations précises
Les flux de travail vidéo intelligents réduisent le bruit et affinent la focalisation. L’architecture de Hanwha Vision ajoute des filtres d’alarme basés sur l’IA et des règles d’alerte personnalisables pour gérer des scénarios complexes. Ces filtres vérifient les attributs des objets, la direction des objets et les indices contextuels avant qu’une alerte ne soit déclenchée. Cela limite la charge d’alarmes inutile et contribue à réduire les fausses alertes, de sorte que les équipes puissent faire confiance aux alertes et répondre plus rapidement. En pratique, une caméra validera un événement de traversée seulement lorsqu’un véhicule autorisé et sa plaque correspondent aux politiques, puis elle escaladera l’alerte vers une console centrale.
Les règles d’alarme intégrées basées sur l’IA permettent aux gestionnaires de spécifier des listes de surveillance, des fenêtres temporelles et des zones d’exclusion. Par exemple, un site peut couper les alarmes lorsque des véhicules de service chargent pendant des plages horaires prévues, tout en restant sensible à la détection d’intrusion en dehors des heures d’ouverture. Le flux de travail prend en charge les webhooks et MQTT afin que les données d’alarme deviennent exploitables sur différentes plateformes. Notre plateforme montre également comment les alarmes peuvent alimenter des tableaux de bord opérationnels plutôt que de rester enfouies dans un VMS. Voir notre exemple d’intrusion pour un exemple de règles et d’intégrations détection d’intrusion.
Les faux positifs diminuent parce que les analyses IA comprennent la taille, la vitesse et la classification des objets. Le système combine l’inférence en périphérie avec la corrélation centrale, et cette méthode hybride réduit le temps de vérification. Pour les installations à haut risque, des éléments comme les listes de surveillance et la reconnaissance de visage ou de plaque renforcent la détection des menaces et la connaissance de la situation. En conséquence, les équipes de sécurité adoptent un modèle de réponse par niveaux où des portails automatisés, le contrôle d’accès et la vérification humaine agissent en séquence.
La gestion intelligente des alarmes soutient aussi les fonctions métier. Les alarmes peuvent déclencher des notifications opérationnelles, ce qui aide les équipes à agir sur des incidents affectant le débit ou le service. Par exemple, une alerte concernant une barrière de file cassée peut être envoyée à la maintenance tandis que l’équipe de sécurité reçoit une tâche de vérification parallèle. Ainsi, la plateforme apporte à la fois une valeur en matière de sécurité et une intelligence opérationnelle et métier. En bref, des alarmes précises conduisent à une action plus rapide, une meilleure allocation des ressources et de meilleurs résultats.
SightMind cloud pour des analyses opérationnelles avancées dans la série X
SightMind™ est la plateforme cloud de Hanwha Vision qui met à l’échelle les analyses et centralise les données de santé et d’événements. L’approche hébergée dans le cloud simplifie la configuration à distance et les mises à jour système à l’échelle. Elle offre aux administrateurs une interface unique pour les règles, la distribution de firmware et la revue des événements. Pour les déploiements qui nécessitent à la fois une inférence en périphérie et une supervision centralisée, SightMind fournit une voie hybride qui équilibre le traitement local et les analyses au niveau cloud. Hanwha a présenté de nombreuses capacités de SightMind à ISC West ; voir le compte rendu de l’événement pour le contexte couvrant leurs innovations à ISC West.
Les dispositifs de la série X complètent les fonctions en périphérie de la série P en diffusant des événements affinés vers le cloud pour une analyse longitudinale. Alors que la série P se concentre sur les décisions immédiates effectuées sur la caméra, la série X associée à SightMind permet des métriques globales de plateforme, des analyses de tendances et des recherches historiques. La plateforme cloud standardise la télémétrie entre des sites dispersés et prend en charge des tableaux de bord inter-sites. Elle gère aussi les listes de surveillance, l’accès basé sur les rôles et les alertes de santé du système pour les installateurs et les opérateurs.
L’accès cloud réduit la charge des équipes locales. Les administrateurs peuvent extraire des rapports de firmware, vérifier l’état des caméras et exporter des résumés analytiques. De plus, les services hébergés dans le cloud permettent la collaboration entre la sécurité, les opérations et les équipes exécutives. Pour les organisations qui préfèrent un contrôle privé, les déploiements hybrides gardent les données sensibles sur site tout en envoyant des métadonnées vers le cloud. Cette intégration correspond à des besoins de conformité divers et prend en charge la préparation au règlement européen sur l’IA en offrant des flux de données configurables.
SightMind prend également en charge des fonctions métier avancées telles que l’optimisation basée sur les tendances, et s’intègre à des plateformes tierces pour l’expédition et la logistique. Pour les aéroports, par exemple, les analyses cloud se combinent aux flux ANPR et aux métriques de flux de passagers pour optimiser l’affectation des portes et réduire les temps d’attente des passagers. Pour des cas d’usage aéroportuaires plus spécialisés, incluant ANPR et détection d’EPI, explorez nos ressources ANPR/LPR et détection d’EPI. SightMind agit donc comme la plateforme centrale qui transforme des dispositifs distribués en un environnement analytique cohérent.

AI vision within minutes?
With our no-code platform you can just focus on your data, we’ll do the rest
réduction du bruit et précision de détection : capacité IA de la série P
La réduction du bruit est importante pour la précision de détection, et la série P se concentre sur la réduction du bruit multi-images pour améliorer l’imagerie en faible luminosité. La caméra empile des images et filtre le bruit du capteur, puis fournit des images plus nettes aux classifieurs. Cette technique améliore la probabilité que de petits objets et des plaques d’immatriculation soient reconnus au crépuscule ou sous un éclairage artificiel. Le pipeline de traitement d’image du SoC améliore le contraste et réduit les artefacts, de sorte que les modèles d’IA en aval prennent de meilleures décisions.
Dans les scènes encombrées, le système utilise des indices spatiaux et temporels pour séparer les objets qui se chevauchent. Cela signifie que la détection d’objets passe de la surveillance d’une seule personne au suivi de foules denses. Pour les aéroports ou les hubs de transit, les mesures de densité de foule et les analyses de files préviennent les goulots d’étranglement et améliorent le flux des passagers. Pour ceux qui s’intéressent à la gestion des foules, voir notre ressource sur la détection et densité de foule. La série P aide également à détecter les comportements suspects et le flânage, donnant aux équipes le temps de vérifier et d’intervenir avant que les incidents n’escaladent.
Les infrastructures critiques bénéficient lorsque les caméras maintiennent la précision de détection dans des conditions difficiles. Par exemple, l’identification des véhicules fonctionne même dans un éclairage mixte, et le système associe les lectures de plaques au contrôle d’accès pour valider les entrées. Les caméras utilisent une combinaison de conception optique et de traitement au niveau du SoC pour maximiser la clarté à distance. L’approche complète les systèmes de détection d’intrusion et prend en charge les workflows de rupture de périmètre.
Au-delà de la simple détection, les sites obtiennent des informations opérationnelles à partir d’événements fiables. Lorsque les détections deviennent cohérentes, les analystes peuvent faire confiance aux tableaux de bord et aux KPI, puis lancer des programmes d’optimisation pour le débit et la sécurité. Notre plateforme publie les événements en temps réel pour les systèmes BI, ce qui permet une amélioration continue entre les équipes. En bref, la réduction du bruit améliore la détection, et une meilleure détection génère des gains opérationnels mesurables.
analyses vidéo pilotées par l’IA pour des informations opérationnelles et l’optimisation
De la capture au tableau de bord, une chaîne de bout en bout transforme les pixels en événements exploitables. D’abord, les caméras capturent la vidéo et appliquent le traitement d’image et la réduction du bruit multi-images. Ensuite, l’inférence embarquée classe les objets, puis le système diffuse des événements structurés vers la plateforme. Enfin, les tableaux de bord et les API alimentent les opérations, de sorte que les équipes convertissent les alertes en tâches de workflow. Cette chaîne soutient à la fois la sécurité et l’optimisation opérationnelle.
L’optimisation basée sur les données améliore le débit et la sécurité. Pour la fabrication, les caméras enregistrent les anomalies de ligne de production et déclenchent des alertes d’anomalie de processus qui réduisent les temps d’arrêt. Pour le commerce de détail et les transports, les analyses des files et des temps d’attente aident à réaffecter le personnel pour répondre à la demande et réduire la congestion. Visionplatform.ai se spécialise dans la publication de ces événements vers MQTT et VMS afin que les outils BI et SCADA puissent les consommer. Ce faisant, les caméras deviennent des capteurs qui soutiennent la sécurité et l’intelligence métier dans l’ensemble de l’entreprise.
En regardant vers l’avenir, les tendances indiquent une prise de décision plus autonome en périphérie et une intégration plus étroite entre les systèmes. Hanwha Vision prédit une IA digne de confiance et la durabilité comme piliers du développement futur, et cette vue s’aligne sur la recherche sectorielle plus large sur la vidéo comme capteur et l’adoption de l’IA prévisions de marché jusqu’en 2035. De plus, des rapports industriels récents soulignent le passage vers la surveillance habilitée par l’IA comme technologie métier centrale dans de nouvelles recherches basées sur l’IA.
Lorsque les organisations pèsent les options, elles doivent équilibrer l’inférence en périphérie et l’orchestration cloud, et contrôler les flux de données pour la conformité. En termes pratiques, cela signifie choisir des systèmes qui vous permettent d’entraîner des modèles sur site, d’intégrer les alertes aux workflows existants et de passer de dizaines à des milliers de flux. En fin de compte, les solutions pilotées par l’IA rendront la surveillance plus intelligente et les opérations plus efficaces, tout en protégeant la vie privée et en réduisant les fausses alertes.
FAQ
Qu’est-ce que le SoC Wisenet 9 et pourquoi est-il important ?
Le SoC Wisenet 9 est la puce de Hanwha Vision qui exécute le traitement d’image et les modèles d’IA sur la caméra. Elle est importante parce qu’elle réduit la latence et localise le traitement, ce qui diminue la bande passante et préserve la vie privée.
Comment fonctionne la détection d’objets dans la série P ?
Les caméras de la série P appliquent des classifieurs entraînés sur les images entrantes pour identifier les personnes, véhicules et autres classes d’objets. Elles envoient ensuite des événements structurés à une plateforme ou à un VMS afin que les équipes puissent agir rapidement sur les détections.
La détection du flânage peut-elle être ajustée pour des sites spécifiques ?
Oui, la détection du flânage utilise des seuils configurables pour le temps de présence et des zones afin que chaque site puisse adapter la sensibilité. Cela réduit les alertes inutiles tout en gardant l’attention sur les comportements réellement suspects.
Qu’est-ce que SightMind et que fait-il ?
SightMind est la plateforme cloud de Hanwha Vision qui agrège les événements, les métriques de santé et les analyses entre les dispositifs. Elle permet la gestion centralisée, l’analyse des tendances et la collaboration entre sites.
En quoi les approches cloud et périphérie diffèrent-elles ?
Le traitement en périphérie prend des décisions immédiates sur la caméra et réduit la bande passante et la latence. Les plateformes cloud fournissent un stockage à long terme, une corrélation inter-sites et des analyses centralisées pour l’optimisation.
Les analyses de caméra peuvent-elles alimenter des systèmes métier ?
Oui, les événements des caméras peuvent alimenter BI, SCADA et tableaux de bord opérationnels pour stimuler l’optimisation et améliorer la sécurité. Notre plateforme publie les événements vers MQTT et s’intègre aux VMS à cet effet.
Comment la réduction du bruit améliore-t-elle la détection ?
La réduction du bruit multi-images nettoie l’imagerie en faible luminosité afin que les modèles d’IA reçoivent des entrées plus claires. Cela conduit à une meilleure précision de détection pour les plaques, les visages et les petits objets.
Les alarmes IA sont-elles suffisamment fiables pour les équipes de sécurité ?
Avec des filtres superposés, des listes de surveillance et des règles contextuelles, les alarmes IA deviennent plus fiables et réduisent les fausses alertes. Les intégrations avec le contrôle d’accès et les workflows de vérification renforcent encore la qualité de la réponse.
Comment cette technologie soutient-elle la conformité et la vie privée ?
En effectuant l’inférence sur les dispositifs en périphérie et en prenant en charge des flux cloud hybrides, les organisations peuvent garder la vidéo sensible localement tout en partageant des métadonnées pour les opérations. Cela aide à respecter le RGPD et d’autres cadres réglementaires.
Quelles tendances futures les organisations doivent-elles anticiper ?
Attendez-vous à davantage de décisions autonomes en périphérie, à un renforcement de la cybersécurité et à une intégration plus étroite avec les systèmes opérationnels. Ces tendances amélioreront l’optimisation et la connaissance de la situation sur les sites.