Hanwha KI-Videoanalyse-Plugin für Wisenet Wave

Dezember 7, 2025

Platform updates

wisenet wave vms: video management for modern surveillance system

Wisenet WAVE VMS ist eine zentralisierte Plattform, die die Videoverwaltung für moderne Sicherheitsteams vereinfacht. Erstens bietet sie ein einziges Dashboard für Kamerazustand, Live-Streams und aufgezeichnetes Filmmaterial. Außerdem können Bediener Alarme konfigurieren und Vorfälle mit weniger Klicks überprüfen. Die Plattform integriert Cloud-Services, unterstützt jedoch On-Prem‑Workflows, sodass Organisationen Compliance-Anforderungen erfüllen können. Hanwha Vision hat dieses VMS so entwickelt, dass es eingebettete KI auf Kameras und Appliances unterstützt, sodass Videoanalysen näher an der Quelle laufen.

Die Plattform reduziert zudem manuelle Überwachung, indem relevante Clips und Ereignisse hervorgehoben werden. Zum Beispiel verkürzen KI-gestützte Erkennung auffälligen Verhaltens und automatische Vorfallsabläufe die Zeit, die zum Auffinden von Aufnahmen benötigt wird. Dadurch verbessern sich Reaktionszeiten und die betriebliche Effizienz steigt insgesamt. Das System unterstützt eine Vielzahl von Gerätetypen, sodass die Integration vorhandener Kameras unkompliziert ist. Außerdem können Administratoren Kameraeinstellungen zentral steuern und Profilupdates verteilen, ohne jedes Gerät einzeln besuchen zu müssen.

Darüber hinaus bringt Wisenet WAVE gerätebasierte Analysen in die zentrale Konsole. Edge‑Verarbeitung reduziert die Netzlast und senkt die Speicherkosten, weil nur relevante Clips oder Metadaten zum Server gestreamt werden. Dieses dezentralisierte Modell unterstützt mehr Kameras mit derselben Infrastruktur. Es ermöglicht außerdem engere Sicherheitskontrollen, da Rohvideo vor Ort verbleiben kann, während Metadaten in Dashboards fließen. Für Teams, die sich auf die Systemleistung konzentrieren, liefert die Plattform konsistente Performance und einen klaren Upgrade‑Pfad.

Ebenfalls nützlich ist, dass die Plattform Plugin‑Erweiterungen unterstützt, sodass maßgeschneiderte Funktionen hinzugefügt werden können. Administratoren können Funktionalität hinzufügen oder entfernen, ohne das VMS neu zu gestalten. Für Teams, die tiefere Analysen oder benutzerdefinierte Erkennungen benötigen, erlauben Plugins die Integration mit Drittanbieterservices. Zum Beispiel integriert Visionplatform.ai sich mit Wisenet Wave, um Erkennungen als MQTT‑Ereignisse zu veröffentlichen, sodass der Betrieb Kamera‑als‑Sensor‑Daten für Dashboards und Automatisierung nutzen kann. Wenn Sie Videoüberwachung in großem Maßstab bereitstellen, bietet Wisenet WAVE die Kontrolle und Flexibilität, die moderne Sicherheitsprojekte benötigen.

ai analytics plugin: plugin deployment and integration

Die Architektur des AI‑Analytics‑Plugins unterstützt sowohl Edge‑Geräte als auch serverbasierte Bereitstellungen. Erstens können KI‑Modelle auf kompatiblen Kameras oder auf NVR‑Appliances laufen. Zweitens können sie auf einem GPU‑Server betrieben werden, wenn Sie zentrale Verarbeitung bevorzugen. Dieser hybride Ansatz ermöglicht es, Latenz, Bandbreite und Kosten auszugleichen. Das Plugin kommuniziert mit dem VMS über eine Standard‑API, sodass Ereignisse in der Hauptkonsole erscheinen. Administratoren können Metadaten außerdem an Dritt‑Systeme weiterleiten, was Betriebsteams hilft, Warnungen in Workflows zu überführen.

Die Bereitstellung folgt klaren Schritten. Zuerst installieren Sie das Plugin‑Paket auf dem WAVE‑Server oder der Appliance. Dann wenden Sie den entsprechenden Lizenzschlüssel an und aktivieren die für Ihren Standort benötigten Funktionen. Anschließend registrieren Sie unterstützte Kameras und bestätigen die Firmware‑Kompatibilität. Das Plugin unterstützt eine Reihe von HANWHA‑Modellen und viele Drittanbieter‑ONVIF‑Kameras. Außerdem können Sie Kamera‑Analyseprofile konfigurieren und die Empfindlichkeit über die Kameraeinstellungen anpassen. Für komplexe Standorte bietet Visionplatform.ai optionales Modell‑Retraining und standortspezifische Anpassungen, damit Erkennungen realweltliche Objekttypen abbilden und Fehlalarme reduzieren.

Wesentliche Plugin‑Funktionen umfassen Echtzeit‑Warnungen, reduzierte Bandbreite und Speicherbedarf sowie flexible Regelkonfiguration. Das Plugin kann Alarme auslösen, wenn ein Ereignis erkannt wird, und dann optional die Aufzeichnung oder eine Benachrichtigung auslösen. Dieses Verhalten stellt sicher, dass die Videoaufzeichnung sich auf bedeutendes Filmmaterial konzentriert. Außerdem ermöglicht das Plugin, mehrere Analysen parallel auszuführen, sodass Sie beispielsweise Loiter‑Erkennung mit Personenzählung kombinieren können. Wenn ein Auslöseereignis eintritt, protokolliert das VMS den Vorfall und verknüpft den relevanten Clip.

Operator using centralised video management dashboard

Abschließend bietet das Plugin ein Support‑Portal für Lizenzverwaltung und Updates. Administratoren können kompatible Firmware herunterladen und auf Konfigurationsanleitungen zugreifen. Falls eine Integration mit externen Systemen erforderlich ist, unterstützt das Plugin Webhooks und MQTT, sodass trigger_events in Ticketing‑ oder Automatisierungsplattformen fließen.

AI vision within minutes?

With our no-code platform you can just focus on your data, we’ll do the rest

hanwha vision and hanwha ai analytics

Hanwha ist seit Jahren ein aktiver Entwickler KI‑getriebener Überwachungstechnologien. Hanwha Vision konzentriert sich auf robuste Hardware und Firmware, während die Software‑Teams Analysefunktionen entwickeln, die am Edge laufen. Das Unternehmen veröffentlicht technische Leitfäden und Performance‑Ergebnisse, die verbesserte Erkennungsgenauigkeit und reduzierte Fehlalarme zeigen. Beispielsweise hebt die Dokumentation von Hanwha Vision hervor, wie die automatische Vorfallerkennung unnötige Alarme reduziert und das Vertrauen der Bediener stärkt Automatische Vorfallerkennung – Hanwha Vision Europe Limited.

Außerdem betont Hanwhas KI‑Analytics‑Roadmap Edge‑Inference, erweiterte Objektklassifikationen und hybride Bereitstellungsmodelle. Die Roadmap unterstützt eingebettete Analysefunktionen, mit denen Kameras Ereignisse vorfiltern können, bevor sie an das VMS weitergeleitet werden. Hanwha investiert in Forschung zu Verhaltensanalysen und Crowd‑Metriken, was die Überwachung großer Standorte wie Verkehrsknotenpunkte verbessert. Zusätzlich verfolgt das Unternehmen Nachhaltigkeits‑ und Leistungskennzahlen in öffentlichen Berichten; der Sustainability Report 2025 beschreibt, wie Analyse und Hardware‑Co‑Design die Lasten in Rechenzentren und den Energieverbrauch reduzieren Nachhaltigkeitsbericht 2025 – Hanwha Vision.

Marktdaten zeigen, dass der Sektor wächst. Der globale Markt für AI‑Video‑Analytics hatte im Jahr 2024 einen geschätzten Marktwert von ungefähr 9,40 Milliarden USD und soll weiter steigen, was die wachsende Nachfrage nach automatisierter Erkennung und effizienten Prüf‑Workflows widerspiegelt AI Video Analytics Market – Global Market Size, Share and Trends …. Außerdem haben Hanwhas Lösungen messbare Verbesserungen bei der Vorfallerkennung und Kosteneinsparungen gezeigt, indem Patrouillen und Live‑Monitoring reduziert wurden. Hanwha TechWin America und die zugehörigen regionalen Teams unterstützen zudem Bereitstellungen und Systemintegrationen, um lokale Compliance und Service für große Kunden sicherzustellen.

analytics and ai analytics capabilities

Kernfunktionen der Analytik umfassen Erkennung auffälligen Verhaltens, Personenzählung und Objektklassifikation. Die Plattform kann unbeaufsichtigtes Gepäck erkennen, Personen in einer Schlange zählen und Fahrzeuge nach Typ klassifizieren. Diese Funktionen laufen auf Kameras, auf NVRs und innerhalb des WAVE‑Clients, sodass die Verarbeitung dezentralisiert ist. KI‑Analysen auf Kameras verringern die Latenz und behalten Rohaufnahmen lokal. Infolgedessen belastet das Netzwerk weniger und der Speicherbedarf sinkt. Analysten können Metadaten außerdem schnell durchsuchen und den richtigen Clip finden, ohne stundenlanges Vorspulen.

Das System verbessert die automatische Vorfallerkennung, indem mehrere Sensoreingaben und Konfidenzschwellen kombiniert werden. Diese Methode reduziert Fehlalarme und entlastet so die Bediener. Beispielsweise kann das System bei einem erkannten Objekt, das eine Einbruchsregel auslöst, Größe, Geschwindigkeit und Richtung überprüfen, bevor es eskaliert. Die KI‑Modelle sind darauf optimiert, Personen und Fahrzeuge in unruhigen Szenen zu erkennen. Bei unsicheren Erkennungen kann das VMS Ereignisse zur menschlichen Überprüfung markieren, anstatt einen vollständigen Alarm zu erzeugen.

Außerdem können Kameraanalysen strukturierte Ereignisse an externe Systeme streamen. Visionplatform.ai nutzt dieses Muster, um Erkennungen per MQTT zu veröffentlichen, sodass Betriebsteams Kamera‑Daten für KPIs und Prozessüberwachung verwenden können. Dieser Ansatz verwandelt Kameras in betriebliche Sensoren. Für Standorte, die spezifische Erkennungen benötigen, können Teams benutzerdefinierte Modelle erstellen, die neue Zielobjekttypen erkennen. Das Ergebnis ist eine bessere Ausrichtung zwischen Analytik und den realweltlichen Objekten, die für einen Standort relevant sind. Für weitere Details zu standortspezifischen Erkennungen wie Herumlungern oder Crowd‑Metriken siehe die Ressourcen zur Personenzählung und Loitering‑Erkennung, beispielsweise die detaillierte Personenzählung an Flughäfenseite Personenzählung an Flughäfen.

IP security camera mounted on wall

AI vision within minutes?

With our no-code platform you can just focus on your data, we’ll do the rest

loiter, line crossing and object detection

Loiter‑Erkennung identifiziert Objekte, die sich länger als vorgesehen in einer definierten Zone aufhalten. Sie erstellen ein virtuelles Polygon, um den Bereich zu spezifizieren, und setzen dann Zeitgrenzen. Wenn das System Objekte erkennt, die länger als die festgelegte Zeit in diesem Polygon verbleiben, wird ein Alarm ausgelöst. Diese Logik hilft Teams, unbeaufsichtigte Personen oder zurückgelassene Gegenstände zu erkennen. Das System unterstützt außerdem Bereiche zur Erkennung zurückgelassener Objekte und kann zurückgelassene Gegenstände in einem belebten Terminal erkennen; sehen Sie sich das Beispiel zur Erkennung zurückgelassener Gegenstände für Flughafenbetriebe an Erkennung zurückgelassener Gegenstände an Flughäfen.

Line‑Crossing‑Analysen lassen Sie eine virtuelle Linie zeichnen und Richtungsregeln festlegen. Das System erkennt, ob eine Person oder ein Fahrzeug die virtuelle Linie während eines vordefinierten Zeitraums überschreitet, und kann Überschreitungen in die entgegengesetzte Richtung ignorieren. Sie können eine mehrsegmentige virtuelle Linie für komplexe Perimeter erstellen. Wenn ein Objekt eine virtuelle Linie überquert und dem definierten Objekttyp entspricht, kann das VMS den Clip markieren und eine Benachrichtigung senden. Dies ist nützlich für Zutrittskontrollen an Ein- und Ausgängen sowie für Perimeterkontrollen in gesperrten Bereichen.

Objekterkennungsklassen umfassen Personen, Fahrzeuge und Tiere. Fortgeschrittene Objektklassifikatoren können Fahrräder von Motorrädern und Vans von Lastwagen unterscheiden. Sie können Objekterkennung mit weiteren Regeln kombinieren, um zusammengesetzte Alarme zu erstellen. Beispielsweise können Sie Personen erkennen und klassifizieren, die einen Bereich betreten und dort verharren, oder Fahrzeuge erkennen, die länger als erlaubt in einer Ladezone parken. Um die Abdeckung feinzujustieren, können Sie ein benutzerdefiniertes Polygon zeichnen, das den Bereich für Objektprüfungen umfasst, und benutzerdefinierte Regeln erstellen, die nur ausgelöst werden, wenn bestimmte Objekttypen dieses Polygon betreten. Diese Flexibilität reduziert störende Alarme und verbessert die Genauigkeit.

wisenet wave and video surveillance use cases

Wisenet WAVE wird häufig im Einzelhandel, in Verkehrsknotenpunkten und in kritischen Infrastrukturen eingesetzt. Im Einzelhandel helfen Analysen bei Warteschlangenmanagement und Diebstahlprävention. In Flughäfen verbessern Crowd‑Erkennung und Personenzählung den Passagierfluss und unterstützen operative Entscheidungen; siehe, wie die Personenerkennung an Flughäfen hier Anwendung findet Personenerkennung an Flughäfen. Zudem kombinieren Einsatzfälle zur Perimeterverletzung Einbruchserkennung mit Videoverifikation, um Fehlalarme zu reduzieren und die Reaktion zu beschleunigen. Für Rechenzentren und andere Hochsicherheitsstandorte unterstützt das System Integrationen mit Zutrittskontrollsystemen und Einbruchsworkflows, die mit Compliance‑Anforderungen übereinstimmen Defending Your Data Centres – Hanwha Vision Europe Limited.

Leistungskennzahlen zeigen deutliche Vorteile. Implementierungen berichten von schnelleren Vorfallerkennungszeiten, geringeren Speicherkosten und weniger Fehlalarmen. KI‑Kameras und edge‑basierte Video‑ und Audioanalysen reduzieren das Volumen aufgezeichneter Aufnahmen, während die Relevanz der gespeicherten Clips zunimmt. Folglich verbringen Bediener weniger Zeit mit Suchen und mehr Zeit mit dem Handeln. Anbieter schätzen, dass der globale Markt für AI‑Video‑Analytics in den nächsten zehn Jahren deutlich wachsen wird, was weitere Investitionen in intelligente Video‑ und Kameraanalytiktechnologien unterstützt AI Video Analytics Market – Global Market Size, Share and Trends ….

Außerdem können Integratoren mehrere Analysen gleichzeitig aktivieren, was eine geschichtete Sicherheit unterstützt. Beispielsweise könnten Teams Loiter‑Erkennung und Personenzählung in Ankunftshallen ausführen und diese mit thermischer Personenerkennung für die Nachtüberwachung kombinieren Thermische Personenerkennung in Flughäfen. Dieser kombinierte Ansatz verbessert die Lageerkennung und reduziert die Abhängigkeit von Live‑Monitoring. Für Organisationen, die standortspezifische Anpassungen benötigen, kann Visionplatform.ai benutzerdefinierte Modelle erstellen und Ereignisse an den Betrieb streamen, sodass Kameras als Sensoren für Business‑Intelligence und OT‑Systeme agieren.

FAQ

What is the Wisenet WAVE VMS?

Wisenet WAVE ist ein zentralisiertes Video‑Management‑System, das von Hanwha für moderne Überwachungsbereitstellungen entwickelt wurde. Es vereinfacht die Geräteverwaltung, Aufzeichnung und Alarmierung und unterstützt eingebettete Analytik und Plugin‑Erweiterungen.

How does the AI analytics plugin deploy?

Das AI‑Analytics‑Plugin kann auf Edge‑Geräten wie Kameras und NVRs oder auf einem GPU‑Server laufen. Die Installation erfordert eine Lizenz, kompatible Firmware und die Registrierung unterstützter Kameras; nach der Einrichtung integrieren sich Ereignisse in den WAVE‑Client.

Can loiter detection be customised?

Ja, Sie können ein benutzerdefiniertes Polygon zeichnen, um den Bereich abzudecken, und Zeitgrenzen festlegen, sodass das System Objekte erkennt, die sich länger als erlaubt in dem definierten Bereich aufhalten. Das reduziert störende Alarme.

Does the system support line crossing rules?

Ja, Administratoren können eine virtuelle Linie oder eine mehrsegmentige virtuelle Linie erstellen und richtungsspezifische Regeln festlegen. Das System erkennt Objekte, die während des konfigurierten Zeitraums eine definierte Linie überqueren.

How are false positives reduced?

KI‑Modelle kombinieren Größen‑, Geschwindigkeits‑ und Klassifizierungsprüfungen, um Ereignisse vor dem Auslösen von Alarmen zu verifizieren. Zusätzlich verhindern geschichtete Regeln und Konfidenzschwellen, dass minderwertige Erkennungen einen Alarm auslösen.

Can analytics run on cameras as well as servers?

Ja, KI‑Analysen auf Kameras werden unterstützt, sodass die Verarbeitung am Edge stattfindet. Diese Konfiguration reduziert die Bandbreite und behält Rohvideos lokal, während Metadaten zum VMS für die Überprüfung gestreamt werden.

How do plugins integrate with other systems?

Plugins können Ereignisse über Webhooks oder MQTT veröffentlichen, sodass Warnungen in Ticketing‑, BI‑ oder OT‑Systeme fließen. Dadurch können Teams Kameras sowohl als operative Sensoren als auch als Sicherheitsgeräte behandeln.

What types of objects can be detected?

Typische Klassen umfassen Personen, Fahrzeuge und Tiere. Fortgeschrittene Klassifikatoren erkennen Untertypen, und benutzerdefinierte Modelle können ein neues, spezifisches Zielobjekt für Ihren Standort hinzufügen.

Is Visionplatform.ai compatible with Wisenet WAVE?

Ja, Visionplatform.ai integriert sich mit Wisenet WAVE, um Erkennungen zu streamen und betriebliche Verwendungszwecke über Alarme hinaus zu ermöglichen. Die Integration unterstützt On‑Prem‑Bereitstellungen und DSGVO‑konforme Workflows.

Where can I find detailed airport use cases?

Visionplatform.ai veröffentlicht maßgeschneiderte Seiten zu Personenerkennung, Loitering‑Erkennung, Erkennung zurückgelassener Gegenstände und weiteren Themen, um Luftfahrtteams bei der Planung von Einsätzen zu unterstützen. Siehe die Ressourcen zur Personenerkennung und Loitering‑Erkennung für gezielte Anleitungen Personenerkennung an Flughäfen und Loitering‑Erkennung an Flughäfen.

next step? plan a
free consultation


Customer portal