Häufig gestellte Fragen

Alles Wissenswerte über unsere Edge-KI-Vorhersagetechnologie auf Basis von Reservoir Computing.

1. Eigenschaften unserer KI
Reservoir Computing eignet sich für eine Vielzahl von Phänomenen, die als Zeitreihen dargestellt werden können, darunter mechanische Schwingungen, chemische Prozesse, Naturphänomene und biologische Signale.
Im Gegensatz zu Deep-Learning-Algorithmen, die oft riesige Datenmengen benötigen, kann Reservoir Computing bereits mit 500–1.000 Zeitpunkten präzise Vorhersagen treffen. Zum Vergleich: Eine stündliche Temperaturmessung liefert 24 Datenpunkte pro Tag.
Die Trainingsdaten sollten eine ausreichende Vielfalt an Betriebsbedingungen und Dynamiken abdecken, die im realen Einsatz zu erwarten sind. Wenn die Daten nur einen engen Bereich abbilden, kann das Modell möglicherweise nicht gut auf andere Situationen generalisieren.
In den meisten Fällen nicht. Reservoir Computing ist in dieser Hinsicht deutlich robuster als Deep Learning und erfordert in der Regel kein manuelles Feature Engineering. Einfache Vorverarbeitungen wie Standardisierung können je nach Datenlage erforderlich sein. Dies übernimmt unser Team im Rahmen des Projekts.
Reservoir Computing deckt ein breites Frequenzspektrum ab: von schnellen mechanischen Schwingungen über 10 kHz bis hin zu langsamen Prozessen im Sub-Hz-Bereich.
Das Training wird von Entrox durchgeführt, bevor das Modell auf dem Gerät bereitgestellt wird. So bleibt der Algorithmus auf dem Gerät schlank und kompakt. Für Anwendungen, die regelmäßige Modellaktualisierungen erfordern, ist auch ein Nachtraining auf dem Gerät möglich.
Das hängt von der Anwendung ab. Unsere KI lernt die Zusammenhänge zwischen Eingangsvariablen und Zielgröße. Im Laufe der Zeit können Faktoren wie Alterung, Verschleiß oder Sensordrift diese Zusammenhänge verändern. Wurde dies im ursprünglichen Training bereits berücksichtigt, ist das Modell über die ganze Lebenzeit verwendbar. Falls nicht, ist regelmäßiges oder sogar kontinuierliches Online-Learning sinnvoll.
Wenn Sie uns einen Datensatz zusenden, können wir in den meisten Fällen innerhalb einer Woche erste Testergebnisse liefern. Es ist keine besondere Infrastruktur erforderlich. Unsere KI ist extrem schlank und benötigt weder GPU noch Cloud-Anbindung.
Unser trainiertes Modell wird als optimierter Code direkt auf Ihrem Gerät ausgeführt, angepasst an die Gegebenheiten Ihrer Umgebung, einschließlich eingeschränkter Rechenleistung auf Mikrocontrollern oder Embedded-Systemen.
Wir entwickeln unsere Modelle in Python und konvertieren sie in die für Ihre Zielplattform geeignete Sprache, typischerweise C für Mikrocontroller und Embedded-Geräte oder Python für leistungsfähigere Edge-Geräte.
2. Leistung und Genauigkeit
Für die industriellen Zeitreihenprobleme, auf die Reservoir Computing ausgelegt ist (Soft Sensors, Anomalieerkennung und Restlebensdauervorhersage), erreicht es eine Genauigkeit, die mit Deep-Learning-Methoden wie LSTMs vergleichbar ist, bei deutlich geringerem Daten-, Rechen- und Trainingsaufwand.
Wir verwenden aufgabenspezifische Standardmetriken: R² und RMSE für Regression und Soft Sensors, AUC-ROC und F1-Score für Anomalieerkennung sowie MAE/RMSE für die Restlebensdauervorhersage. Auf Wunsch arbeiten wir auch mit Ihren eigenen Metriken.
3. Einsatz und Integration
Reservoir Computing läuft auf handelsüblichen Mikrocontrollern und Embedded-Prozessoren, ohne GPU, ohne Cloud-Anbindung und ohne Spezialhardware. Die Inferenz erfolgt in unter einer Millisekunde, wodurch auch echtzeitkritische Regelkreise abgedeckt werden.
Nein. Da das Modell vollständig auf lokalen Geräten läuft, bleiben Ihre Daten vor Ort. Es wird weder Cloud-Konnektivität noch externer Datentransfer benötigt. Ideal für Umgebungen mit strengen Datensicherheitsanforderungen.
Jedes gängige Zeitreihenformat ist geeignet: CSV, Datenbankexporte oder direkte Sensor-Feeds. Wichtig sind zeitgestempelte Messwerte Ihrer Sensoren. Die Vorverarbeitung und Formatierung übernehmen wir im Rahmen des Projekts.
Ja. Das trainierte Modell ist als Softwaremodul problemlos in bestehende Infrastrukturen integrierbar: Steuerungssysteme, SPS, SCADA-Systeme, Mikrocontroller oder Edge-Geräte.
4. Erklärbarkeit
Ja. Unsere Modelle sind keine Black Box: Die gesamte Struktur liegt als mathematischer Ausdruck offen. Bei Soft-Sensor-Anwendungen lässt sich identifizieren, welche mathematischen Terme im Modell, einschließlich nichtlinearer Wechselwirkungen, die Vorhersage am stärksten beeinflussen. Wir nennen diese Fähigkeit Sensitivitätsanalyse.
Ja. Unsere Anomalieerkennungs-Architektur zerlegt den Gesamt-Anomaliescore automatisch aufgelistet nach Sensoren. Bei einer erkannten Anomalie ist sofort erkennbar, welcher Sensor oder welche Komponente sich auffällig verhält und kann so direkt weiterverarbeitet werden.
5. Erste Schritte
Einen Datensatz aus Ihrem Prozess, typischerweise historische Sensormesswerte in einem gängigen Format. Die spezifischen Datenanforderungen besprechen wir gerne in einem Erstgespräch.
Eine erste Machbarkeitsbewertung kann innerhalb einer Woche nach Erhalt Ihrer Daten erfolgen. Ein vollständiges Pilotprojekt mit Modelloptimierung und Leistungsbewertung dauert je nach Komplexität in der Regel 2–4 Wochen.
Das Ergebnis eines Pilotprojekts umfasst ein trainiertes Modell als optimierten Code (C für Mikrocontroller oder Python für leistungsstärkere Edge-Geräte), zusammen mit Leistungskennzahlen, Dokumentation und Empfehlungen für den Einsatz.
← Zurück zur Startseite