Mit steigenden Datenvolumen aus der Sensorik gewinnt die Auswertung und korrekte Interpretation stark an Bedeutung. Insbesondere bei der Fusion von Daten mehrerer Sensoren ist der menschliche Betrachter schnell überfordert. Aus diesem Grund setzen wir für komplexe Analysen auf Machine Learning. Üblicherweise werden einer oder mehrere der folgenden Algorithmen eingesetzt:
- Linear and logistic regression
- Decision trees, random forests, ensemble methods
- Neural networks
- Support vector machines
- Naive Bayes
Üblicherweise durchlaufen wir die untengenannten Schritte zum Trainieren und Evaluieren der Datenmodelle:
- Vorverarbeitung von Daten und Feature-Auswahl
- Training, Test, Validierung, Rastersuche
- Reduzierung von Overfitting/Underfitting, Regularisierung
- Überprüfung an Hand von Bewertungsmetriken (wie Präzision, Genauigkeit, F1-Score)