Das IoT ist voller Daten. Sie auszuwerten, ist der zentrale Schlüssel, sich den Nutzen des Internets der Dinge zu erschließen.

 

von Daniel Metzger

Für die in vielen Branchen übliche Nutzung des „Internet of Things“ (IoT) gibt es einen ausschlaggebenden Grund: Mit den gewonnenen Daten können Prozesse und Betriebsabläufe genauer gesteuert und die Auslastung kann effizienter geregelt werden. Hier fällt ein hohes Volumen relativ kleiner Datensätze an, wie sie von Sensoren erfasst und weitergemeldet werden. Doch neben der Herausforderung, große Mengen anfallender Daten zu verarbeiten und daraus Schlüsse zu ziehen, gilt es beim IoT weitere Hürden zu meistern. Denn um auf Echtzeit-Analysen basierende Entscheidungen zu treffen, sind vor allem die Geschwindigkeit der Datenverarbeitung und die Sicherheit der Datenübertragung von entscheidender Bedeutung. Smarte Sensoren und IoT-Geräte unterscheiden sich sowohl in ihrem Einsatzzweck als auch in der Vielschichtigkeit der von ihnen erhobenen Daten. Die verschiedenen Daten zu analysieren, um daraus Erkenntnisse abzuleiten, ist beim Einsatz des IoT ebenso eine Herausforderung wie die Einhaltung von Governance-Richtlinien bei der Datenverarbeitung.

Einsatz im Produktionsumfeld

In der Fertigung lassen sich Maschinen mit Sensoren ausstatten, die für eine vorausschauende Instandhaltung („Predictive Maintenance“) herangezogen werden können. Im Gegensatz zum herkömmlichen Ansatz, Wartungen nach vorher definierten Arbeitsstunden oder geleisteter Stückzahl stattfinden zu lassen, meldet die Maschine den Status ihrer Abnutzung und ihres technischen Zustandes aktiv an einen Produktionsserver, der das Wartungsintervall individuell auf diese eine Maschine abstimmt. Damit wird zweierlei erreicht: Einerseits wird verspätete Wartung und eventuell einhergehender Schaden vermieden, andererseits entstehen keine zu kurzen Wartungszyklen. Beides schont die finanziellen und logistischen Ressourcen des Unternehmens. Auch die Logistik während und nach der Produktion wird durch Big Data im IoT wesentlich erleichtert. Besonders in der Just-in-time-Fertigung ist es sowohl für produzierende Betriebe als auch Zulieferer wichtig, nachvollziehen zu können, wo sich Werkstücke aktuell befinden. Damit sollen Lagerhaltungskosten weitgehend ausgeschlossen werden.

 

„Die verschiedenen Daten zu analysieren, um daraus Erkenntnisse abzuleiten, ist beim Einsatz des IoT ebenso eine Herausforderung wie die Einhaltung von Governance-Richtlinien bei der Datenverarbeitung.“

 

IoT und Big Data in der Energieversorgung

Doch auch andere Branchen setzen mittlerweile auf Big Data und Industry of Things. So sind Energieversorgungsunternehmen durch Veränderungen, beispielsweise bei der Energieerzeugung, mit neuen Anforderungen an ihre betrieblichen Prozesse konfrontiert. Dazu kommt der Wandel der Kundenanforderungen. Auch die vermehrte Nutzung alternativer Heizarten bei Endkonsumenten, beispielsweise Wärmepumpen oder Solaranlagen, führt zu einer weiteren Komplexität beim Stromvertrieb. So sollten Konsumenten mit Preisnachlässen dafür belohnt werden, wenn sie den Strom zu einem Zeitpunkt verbrauchen, an dem er besonders günstig für den Vertrieb bereitsteht. Hierzu messen intelligente Stromzähler („Smart Meter“) den Energieverbrauch und können diese Informationen den Versorgern zeitnah übermitteln. In einem System mit automatisierten Stromzählern werden Verbrauchsdaten in Echtzeit analysiert und entsprechende Muster erkannt, die zur Prognose herangezogen werden. Auch können Sensoren und intelligente Stromzähler rechtzeitig vor drohenden Ausfällen einzelner Komponenten im Stromnetz warnen. Die gewonnenen Daten werden in einer Big-Data-Lösung zusammengefasst, die detaillierten Aufschluss über die aktuelle und künftige Situation liefert. Dadurch wird es Energieversorgern ermöglicht, die Ausfallsicherheit in erheblichem Maß zu steigern, um so die Versorgungssicherheit der Verbraucher zu garantieren.

Mit Big Data und IoT zu mehr Gesundheit

Neue medizinische Methoden, verbesserte Behandlungen oder die bessere Anpassung von Medikamenten sind mit enormen Investitionen in Forschung verbunden. Dafür benötigt der Gesundheitssektor – mehr denn je – eine solide Datenbasis. Aber auch die Behandlung der Patienten selbst muss in Zeiten knapper Gesundheitskassen effizienter gestaltet werden. So kann die Erfassung von Patientendaten über mobile Tracker einen vollständigen Überblick über den Gesundheitsstatus bieten. Ein solcher Tracker(1) kann mittels Hautsensor beispielsweise den Blutzuckerspiegel messen. Das gilt ebenso für Vitalfunktionen wie eine Messung von Puls oder Blutdruck, wie sie manche Smartwatch oder mancher Fitnesstracker bereits bietet. Durch den Abgleich von Echtzeit-Analysedaten und Machine-Learning-Modellen, basierend auf historischen Patientendaten, wird eine vorausschauende und nachhaltige Patientenüberwachung gewährleistet. Daraus können Ärzte frühzeitig Abweichungen von individuellen Normalwerten erkennen und so im Idealfall Menschenleben retten. Außerdem ist es möglich, dass diese Daten – anonymisiert – dazu führen, auch anderen Patienten schnell eine erfolgreiche Behandlungsmethode zur Verfügung zu stellen. Zusätzlich können unterstützende Reha- und Wellnessanwendungen entwickelt, getestet und bei Erfolg breit angewendet werden. Dies geschieht über mit dem Internet verbundene Geräte, die beispielsweise Blutdruck und Herzfrequenz überwachen sowie Aufschluss über Cholesterinwerte oder andere medizinisch relevante Faktoren bieten. Mittels maschinellen Lernens können Ärzte, Krankenhäuser und Pharmaunternehmen positive Musterveränderungen erfassen und konsequent weiterentwickeln.

 

„Um all diese Massendaten effizient verarbeiten zu können und den eingangs erwähnten weiteren Herausforderungen Rechnung zu tragen, ist eine Big-Data-Plattform zum Echtzeit-Streaming erforderlich, die die verschiedenen beteiligten Prozesse sicher und schnell verarbeitet.“

 

Zielführende Versicherungsprodukte

Die Basis der Geschäftstätigkeiten von Versicherungen sind Daten. Sie berechnen Risiken und legen daraufhin die Höhe der Raten für Versicherungspolicen fest. Dies erfolgte bislang über theoretische mathematische Modelle, die auf regelmäßigen Marktanalysen, Studien und Statistiken beruhten. Mit dem zunehmenden Wettbewerbsdruck müssen Versicherer ihre Angebote vielschichtiger und an die Zielgruppe angepasster entwickeln. Auch die Art und Weise, wie und wogegen sich Konsumenten und Unternehmen versichern wollen, ändert sich – etwa durch die Veränderung im Falle von Gebäudeschäden durch den Klimawandel oder die Einführung neuer Technologien wie etwa dem autonomen Fahren im Straßenverkehr.

Smarterer Verkehr, smartere Städte

Sowohl das Konzept von Smart Cities(2) als auch von Smart Cars ist ohne Big Data schwer vorstellbar. In Smart Cars finden sich mehrere Hundert IoT-Komponenten, die assistiertes oder vollautonomes Fahren ermöglichen. So kann das Fahrzeug selbstständig auf plötzlich auftretende Vorfälle reagieren oder eine autonome Navigation ermöglichen. Der Fahrer wird zudem beispielsweise automatisch darauf hingewiesen, wann sein nächster Ölwechsel fällig ist und er zum Service in die Werkstatt muss. Ist das Fahrzeug mit einer Smart City verbunden, kann diese mit dem Smart Car kommunizieren, um die Verkehrsströme effizient zu leiten und Verkehrsstaus sowie die durch den Straßenverkehr anfallende Umweltbelastung zu minimieren.
Hier messen in Straßen verbaute Sensoren den Verkehrsfluss sowie die Parksituation und reagieren entsprechend. Doch Smart Cities sind nicht nur im Verkehrsbereich attraktiv. Auch bei der Sicherstellung der kommunalen Versorgung beziehungsweise in der Entsorgung hilft der Einsatz von Big Data. Diese Systeme führen dazu, dass sich die Ressourcen der Städte besser planen und einsetzen lassen, um Bürgern eine höhere Servicequalität bieten zu können.

Implementierung von Big Data

Um all diese Massendaten effizient verarbeiten zu können und den eingangs erwähnten weiteren Herausforderungen Rechnung zu tragen, ist eine Big-Data-Plattform zum Echtzeit-Streaming erforderlich, die die verschiedenen beteiligten Prozesse sicher und schnell verarbeitet. So ermöglicht Hortonworks Dataflow (HDF) IoT-Implementierungen innerhalb eines Unternehmens als End-to-End-Plattform. Sie sammelt, kuratiert und analysiert IoT-Streaming-Daten in Echtzeit, von den Perimetern bis hin zum Zentrum eines Unternehmens. Apache NiFi liefert dabei Datenerfassung, -transformation und -routing von IoT-Streamingdaten. Daneben bietet Apache Kafka innerhalb von HDF eine leistungsstarke Stream-Verarbeitungs-Engine zur Erzeugung von Predictive Analytics. //

 

 

Autorenvita Daniel Metzger

 

 

Quellen:
(1) Beispiel: Googles medizinischer Tracker für die professionelle Anwendung.
(2) München, Berlin und Frankfurt sind Vorreiter (Handelsblatt).

 

 

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen:
https://creativecommons.org/licenses/by-sa/3.0/de/

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.