Wenn
In jüngerer Zeit wird auch von GIS-Architekturen erwartet, dass sie rapide anwachsende Datenmengen im Tera- bis Petabytebereich an Archivdaten und aktuellen Fernerkundungsdaten zusammen mit vielfältigen Geodaten, historischen und aktuellen Sensordaten (Zeitreihendaten) und Meldungen von Bürgern integrieren und zeitnah nutzbar machen. Weitere Quellen großer Mengen an georeferenzierten Daten sind immer preisgünstigere und vielfältigere Sensordaten jeder Art, Trajektorien von Mobiltelefonen bzw. allgemeiner GPS-Geräte inkl. PKW/LKW, Fernerkundungsergebnisse von Drohnen etc. oder auch Simulationsergebnisse, z. B. globaler Klimarechenmodelle. Anwendungsfelder solcher Spatial Big Data sind vielfältig. Sie umfassen beispielsweise die Präzisionslandwirtschaft, Smart Cities, Industrie 4.0, aber auch den Katastrophenschutz (Frühwarnung und Recovery im Katastrophenfall).
Dabei sollen zukünftige GIS nicht ausschließlich Abfragen auf vergangenen Informationen ermöglichen, sondern ebenfalls die Prognose zukünftiger Entwicklungen und Probleme erlauben. So können dann beispielsweise Sensorwerte und deren Abhängigkeiten erkannt und entsprechend vorausschauend agiert werden. Bedingt wird diese Entwicklung durch die zunehmende Verbreitung kostengünstiger vernetzter Sensoren, wie beispielsweise mobile Sensorik bis hin zu einfachen Mobiltelefonen, mit denen die Öffentlichkeit direkt und unkompliziert Daten beitragen kann, sowie durch die zunehmende Wichtigkeit noch unstrukturierter Daten in Form von Fernerkundungsdaten. Zudem gewinnen bodengestützte Fernerkundungssensoren, sowie bildgebende Systeme mehr und mehr an Bedeutung.
Durch diese Entwicklungen stehen Geoinformationssysteme vor Herausforderungen in allen vier Big Data Dimensionen:
- Volume: Der Umfang der gespeicherten Daten wächst in den Tera- und Petabyte-Bereich, gerade wenn man die zeitlichen Entwicklungen mit betrachtet oder auch (Geo) Social Media nutzt. Diese neue Dimension der Datenmengen kann Cluster-Rechenansätze erforderlich machen oder auch die Realisierung weiterer Verarbeitungsschritte direkt in der Datenbank.
- Variety: Sensor- und unstrukturierte Daten sind neue Datenarten, die innovative Analyse-, Interpolations-, Prognose- und Visualisierungstechniken erforderlich machen.
- Velocity: Durch ständig eintreffende Sensordaten zusammen mit der Erwartung und im Einsatzfall auch der Notwendigkeit, immer die aktuellen Daten integriert zu haben, muss das Design der bisher auf Stapelverarbeitungsprozessen basierenden GIS grundlegend überdacht und angepasst werden. Nur so lassen sich Analysen und Handlungsempfehlungen in (Nah-) Echtzeit realisieren.
- Veracity: Die Integration der von Bürgern oder Bilderfassungsgeräten (insbesondere bspw. bei Nebel, bei Nacht usw.) angelieferten und automatisch verarbeiteten unstrukturierten Daten führt dazu, dass Analysen nicht mehr unter der Annahme der vollständigen Korrektheit der Input-Daten durchgeführt werden können.
Als Experte für Fragen des Geodatenmanagements von großen Datenmengen stellt sich Disy natürlich diesen Herausforderungen. Disy ist Mitglied des BigGIS Projektkonsortiums, das im Frühjahr 2015 vom Bundesministerium für Bildung und Forschung (BMBF) den Zuschlag für das Forschungsprojekt „BigGIS – Prädiktive und präskriptive Geoinformationssysteme basierend auf hochdimensionalen geotemporalen Datenstrukturen“ erhalten hat. Diesem Konsortium gehören 11 Partner aus renommierten Forschungseinrichtungen (Forschungszentrum Informatik am Karlsruher Institut für Technologie: Prof. Studer, Prof. Setzer, Prof. Nickel; Universität Konstanz: Prof. Keim; Hochschule Karlsruhe: Prof. Nimis), großen und innovativen Fachbehörden (LUBW, THW, Stadt Karlsruhe) sowie in ihren Kompetenzfeldern exzellente Wirtschaftspartner (Fernerkundung: EFTAS, Big Data Datenbanken: EXASOL, Geodateninfrastrukturen: Disy) an.
Projektziele und Anwendungszenarien
Ziel des Vorhabens ist die Erforschung, prototypische Umsetzung und Evaluierung von Techniken, Modellen und Methoden, die in vielfältigen Anwendungsfällen Entscheidungen auf Basis von großen Mengen an zeitlich-strukturierten Geodaten aus vielfältigen Quellen (insbesondere Fernerkundung, Crowdsourcing und dem Social Web, aber auch aus Legacy-Systemen zur Geodatenverarbeitung) unterstützen.
Mit dem zu schaffenden System soll die integrierte Verwaltung, Analyse und Visualisierung von zeitlichen und räumlichen, strukturierten und unstrukturierten Daten verbessert bzw. überhaupt erst möglich gemacht werden. Auf Basis dieser Daten sollen deskriptive, prädiktive und präskriptive Analysen unterstützt werden. Die Entwicklungsarbeiten orientieren sich an drei konkreten Anwendungsszenarien:
- Katastrophenschutz: Entscheidungsunterstützung bei komplexen Schadenslagen am Beispiel von Schadgas-Situationen. Der Fokus liegt auf dem Nutzbarmachen großer Datenmengen in Nah-Echtzeit (Velocity).
- Umwelt: Umweltmanagement am Beispiel des Monitorings invasiver Tier- und Pflanzenarten mit Auswirkung auf die menschliche Gesundheit (wie z. B. Eichen-Prozessionsspinner, Asiatische Tigermücke und Beifußblättrige Ambrosie). Der Fokus liegt auf dem Nutzbarmachen großer unstrukturierter Datenmengen aus der Fernerkundung (Variety und Volume).
- Smart City und Gesundheit: Die Beobachtung der Gesundheit von Menschen in Städten am Beispiel der Umwelteinflüsse Feinstaub und Temperatur. Die besondere Herausforderung liegt in den vielfältigen zur Verfügung stehenden Daten (Variety) und der Integration der von Bürgern gesammelten Daten unbekannter Präzision und Zuverlässigkeit (Veracity).
Das Projekt ist inzwischen offiziell gestartet und wird uns die nächsten Jahre begleiten. Wir freuen uns dabei zu sein, wenn die nächsten Meilensteine im Bereich des Geodatenmanagements gelegt werden. Über Teilergebnisse und Fortschritte informieren wir Sie natürlich gerne weiterhin über diesen Newsletter.
Weitere Informationen: