Big Data Days: Wirtschaft und Politik im Datenrausch

Karl-Heinz Streibich, Chef der Software AG, schwärmte auf dem Kongress "Smart Data" von der zunehmenden Echtzeitanalyse riesiger Datenmengen, ein Staatssekretär bringt "Datenspenden" verzweifelter Patienten ins Spiel.

In Pocket speichern vorlesen Druckansicht 12 Kommentare lesen
Lesezeit: 4 Min.
Inhaltsverzeichnis

Karl-Heinz Streibich, Chef der Software AG, hat schon viele Modeerscheinungen im IT-Sektor miterlebt. "Hypes sind gekommen und gegangen", konstatierte er am Dienstag auf dem Kongress "Smart Data" des Bundeswirtschaftsministeriums in Berlin. Bei der Auswertung riesiger Datenmengen unter dem Stichwort "Big Data" ist für den alten Hasen im Geschäft aber alles anders. Hier ist er sich sicher: "Wir haben in der IT den Durchstich erreicht wie beim Tunnelbau." Mit dem Datenmanagement sei die Branche am Kern der Informationsverarbeitung angekommen.

Vertreter der Wirtschaft und der Politik zeigten sich auf den am Montag gestarteten Big Data Days, deren Abschluss die Smart-Data-Konferenz im Wirtschaftsressort bildet, mehr oder weniger berauscht von den neuen Möglichkeiten. Spezielle "In-Memory-Datenbanken", die den Arbeitsspeicher von Computern als Datenspeicher einsetzen, könnten derzeit "mehrere Terabytes verkraften", führte Streibich aus. Hunderte Algorithmen könnten so in wenigen Millisekunden oder gar "im Nanobereich" die Daten "in Echtzeit analysieren" und darauf basierende Informationen ausspucken.

Den Anwendungsgebieten sind Streibich zufolge kaum Grenzen gesetzt: So könnten der Geschäftsbetrieb kontinuierlich optimiert und Umsatzpotenziale ausgelotet werden. Auch sei ein kontinuierliches Risiko- und Betrugsmanagement möglich. Forscher könnten zum Beispiel jeden einzelnen Liter Wasser im Rhein in jeder Sekunde an einer bestimmten Stelle auf mehr als hundert Eigenschaften testen. Schifffahrtsunternehmen könnten ihre Frachter genau dann in derzeit oft zugestaute Häfen schicken, wenn ihre Container verarbeitet werden können. Ungewöhnliche Handelsaktivitäten an der Börse könnten sofort erkannt und gestoppt werden.

Analysesoftware sei "der Maschinenbau des 21. Jahrhunderts", sagte Streibich. Anhand von hunderten oder tausenden Parametern könnten umgehend Entscheidungen getroffen werden, wobei eine "babylonische Vielfalt" unterschiedlicher Datenformate als Ausgangsmaterial heranzuziehen sei. Befeuert werde der Trend von Milliarden Smartphones, den Nutzern sozialer Netzwerke und hunderttausenden Sensoren.

"Daten sind die Rohstoffe unserer Zeit, sie müssen nutzbar, smart, und verfügbar gemacht werden", postulierte Hans-Joachim Otto, parlamentarischer Staatssekretär im Wirtschaftsministerium. Die Anlage großer Datenfriedhöfe ohne effiziente Wertschöpfung bringe dagegen nichts. Der scheidende FDP-Politiker plädierte dafür, Big Data kostengünstig und rechtskonform in einzelne Geschäftsprozesse zu integrieren, in die "Industrie 4.0", die Energiewende oder die Gesundheitstechnik, wo etwa Röntgenaufnahmen maschinell ausgewertet, Arztbriefe automatisch analysiert oder Clouds in Krankenhäusern betrieben werden könnten. Mit Schwerpunkt auf diesen Bereichen hat das Wirtschaftsressort so parallel einen Wettbewerb für "Smart Data" gestartet.

Das bestehende Recht hemme viele Firmen, das Potenzial der großen und intelligenten Daten auszuschöpfen, meinte Otto. Es sei daher nötig, vor allem den an sich positiven Faktor des Datenschutzes "neu zu denken". Viele "verzweifelte Patienten" stellten ihre personenbezogenen Krankheitsinformationen selbst ins Netz, um bessere Therapievorschläge zu erhalten. Damit sie einfacher Hilfe erhalten könnten, sei es daher eventuell vorstellbar, "Datenspenden" zu erlauben. Crowdsourcing sei ein Weg, um die medizinische Vorsorge zu verbessern. Daten gemeinsam zu nutzen entspreche zudem dem vielfach hochgehaltenen Solidaritätsprinzip.

Oliver Günther, Präsident der Gesellschaft für Informatik, warf angesichts eines Verarbeitungsvermögens im Zetabyte-Bereich Fragen nach dem Sinn der Detailversessenheit von Internethändlern wie Amazon sowie nach Vorgaben zum Filtern und Auswerten in einem frühen Stadium auf. Es sei auch vielfach noch zu klären, wem die in Analyseprozesse einfließenden Daten gehörten. Insgesamt müssten sich alle Beteiligten spätestens seit dem NSA-Skandal der "Janusköpfigkeit der Technik" bewusst sein.

"Eine außer Kontrolle geratene Datensammlung diskreditiert die Technik und ihre Anwendung", warnte auch der Bundesdatenschutzbeauftragte Peter Schaar in einer Videobotschaft. Vielfach drehe es sich bei Big Data um personenbezogene Informationen oder solche, die einfach darauf zurückgeführt werden könnten.

Gängige Grundsätze, die Privatsphäre zu sichern wie das der Datensparsamkeit oder der Zweckbindung stünden diametral zu Big Data, ergänzte Schaars Abgesandter Johannes Landvogt vor Ort. Er erinnerte daran, dass jeder Verarbeitung von Daten mit Personenbezug die Betroffenen einwilligen müssen. Daran ändere die geplante EU-Datenschutzreform nichts, auch wenn damit über das Konzept des Pseudonyms Möglichkeiten eingeführt würden, große Datenmengen leichter zu verarbeiten. Landvogt rieb sich daran, dass neben Versicherungen auch Geheimdienste und Strafverfolger reges Interesse an Big Data zeigten. Dabei lasse sich mit solchen Mitteln auffälliges Verhalten etwa von Terroristen nicht einfach vorab erkennen.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externes Video (Kaltura Inc.) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Kaltura Inc.) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

(anw)