Big Data

15. Mai 2011

Rechnen per Lochkarte

Es war in der zweiten Hälfte der 70er-Jahre, dass ich in Kontakt mit Computern kam. Nicht mit PCs, sondern mit Großrechnern der TU München. Deren immense Rechnerkraft (nach damaligen Maßstäben, heute kann wahrscheinlich jeder PC mehr) durfte man mit ein wenig Glück und guten Beziehungen des Nächtens für wissenschaftliche Zwecke nutzen. Wir hatten uns damals am Institut für Theaterwissenschaften unter Führung von Heribert Schälsky vorgenommen, das Verhalten von Theaterbesuchern empirisch zu untersuchen: mit Umfragen oder auch der Messung von Hautwiderstand.

Visualisierung der Datenmassen von Wikipedia

Das Ergebnis waren riesige Massen an Daten, die es irgendwie auszuwerten galt. Der einzige – und damals verführerisch moderne – Weg dazu war eine Auswertung per (Groß-)Computer. Dazu mussten aber alle Ergebnisse als Datensätze auf Lochkarten gestanzt werden, ein wirklich grässlich aufwändiger und Nerven zermürbender Prozess, bei dem jeder noch so kleine falsch sitzende Lochkartenritz die gesamte Auswertung zunichte machen konnte.  – Und es auch reichlich oft tat. Dann galt es, für eine oder zwei Wochen auf den nächsten Rechnerfreiplatz zu warten, um den nächsten Versuch zu starten.

Digitale Speicherung rarer Daten

Diese missliche Erfahrung hat mir die Neugier auf Computer damals erst mal bis Mitte der 80er-Jahre ausgetrieben, bis der Atari ST als preiswerter Klon des Apple SE auf den Markt kam. Der wurde damals aber erst mal vorwiegend als intelligente Schreibmaschine genutzt und nicht als Rechner. Zwar war auch das Schreiben auf dem Atari eine Verarbeitung von Daten, aber das war mir damals in meiner Unbedarftheit nicht recht bewusst. Wir nutzten damals den Computer, um vermeintlich Informationen zu produzieren, nicht um sie zu beschaffen oder gar zu filtern.

Damals war die mediale Normal-Situation eine des Informations-Defizits. Die einzigen, die sich darum kümmerten, da Abhilfe zu schaffen, waren die Medienproduzenten. Und sie verdienten daran nicht zu knapp. Wenn  man es sich leisten konnte, abonnierte man möglichst viele Zeitschriften, vorzugsweise auch aus anderen Ländern, vorzugsweise aus den USA: Nachrichten- und Lifestyle-Magazine, Fachzeitschriften, Special Interest-, Kultur-, Wissenschafts- und vielleicht auch Wirtschaftsmagazine. Dazu Zeitungen und Fachbücher. Wissensbeschaffung war ein teures, zeitraubendes und anstrengendes Unterfangen, deren Ergebnisse man dann in Zettelkästen oder Aktenordnern ablegte.

Digitale Kinderschuhe

Die Situation änderte sich erst Mitte der 90er-Jahre mit Etablierung des Internet. Da konnte man plötzlich (etwa bei Compuserve) in riesigen Datenbanken recherchieren, man konnte mit den ersten Suchmaschinen Informationen etwa amerikanischer Hochschulen finden, deren Existenz man bis dahin nicht einmal erahnt hatte. Plötzlich wurde die Informationsbeschaffung so viel leichter. Und die Speicherung der Ergebnisse fand nun immer mehr im digitalen Raum statt, das bot sich an und war bequem.

Heute haben wir die Situation, dass sich (geschätzt) etwa alle zwei Jahre unser Wissen verdoppelt. Und das ist heute schon größer als alles Wissen, das wir in der gesamten Menschheitsgeschichte bis zum Jahr 2002 gesammelt haben. Und die Entwicklung beschleunigt sich weiter. Inzwischen sind es nicht nur wir Menschen, die wir exponentiell immer mehr Informationen produzieren, sammeln und speichern, in der Wissenschaft, in den Medien oder in Blogs, bei Facebook, Twitter & Co. Es sind auch noch Abermilliarden von Geräten, die dasselbe tun: Smartphones, GPS-Geräte, Kassen, Minicomputer in unseren Autos und anderen Geräten, Browser, die unsere Web-Aktivitäten beobachten, Kameras, Sensoren, Musikgeräte und… und… und…

Information Overflow vs. Informations-Überfluss

Dieses Phänomen wird bei uns üblicherweise als Information Overflow beschrieben. Die negative Konnotation dieses Begriffs ist gewollt. Denn vorzugsweise sind es die Medien, die diesen Terminus reflexartig propagieren. Denn sie sind die Verlierer dieser Explosion der Daten- und Informationsmengen. Statt Informationen zu beschaffen und/oder über deren Verfügbarkeit zu bestimmen, sind sie jetzt ratlose Beobachter des radikalen Paradigmen-Shifts. Sie können – oder wollen – nicht verstehen, dass bei einem Überangebot an Informationen bei begrenzt wachsender Nachfrage kein Geld durch Informationsbeschaffung und -verbreitung zu verdienen ist.

Clay Shirky hat schon 2008 überzeugend ausgeführt, dass das Problem des Information-Overload genuin eines von ungenügend funktionierenden Filtern ist. Das Problem ist nicht die schiere Masse von Daten, sondern die Mittel, mit ihnen klar zu kommen. Er schloss seinen Vortrag auf der Web2.0-Konferenz damals mit dem Hinweis, dass das Problem des Information Overflow eigentlich seit Gutenbergs Erfindung des Buchdrucks im 15. Jahrhundert besteht, seit es mehr Bücher gab, als ein Mensch in seiner Lebenszeit lesen konnte. Sein lapidares Fazit war damals: „Wenn ein Problem seit solch langer Zeit besteht, ist es vielleicht kein Problem, sondern ein Faktum.“

Mit oder ohne Filter?

Heute ist die Menge der Zunahme an Daten, Informationen und Wissen so massiv, dass dieses Faktum kaum mehr mit den bestehenden Filtern bewältigt werden kann. Das erlebt man immer häufiger, wenn man Informationen im Internet sucht. Google schafft es oft nicht mehr, die jeweils wirklich relevantesten Inhalte jenseits von gesichertem Wissen wie Wikipedia-Einträgen zu ermitteln. Obwohl Google in seinem Suchalgorithmus auf die Intelligenz der Massen setzt, indem es die Akzeptanz von Inhalten durch andere User und Sites einrechnet, sind heute andere Filter wirkungsvoller: etwa die Suche bei Twitter, wo man stets die wirklich aktuellsten Hinweise auf Suchbegriffe bekommt, oft nur Minuten alt. Oder man verzichtet (fast) komplett auf technische Filter und verlässt sich auf das Wissen seines sozialen Umfelds und fragt in Facebook.

Mittlerweile ist die schiere Masse und die dynamische Wucht der stetig wachsenden Übermenge an Daten und Informationen (wie oben beschrieben) so groß, dass die gängigen Ängste von wegen „Information Overflow“ gar nicht mehr greifen mögen. Deswegen redet man heute lieber wertfrei von „Big Data“, von Massen an Daten, die kaum oder schwer mehr beherrschbar scheinen. Der durch die unvorstellbare Menge und deren Wachstum erzwungene Abschied von abwertenden Begriffen wie Information Overflow eröffnet die Sicht auf die ungeheuren Chancen, die Big Data geben.

Neue Perspektiven durch Big Data

Die Zukunft unserer Netze, unserer Businesses und wahrscheinlich auch unserer Gesellschaft wird davon beeinflusst werden, wie wir mit Big Data umgehen. Wer hier die größte Kompetenz entwickelt, wird extrem großen Einfluss – und Gewinnchancen haben. Kompetenz wird sich hier zusammensetzen aus bester Technologie (Algorithmen), die die Massen an Daten sinnvoll interpretieren kann – und aus der Bereitschaft, wie mit dieser Macht sorgsam und verantwortungsvoll umgegangen wird. Schon heute kann mit den Datensets, die wir täglich anonym  übermitteln, problemlos auf uns als konkrete Individuen rückgeschlossen werden und Persönlichkeitsprofile können erstellt werden.

Noch sind diese Profile zu unspezifisch, noch ist die Interpretation der Daten zu irrelevant, um wirklich wirksam verwendet – oder missbraucht – werden zu können. Sicher aber ist , dass Big Data die Wirtschaft und vor allen den Handel mittelfristig komplett verändern wird. Es werden ganze neue Industrien entstehen, die sich der Bewältigung, der Verarbeitung und der Interpretation der Datenkatarakte der Zukunft widmen werden. Und es werden darin ganz neue Jobs entstehen, die heute noch kaum denkbar sind: Data-Stewarts, die sich um die Verarbeitbarkeit von Daten kümmern; Data-Compiler, die kreativ Daten in Verbindung bringen; Data-Profiler, die Daten kreativ zu analysieren wissen – und viele mehr.

Und es wird Data-Condenser und -Interpretatoren geben, was heutigem (investigativen) Journalismus nahe kommen mag. Es mag Data-Controller geben, die mit viel technischem Know how aufpassen, dass Daten und Wissen daraus nicht missbraucht wird. Und schließlich wird es Menschen geben, die aus Daten, Informationen und Wissen Geschichten zu spinnen wissen, damit aus massiven, dispersen Daten Erkenntnisse und Emotionen heraus destilliert werden, die Menschen in ihrem Innersten packen und sie berühren. Das mögen die Journalisten, vielleicht auch die Vermarkter der Zukunft sein. Aber ihre Jobs werden andere Bezeichnungen haben…

Advertisements

One Response to “Big Data”


  1. […] nie gekannten Vernetzungsgeschwindigkeit und Teilnehmer-Milliarden und Yottabytes an Datenmassen (Big Data) sind Homepages, wie wir sie heute kennen, kuriose Anachronismen. Sie wirken wie versprengte […]


Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden / Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden / Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden / Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden / Ändern )

Verbinde mit %s

%d Bloggern gefällt das: