Bild nicht mehr verfügbar.

Premise beobachtet über seinen User einzelne Märkte und bereitet die Daten zu eiem Echtzeit-Inflationsindex auf.

Foto: AP

Immer mehr große Unternehmen verlagern gesammelte Informationen in Rechenzentren und werten sie dort aus. Die Datensätze werden immer umfangreicher und komplexer und benötigen immer mehr Rechenpower. Doch es gibt daneben einen zweiten Trend: Singuläre, für sich allein stehend unbedeutende Informationsbrocken zu aggregieren und kontextuelle Zusammenhänge herauszufinden. Man spricht auch von "Hyperdata", ein Feld in dem sich zunehmend mehr Startups betätigen, wie die New York Times berichtet.

Ein Beispiel: David Soloff ist CEO und Mitgründer des Startups Premise, hat eine Smartphone-App herausgebracht, die mittlerweile von 700 Menschen in 25 Entwicklungsländern benutzt wird, hauptsächlich Leute die zu Hause berufstätig sind und Studenten. Sie fotografieren Essen und Waren auf öffentlichen Märkten.

Kontext

Wieviel ein Kilogramm Tomaten oder eine Flasche Haarshampoo auf einem dieser Märkte kostet, ist für sich gesehen wirtschaftlich nicht besonders relevant. Premise will diese Informationen jedoch sammeln und mit anderen Daten, etwa der Wetterentwicklung verknüpfen. Soloff hofft, in fünf Jahren Daten von 3.000 bis 4.000 Menschen zu erhalten. Ziel ist es, einen globalen Inflationsmonitor zu schaffen, der in Form eines Echtzeit-Index wertvolle Informationen für Aktienhändler oder Großeinkäufer bietet.

Der technologische Fortschritt – immer mehr Menschen verfügen über Smartphones mit Kameras und Internetanbindung – macht Unterfangen wie dieses immer leichter umsetzbar. Auf diese Weise lassen sich viel leichter "hyperlokale" Daten sammeln und zur Erkennung von Mustern und Trends kombinieren.

Echtzeit

"Hyperdata kommt in Echtzeit an und man kann sie in Echtzeit analysieren und reagieren", sagt Industrie-Experte Bernt Wahl vom Center for Entrepreneurship und Technology an der University of California. Die Auswertung dieser Informationen und die Ableitung von Zukunftsentwicklungen wird seiner Ansicht nach bald in vielen Branchen bald Normalität sein, erklärt er der New York Times.

Es gibt Anzeichen, dass dies auch tatsächlich funktioniert. Premise gibt an, die Inflation in Indien bereits Monate vor der Regierung erkannt zu haben, in dem man die Zwiebelpreise auf verschiedenen Märkten beobachtet hat.

Acht bis zehn Cent pro Foto

Pro verwertbarem Foto erhalten die Premise-Nutzer acht bis zehn Dollar-Cent, wobei mit den Bildern auch Zeit und Standort vom Telefon abgefragt wird und zusätzliche Angaben (etwa: Wie belebt war der Markt zu dieser Uhrzeit) notwendig sind. Rekrutiert werden die Info-Lieferanten von den jeweiligen Country-Managern.

Zu den Kunden von Premise gehören Wall Street Hedgefunds ebenso wie das Unternehmen Procter & Gamble, die schon lange auf solche Instrumente setzen. Je nach Umfang zahlen die Nutzer 1.500 bis 15.000 Dollar pro Monat, wobei es auch ein kostenloses Angebot für Schulen und Nonprofit-Organisationen gibt.

Wertvolle Open-Data-Sets

Geschäftsmodelle wie diese profitieren auch von der zunehmend freien Verfügbarkeit öffentlicher Daten – Stichwort: Open Data. Laut Forschern von McKinsey stellen mittlerweile 40 Regierungen Informationen bereit, etwa zur Bevölkerung oder der Nutzung von Land. Alleine die US-Regierung liefert 90.000 verschiedene Datensätze. Einer der Autoren des McKinsey-Reports schätzt den potenziellen wirtschaftlichen Wert dieser Daten auf über drei Billionen Dollar.

Flugzeugturbine als Datensammler

Das man heutzutage auch Einzelkomponenten von Flugzeugen Daten sammeln lassen kann, beweist General Electric. Dort baut man Flugzeugtriebwerken, die mit über 200 Sensoren ausgestattet sind. Zusammen mit dem Unternehmen Accenture analysiert man die Performance eines Fliegers, sobald dieser landet. In Verbindung mit Daten wie Energieverbrauch, Arbeitskosten und dem Wetterbericht sollen sich so die Wartungsintervalle besser planen lassen.

Red Bull oder Kakao?

Traditionelle Datenanalyse befasst sich mit Informationen, die bereits Regelmäßigkeit aufweisen – etwa Einkommensdaten, die sich zur Auswertung leicht einpflegen lassen. Mit dem Siegeszug des Internets sahen sich Firmen wie Google, Facebook oder Yahoo aber zunehmend mit immer größeren Mengen aus unstrukturierten Informationen konfrontiert.

Das wiederum ruft neue Firmen auf den Plan, die effizientere Mittel dafür anbieten. Die quelloffene Cluster-Computing-Software "Spark" soll die Analyse um den Faktor 100 beschleunigen. Die Entwickler haben mittlerweile 14 Millionen Dollar an Investitionen erhalten, um ein Unternehmen zur Kommerzialisierung des Programms zu starten.

Die Lösung von ClearStory Data kann wiederum unmittelbar Daten aus mehreren Quellen auswerten und kombinieren. So lässt sich etwa sagen, wie der Verkauf von Kinokarten mit dem Wetter oder aktuellen Twitternachrichten zusammenhängt. Die Erkenntnisse sind, so Mitgründerin Sharmila Shahani-Mulligan, nicht nur für große Konzerne relevant. "Auf diese Weise weiß ein Kaffeehausbetreiber schon vorab, ob die Kunden sich ein Red Bull oder heiße Schokolade bestellen werden." (red, derStandard.at, 11.11.2013)