Datenanalysesoftware

TU Berlin mit „Apache Flink“ international erfolgreich

Die TU Berlin hat eine Software zur Analyse großer Datenmengen entwickelt. Deren Prototyp sei bereits weltweit führend, heißt es.

Im vergangenen Jahr fand in Berlin der erste Apache Flink-Kongress statt. Im September 2016 trifft sich die international vernetzte Apache Flink-Community erneut in Berlin und tauscht sich darüber aus, wie die Software von den Usern weiterentwickelt wird

Im vergangenen Jahr fand in Berlin der erste Apache Flink-Kongress statt. Im September 2016 trifft sich die international vernetzte Apache Flink-Community erneut in Berlin und tauscht sich darüber aus, wie die Software von den Usern weiterentwickelt wird

Foto: TU Berlin

Die Technische Universität Berlin ist mit einer selbstentwickelten Analysesoftware inzwischen international erfolgreich. Das teilte die TU am Donnerstag mit. Die Software „Apache Flink“ helfe bei der Analyse großer Datenmengen. Deren Prototyp habe sich innerhalb der vergangenen acht Jahre „zu einem weltweit führenden System“ entwickelt. Nun habe man die Version 1.0 des Programms veröffentlicht, das aus einem Forschungsprojekt der TU Berlin hervorgegangen sei.

„Apache Flink“ lasse sich einsetzen, wenn die Rechenstärke eines einzelnen Computers nicht ausreicht, um Datenmengen zu analysieren. Das sei meist bei Big Data-Projekten der Fall, in denen etwa Informationen über Kunden, Rohstoffquellen oder Transportwege ausgewertet werden, hieß es. Solche Datenpakete würden dann auf viele Rechner verteilt und die Analyse von „Apache Flink“ koordiniert.

Zu den Unternehmen, die „Apache Flink“ bereits nutzen, zählten etwa der Versandhandel Zalando, der damit Kundendaten analysiere, sowie der Onlinespiele-Entwickler King, der damit die Spielzüge seiner Community auswerte. Mit „Data Artisans“ habe sich ein eigenes Start-up aus dem Uni-Projekt ausgegründet, das sich komplett auf den Support von „Apache Flink“-Anwendern und die Weiterentwicklung von Flink spezialisiert habe.

Vom Prototypen zum produktiv einsetzbaren System

Entstanden ist „Apache Flink“ der Mitteilung zufolge aus einem Projekt der Grundlagenforschung an der TU Berlin, das 2008 von Volker Markl ins Leben gerufen wurde, Leiter des Fachgebiets für Datenbanksysteme und Informationsmanagement der TU Berlin, Direktor am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) und Leiter des Berlin-Big-Data-Centers.

Markls Mitarbeiter Stephan Ewen, Fabian Hüske und Kostas Tzoumas hätten den Forschungsprototypen zu einem produktiv einsetzbaren System ausgebaut und 2014 bei der Apache Software Foundation (ASF) eingereicht. Seitdem sei eine weltweite Community auf das Projekt aufmerksam geworden. Über 200 Programmierer entwickelten heute das Projekt weiter.

Vom 12. bis zum 14. September 2016 findet in Berlin der zweite „Apache Flink“-Kongress statt.