direkt zum Inhalt springen

direkt zum Hauptnavigationsmenü

Sie sind hier

TU Berlin

Inhalt des Dokuments

„Wir müssen die KI-Technologie demokratisieren“

Prof. Dr. Volker Markl schlägt eine deutschlandweite, unabhängige Daten- und Analyseinfrastruktur vor

Deutschland will an die Weltspitze – so haben es die deutschen Politiker*innen bei der Veröffentlichung der KI-Strategie Ende vergangenen Jahres verkündet. Dr. Volker Markl, Professor für Datenbanksysteme und Informationsmanagement an der TU Berlin, Chief Scientist am DFKI in Berlin und Mitgestalter dieser KI-Strategie sieht da aber noch erheblichen Nachholbedarf sowohl bei den deutschen Unternehmen als auch der Politik. Volker Markl ist erfahrener Berater der Politik, erfolgreicher Mentor und Mitgründer diverser IT-Startups sowie international anerkannter Wissenschaftler – woran es in Deutschland seiner Ansicht nach fehlt, kann er klar benennen:

Prof. Markl, vor gut einer Woche wurde dataArtisans an den chinesischen eCommerce-Riesen Alibaba verkauft. Entstanden ist das Berliner Startup unmittelbar aus Ihrer Arbeitsgruppe heraus. Jetzt kommen aus der deutschen Wirtschaft mahnende Worte: deutsche IT-Startups würden fast immer an amerikanische oder chinesische Unternehmen gehen – aber nie an deutsche? Woran liegt das?

„Zunächst einmal ist es eine fantastische Erfolgsgeschichte, dass ein Startup aus der TU Berlin einen derartig erfolgreichen internationalen Exit erzielen konnte. Es ist für den Wissenschaftsstandort Deutschland sehr wichtig zu zeigen, dass unsere Technologie-Startups eine derartige Bewertung erreichen können.

Der Grundstein für die Softwaretechnologie Apache Flink, mit der dataArtisans für Furore gesorgt hat, wurde im Jahr 2008 gelegt und mein Team hatte bereits 2012 mit einem Softwareprototypen mehrere deutsche und europäische Großunternehmen angesprochen. Jedoch löst die Technologie ein Problem, das viele deutsche und europäische Unternehmen damals ehrlicherweise noch gar nicht hatten. Apache Flink ermöglicht die effiziente Verarbeitung riesiger Datenmengen und -ströme. Eine Thematik, die in erster Linie die großen Plattform- und Cloudinfrastrukturbetreiber wie Google, Amazon, Uber, Netflix und Alibaba beschäftigt. Unternehmen, bei denen kontinuierlich riesige Datenmengen anfallen. Diese Unternehmen sitzen nun mal nicht in Deutschland.“

Apache Flink ist wie viele Technologien im KI-Bereich Open Source – das heißt, es können Entwickler*innen als auch Nutzer*innen aus aller Welt daran teilhaben. Macht es da überhaupt einen Unterschied, wem ein damit verbundenes Unternehmen gehört? 

„Richtig, Apache Flink kann weiterhin Open Source genutzt werden. Aber der Unterschied besteht darin, dass eine Open Source-Technologie nicht mehr als Produkt, sondern als wichtiger Teil der eigenen Unternehmensstrategie sowie als Recruitinginstrument für gute Softwareentwickler*innen angesehen werden muss. Offensichtliches Ziel von Open Source ist es, die Kosten der Softwareentwicklung auf viele Köpfe zu verteilen, was insbesondere dann sinnvoll ist, wenn man eine komplexe maßgeschneiderte Softwarelösung benötigt, an der potentiell verschiedene Anwender*innen Interesse haben. Aber wer eine Technologie nicht nur nutzen, sondern auch weiterentwickeln will, muss eine signifikante Zahl eigener Entwickler*innen zum Softwarepool beisteuern. Nur so hat man eine gewisse Kontrolle über die Software-Komponenten und kann sie maßgeblich mitgestalten und steuern. Heute spielen sich praktisch alle wichtigen Softwareinnovationen Open Source ab. Doch die Bedeutung von Open Source ist in vielen deutschen Unternehmen noch nicht angekommen.“

Wie sehen Sie die Wissenschaft in Deutschland im Feld der KI-Technologie aufgestellt, vor allem verglichen mit den USA oder China?

„Insbesondere im Bereich der Grundlagenforschung ist Deutschland bisher noch gut aufgestellt. Wir haben hervorragende Wissenschaftler*innen und Forschungsinstitute in maschinellem Lernen und Datenmanagement, den beiden wichtigen Grundpfeilern der aktuellen KI-Innovationswelle. Jedoch ist der Wettbewerbsdruck enorm gestiegen, da international derzeit sowohl von Regierungen als auch großen Unternehmen massiv investiert wird und andere Länder wesentlich schneller, mutiger und konsequenter voranschreiten als wir. Das birgt die Gefahr, dass der Brain Drain, das Abwerben von führenden Köpfen, sich fortsetzt und weiter verstärkt.

Einige Aspekte unseres Wissenschaftssystems sollten wir jedoch auf den Prüfstand stellen. Das betrifft unter anderem die Befristung von Verträgen, das Besserstellungsverbot und zu starre Förderschemata, die der enormen Dynamik der Technologieentwicklungen nicht mehr gerecht werden.“

Wie schätzen Sie die Situation in den Unternehmen ein?

„Vor allem die Unternehmen müssen umdenken: Viele haben die Chancen und Potentiale von Big Data und KI-Basistechnologien schlicht nicht rechtzeitig erkannt. Sie sehen sich noch nicht als IT-Unternehmen, sondern als IT-Anwender*innen. Sie kaufen IT ein, anstatt sich die Kompetenz selbst ins Haus zu holen. Aufgrund mangelnder eigener Softwarekompetenz und -innovationen sind einige Unternehmen ernsthaft bedroht von neuen Wettbewerber*innen. Dieses Verständnis beginnt sich in der deutschen Wirtschaft gerade zu etablieren, jedoch wird der notwendige Kompetenzaufbau einige Zeit in Anspruch nehmen.“

Drei Milliarden Euro will die Bundesregierung bis 2025 im Rahmen der deutschen KI-Strategie, in die Sie ja eingebunden waren, investieren. Mit 20 Milliarden Euro bis 2020 plant die Europäische Kommission. Werden wir damit wieder an die USA und China heranrücken?

Es ist wichtig, in den Bereichen maschinelles Lernen, Datenmanagement und anderen Bereichen der KI und der Data Science mittelfristig neue Professuren und Lehrstühle zu schaffen. Wobei Masse nicht immer auch gleich Klasse bedeutet. Aber eventuell ist der aktuelle Zeitpunkt – Stichwort Brexit und Trump-Administration – ein Schlüssel zur erfolgreichen Anwerbung von internationalen Top-Talenten.

Eine wichtige Rolle spielen dabei die international anerkannten, nationalen Kompetenzzentren zu Big Data und maschinellem Lernen, deren Forschungsgruppen schon seit Jahren Forschung auf Weltniveau leisten und so auch Innovation und Ausbildung in Deutschland vorantreiben. Nur wenn diese Zentren ausgebaut und mit kritischer Masse verstetigt werden, können sie einen Innovationsschub kreieren, aus dem sich die KI- und Data Science-Landschaft in Deutschland auch in die Breite entwickelt.“

Reicht es demnach, die Wissenschaft stärker zu fördern, um Deutschland zu einem Vorreiter der KI-Technologie zu machen?

„Nein, um wieder mit Ländern wie den USA oder China in einer Liga zu spielen, benötigen wir darüber hinaus ein breites technisches Fundament, das den Produktionsfaktor Daten sowie die Kapazität für deren Verarbeitung und Nutzung durch Wirtschaft, Wissenschaft und jeden einzelnen Bürger bereitstellt. Letztlich geht es darum, die KI-Technologie zu demokratisieren.“

Sie sprechen über die Infrastruktur zur Datenverwaltung und -analyse, die in einer Absichtserklärung in der KI-Strategie der Bundesregierung genannt wird?

„Ja, genau. Derzeit gibt es in Deutschland leider den Hang, Teilaspekte der KI isoliert zu betrachten. So wird derzeit sehr viel über Algorithmenforschung gesprochen, beispielsweise im Bereich des Deep Learning. Dies ist sicherlich wichtig. Jedoch helfen uns die besten Algorithmen nicht, wenn diese nicht auf darunterliegende Technologien und Systeme zurückgreifen können, in denen reale Daten nachhaltig und effizient verarbeitet werden. Der Erfolg von KI entscheidet sich aus dem Zusammenwirken von Daten, Algorithmen und Anwendungen in effizienten Verarbeitungsinfrastrukturen. Es ist extrem wichtig, das gesamte System von Hardware, Software, Daten und Algorithmen zu betrachten sowie die Community und Marktmechanismen zu berücksichtigen. Das holistische Prozess- und Systemdenken spielt die entscheidende Rolle für den wirtschaftlichen Erfolg von Grundlagenforschung, also für eine skalierbare, nachhaltige Kommerzialisierung, die Entwicklung von Geschäftsmodellen und Produkten.“

Also ein deutsches Gegenstück zu den großen Datenmonopolen aus USA und China?

„Die Vision sollte sein, alle Daten, die in Deutschland oder noch besser in Europa anfallen, auf einer unabhängigen Infrastruktur sicher und zuverlässig zu verwalten. Staatliche Institutionen müssen gewährleisten, dass diese Infrastruktur neutral, vertrauenswürdig, rechtskonform und vor Übernahmen aus dem Ausland geschützt ist. Ich denke an eine Infrastruktur, die sowohl über öffentliche, private und streng geschützte Orte verfügt und die Produktionsfaktoren Daten, Algorithmen sowie Verarbeitungskapazitäten für Wirtschaft, Wissenschaft, Gesellschaft und allen Bürger*innen bereitstellt. Die datenschutzkonforme Nutzung und interaktive Analysen dieser Daten sollten für alle zugänglich sein.  Darauf basierend könnte ein lebendiger, international konkurrenzfähiger Marktplatz entstehen, der neuartige Anwendungen und Geschäftsmodelle hervorbringt, ein Brutkasten für KI-Innovation, in dem Algorithmen, Daten, und Daten-Apps entwickelt und gehandelt werden können.“

Das klingt nach einem großen Wurf?

„Eine große Aufgabe, ja. Aber nur, wenn man so groß denkt, wird man auch im Hinblick auf Nutzung und Kosteneffizienz die kritische Masse und Skaleneffekte erreichen, die für Betrieb und Erfolg nötig sind. So können wir ein Innovationsökosystem für KI schaffen, das Deutschland und Europa befähigt, im internationalen Wettbewerb um Köpfe, Technologien und Anwendungen vorne mitzuspielen und gleichzeitig die digitale Souveränität und europäische Werte sicherstellt.“

Das Interview führte Katharina Jung im Auftrag der Stabsstelle Presse, Öffentlichkeitsarbeit und Alumni der TU Berlin.

Weitere Informationen erteilt Ihnen gern:

Prof. Dr. Volker Markl
TU Berlin
Fachgebiet Datenbanksysteme und Informationsmanagement
Tel.: 030 314-23555

Zusatzinformationen / Extras

Direktzugang

Schnellnavigation zur Seite über Nummerneingabe

Diese Seite verwendet Matomo für anonymisierte Webanalysen. Mehr Informationen und Opt-Out-Möglichkeiten unter Datenschutz.

Weitere Informationen