Diese Website verwendet Cookies, um das Angebot nutzerfreundlicher und effektiver zu machen. Mit der Nutzung dieser Website stimmen Sie der Verwendung von Cookies zu. Weitere Informationen über die Verwendung von Cookies und die Möglichkeit der Verwendung von Cookies zu widersprechen, finden Sie hier.

Use #netlaws, #nls19

5. - 6. November 2019 // Nürnberg, Germany

Net.Law.S Newsroom

Deutschland bei der Schlüsseltechnologie KI nur Mittelmaß

Big Data und Künstliche Intelligenz

Big Data und Künstliche Intelligenz
Big Data und Künstliche Intelligenz

In deutschen Unternehmen wird viel über Big Data, maschinelles Lernen und Künstliche Intelligenz (KI) diskutiert. Aus Forschungssicht ist Deutschland in diesen Bereichen impulsgebend. Und auch die Bundesregierung sieht in KI eine Schlüsseltechnologie. Der Transfer von der Theorie in die Praxis beziehungsweise aus der Forschung in die Politik, Wirtschaft und Gesellschaft scheint jedoch (noch) nicht so richtig klappen zu wollen. Dieser Meinung ist zumindest Dr. Stefano Signoriello, Data Scientist bei der infoteam Software AG und langjähriger Wissenschaftlicher Mitarbeiter am Department Mathematik der Friedrich-Alexander-Universität Erlangen-Nürnberg. Im Net.Law.S Interview erklärt er, warum er das so sieht. Außerdem hilft er dabei, wichtige Begrifflichkeiten und Zusammenhänge richtig zu verstehen sowie Notwendigkeiten und Potentiale zu erkennen.
 

Net.Law.S: Zur Einordnung: Worüber sprechen wir, wenn von Big Data die Rede ist?

Stefano Signoriello: Der Begriff „Big Data“ wurde seit den 90ern ursprünglich für Datenmengen verwendet, die beispielsweise zu groß oder zu komplex sind, um sie mittels gewöhnlicher Software zur Datenverarbeitung zu prozessieren. Mit steigender Rechenleistung und steigender Speicherkapazität hat sich diese Grenze in den letzten Jahrzehnten immer wieder verschoben. Heutzutage dient er häufig mehr als Sammelbegriff für digitale Technologien, mit deren Hilfe Wissen in einer datengetriebenen Art und Weise erschlossen wird – beispielweise für Methoden zur Speicherung großer Datensätze auf verteilten Servern unter Gewährleistung von kurzen Zugriffszeiten oder auch für Methoden des maschinellen Lernens zur Analyse und Modellierung solcher Datenmengen.


In welchem Zusammenhang stehen Big Data und Artificial Intelligence (AI) miteinander?

Unter Artificial Intelligence beziehungsweise Künstlicher Intelligenz verstehen wir gemeinhin Maschinen wie Computer, die zur Erledigung bestimmter Aufgaben kognitives Verhalten imitieren, welches wir dem menschlichen Verstand zuschreiben. Beispiele solcher Aufgaben sind neben vielen anderen das Erkennen handgeschriebener Ziffern, oder allgemeiner die Identifizierung bestimmter Objekte in einem Bild oder Video, das künstliche Erstellen von qualitativ hochwertigen Bildern, zum Beispiel von Gesichtern oder Kunstwerken gewisser Stilrichtungen, das Verstehen von gesprochener Sprache als auch das eigenständige Erlernen von optimalen Strategien in einem Brettspiel wie Schach oder Go. Für jede dieser Aufgaben wurden mittlerweile Verfahren entwickelt, die es einem Computer ermöglichen, scheinbar kognitive Verhaltensweisen zu erlernen, um die jeweilige Problemstellung mit teilweise übermenschlichem Erfolg zu meistern.

Das Lernprinzip hinter diesen Methoden ist im Wesentlichen stets dasselbe: Auf der Grundlage von in der Regel vielen Daten werden auf die Problemstellung zugeschnittene Modelle trainiert, validiert, untereinander verglichen und die besten dieser Modelle ausgewählt.

> Jetzt Tickets für die Net.Law.S sichern <


Im Fall von handgeschriebenen Ziffern bestehen die Daten beispielsweise aus Bildern der Ziffern und sogenannten Labels, d.h., den Werten der Ziffern in einer für Computer lesbaren Form. Ein Modell wird hiernach so erstellt, dass es zu einem gegebenen Bild einen Ziffernwert ausgeben kann, und auf den bestehenden Daten trainiert, um statistisch relevante Muster aus den Bildern zu extrahieren und diese auf die korrekten Labels zuzuweisen. Mit anderen Worten ist Künstliche Intelligenz ebenfalls eine Art Sammelbegriff für digitale Technologien und Verfahren des maschinellen Lernens, um Wissen beziehungsweise optimales Verhalten für eine spezifische Aufgabe auf der Grundlage von Daten zu erhalten.
 

Und wo wir gerade bei der Begriffsklärung sind: Worin unterscheidet sich Big Data von den Business-Intelligence-Methoden der letzten 25 Jahre?

Das Ziel traditioneller Business-Intelligence-Methoden ist meist eine konzentrierte Darstellung von relevanten historischen Unternehmensdaten, zum Beispiel in Form von Visualisierungen, um den unternehmerischen Verlauf der Vergangenheit besser verstehen und geeignete Maßnahmen für die Zukunft ableiten zu können. Die dabei auftretenden Datensätze bestehen in der Regel aus strukturierten Daten und sind damit vergleichsweise einfach. Prognosen für zukünftige Entwicklungen werden auf Basis dieser Daten häufig noch vom Menschen selbst aufgestellt oder allenfalls durch einfache statistische Modelle abgebildet.

Neben den Kerndaten eines Unternehmens werden oftmals noch viele weitere Daten generiert und auch teilweise langfristig gespeichert. Einige dieser Daten, wie zum Beispiel Bild-, Sprach- oder Textdaten, können aufgrund ihrer Struktur jedoch nicht so einfach maschinell verarbeitet werden, wie das für strukturierte Tabellen der Fall ist. Möglichkeiten der automatisierten Verarbeitung und Modellierung solcher unstrukturierten Daten versprechen hier eine Verbesserung des Prozessverständnisses und genauere Prognosen für zukünftige Entwicklungen. Um mit der steigenden Größe als auch der steigenden Komplexität der Daten zurechtkommen zu können, bedarf es Methoden aus dem Umfeld von Big Data beziehungsweise Künstlicher Intelligenz. In Abgrenzung zu dem Begriff Business Intelligence spricht man hierbei dann häufig von Business Analytics.  
 

Daten zu sammeln, ist also nicht neu. Was ist heute anders beziehungsweise was wird zukünftig anders sein?

Dank steigender Rechenleistung und steigender Kapazitäten von Speichermedien bei gleichzeitig sinkenden Kosten wie auch dank der starken Ausbreitung von mobilen Computern und vernetzten Sensoren erleben wir heutzutage eine regelrechte Flut an digitalen Daten. Schätzungen ergaben beispielsweise, dass allein im Jahr 2009 – vor zehn Jahren also – mehr digitale Daten erzeugt wurden als die Gesamtheit aller Daten vom Anbeginn der Menschheit bis zum Jahr 2008. Während im Jahr 2011 schätzungsweise zwei Zettabyte (1 ZB = 1012 GB = 1 Billion Gigabytes) und im Jahr 2016 ungefähr 16 Zettabyte an Daten generiert wurden, erwarten wir für das Jahr 2025 bereits eine Flut von über 160 Zettabyte. Dabei handelt es sich um nahezu astronomische Größenordnungen, die für uns Menschen schwer zu fassen sind und womöglich nur durch Beispiele etwas greifbarer werden.

Die allein für das Jahr 2025 prognostizierte Menge an generierten Daten käme beispielsweise zustande, wenn jeder Mensch in Deutschland jeden Tag ca. 100 Ultra-HD-Filme in der Größenordnung von 60 Gigabytes streamen würde.

Während der Großteil dieser Daten aktuell noch von Privatpersonen zum Beispiel in Form von Bildern, Videos oder Text- und Sprachnachrichten erzeugt wird, werden bald vor allem Daten von Sensoren aus dem Umfeld des Internets der Dinge (IoT) zum Datenwachstum beitragen.

> Tickets für die Net.Law.S sichern <


Ein großer Teil dieser Datenmenge wird dabei gar nicht langfristig gespeichert, sondern nur konsumiert beziehungsweise verarbeitet – zum Beispiel im Fall von Sensordaten eines Autos oder anderen Streamingdaten. Über den verbleibenden Rest der Daten wissen wir so viel wie über die Ozeane unseres Planeten: Schätzungsweise ein Prozent wird aktuell systematisch analysiert.


Welche Möglichkeiten oder Techniken der Datenanalyse im unternehmerischen Umfeld gibt es?

Prinzipiell dieselben wie in jedem anderen Umfeld auch, also explorative Datenanalyse und statistische Modellbildung. Die genauen Möglichkeiten und Techniken ergeben sich sowohl aus der Größe und der Struktur der vorhandenen Daten als auch aus den konkreten Anwendungsfällen. Häufig ist das genaue Vorgehen auch eine Frage des Budgets, da komplexere Datenanalysen sowohl einen erhöhten Zeit- und Entwicklungsbedarf als auch einen höheren Rechenbedarf und damit höhere Kosten für Hardware oder Cloud-Computing bedeuten. Gerade für Unternehmen muss sich die Entwicklung solcher KI-Systeme langfristig auszahlen, so dass zu Beginn häufig nur ein Teil der vorhandenen Daten durch möglichst einfache Modelle abgebildet wird. Für große Konzerne ist die Entwicklung ausgefeilter Analysesysteme daher meist leichter zu stemmen, als dies beispielsweise für kleine mittelständische Unternehmen der Fall ist.


Für welche Art Unternehmen sollte Big Data ein Thema sein?

Big Data beziehungsweise Künstliche Intelligenz ist vor allem für produzierende Unternehmen, Dienstleister und natürlich IT-Unternehmen von großer Bedeutung. Im Falle von produzierenden Unternehmen wird der Zustand von Maschinen beispielsweise unablässig durch Sensoren überwacht und Modelle auf Basis der anfallenden Daten erstellt, trainiert und evaluiert. Dies ermöglicht unter anderem genauere Vorhersagen zum Verschleiß von Bauteilen und damit eine kostengünstigere Alternative zu proaktiver wie auch reaktiver Wartung – vorausschauende Wartung beziehungsweise Predictive Maintenance.

Wie digital ist die deutsche Wirtschaft? Ein Interview mit dem Chefredakteur des DUB Unternehmer Magazins

Hierbei werden Bauteile nicht zu früh ersetzt, das heißt, wenn sie prinzipiell noch lange Zeit funktionstüchtig sind, aber auch nicht zu spät, das heißt, wenn sie bereits defekt sind und dadurch Folgedefekte und ungeplante Wartungszeiten hervorgehen. Dies erlaubt Anlagenbetreibern, die Lebenszeit von Bauteilen möglichst weit auszureizen und Wartungen zu günstigen Zeitpunkten in einer geplanten Art und Weise durchzuführen. Letztlich steigert dies die Gesamteffektivität der Anlage und spart dadurch Kosten.

Für Dienstleister zum anderen kann eine Segmentierung von Kundengewohnheiten im Fokus stehen. Zu wissen, was der Kunde in der Zukunft möchte, erlaubt es, Angebote und Dienste individuell und kundenorientiert anzupassen. Dies steigert sowohl den Absatz als auch die Kundenzufriedenheit und damit schließlich den Umsatz.

IT-Unternehmen auf der anderen Seite entwickeln KI-Lösungen als Dienstleister mit und für Unternehmen. Für solche IT-Unternehmen gilt es Kompetenzen hinsichtlich des maschinellen Lernens aufzubauen und diese in konkreten Projekten in der Praxis umzusetzen. Dank der Weiten des Internets ist der Aufbau von Kompetenz meist weniger ein Problem als die tatsächliche Umsetzung von Projekten. Schließlich bestehen hierzulande von Seiten vieler Unternehmen noch einige Vorbehalte bezüglich der Weitergabe von Daten und bezüglich der Techniken von Künstlicher Intelligenz. Zudem sind solche Projekte, also deren Ergebnisse und deren Kosten, generell schwer im Voraus planbar.

Wenn Investitionen mittelfristig nicht durch bezahlte Kundenprojekte aufgefangen werden, kann die Beschäftigung mit Künstlicher Intelligenz für deutsche IT-Unternehmen schnell zur Kostenfalle werden.

Darüber hinaus spielt KI natürlich sowohl im Mobilitäts- als auch im Gesundheitssektor eine wichtige Rolle. Heutige Fahrerassistenzsysteme beinhalten bereits eine Menge Künstlicher Intelligenz, zum Beispiel im Fall von Sprachassistenten oder der Erkennung von Verkehrszeichen. Auf dem Weg zu sicheren autonomen Fahrzeugen müssen jedoch noch einige technische, rechtliche und auch gesellschaftliche Probleme überwunden werden. Im Bereich der Medizin gibt es vor allem Anstrengungen, Daten aus bildgebenden Verfahren wie CT oder MRT automatisiert zu verarbeiten und zu diagnostizieren. Auch hier sind gegenwärtige Verfahren teilweise auf oder sogar über dem Niveau von Experten. Solche Systeme sollen Experten zukünftig nicht ersetzen, sondern als Werkzeug unterstützend eingesetzt werden.
 

Wie steht Deutschland beziehungsweise stehen deutsche Unternehmen im internationalen Wettbewerb um und mit Daten da?

Im internationalen Vergleich hinsichtlich Künstlicher Intelligenz stehen vor allem die Vereinigten Staaten, Israel, Finnland und China an der Spitze. Der Standort Deutschland ist hier nur Mittelmaß. Unter anderem liegt dies daran, dass öffentliche Fördergelder wie auch vor allem Fachkräfte fehlen. Zudem ist es für Gründer von KI-Start-ups oftmals schwer, hierzulande erfolgreiche KI-Geschäftsideen zu entwickeln.

Zum Vergleich: Die deutsche Bundesregierung hat sich zur Förderung der Entwicklung der als Schlüsseltechnologie geltenden Künstlichen Intelligenz vorgenommen, in den kommenden sechs Jahren jährlich 500 Millionen Euro zu investieren. Verglichen mit vielfach höheren Investitionen für einzelne chinesische Städte oder mit Jahresgehältern von bis zu 500.000 Dollar für KI-Experten in den Vereinigten Staaten wird der ehrgeizige Anspruch, zum weltweiten Spitzenreiter in Sachen KI aufzusteigen, schnell als Wunschdenken entlarvt.

Aktuell entwickelt sich der Standort Deutschland eher zu einem weltweiten Spitzenreiter hinsichtlich der demokratischen Diskussion über Datenschutz und ethische Bedenken beim Einsatz von Künstlicher Intelligenz.

Zum Artikel: Chancen und Gefahren – KI aus Juristensicht

All dies ist auch richtig und notwendig, doch andernorts, wo diesbezüglich weniger Vorbehalte vorliegen, ergeben sich derzeit interessante Spielwiesen für KI-Experten aus der ganzen Welt. Angezogen von herausfordernden, spannenden Tätigkeiten und deutlich höheren Gehältern entwickeln dort Expertenteams die KI-Techniken von morgen, erschließen mit ihnen große Märkte und rechtfertigen dadurch auch hohe Kosten für Forschung und Entwicklung. Dabei ist die universitäre Forschung hinsichtlich Künstlicher Intelligenz im internationalen Vergleich anhand von Publikationszahlen nicht nur historisch, sondern auch gegenwärtig durchaus konkurrenzfähig.
 

An welcher Stelle sollten wir im Zusammenhang mit Big Data vorsichtig sein?

Vorsicht ist an jeder Stelle geboten – insbesondere sofern personenbezogene oder sicherheitskritische Daten versendet beziehungsweise verarbeitet werden und sofern Entscheidungen automatisiert durch KI-Systeme ausgeführt oder solche Systeme zur gezielten Überwachung eingesetzt werden.

Viele der heute verwendeten Modelle ergeben sich aus einem Zusammenspiel aus einer unüberschaubaren Menge von Parametern, so dass es mitunter sehr schwer ist, die Entscheidungen einer Künstlichen Intelligenz nachzuvollziehen oder Schwachstellen zu identifizieren. Wissenschaftliche Sorgfalt ist nötig, um Probleme bereits während der Konzeption, der Datengenerierung und des Modelltrainings ausfindig zu machen. Es sind bereits etliche Beispiele bekannt, die belegen, dass Systeme von Künstlicher Intelligenz nicht immer so intelligent sind, wie es ihr Name vermuten lässt.

> Jetzt Net.Law.S Tickets sichern <


Aber auch erfolgreiche KI-Ansätze können die Gesellschaft vor große Probleme stellen. Bereits heute ist die Qualität einiger generativer Modelle so hoch, dass gefälschte Bilder oder Videos kaum oder gar nicht von echten Bildern oder Videos unterschieden werden können – sogenannte Deepfakes. Auch der Skandal um Cambridge Analytica und Facebook zeigte, wie Menschen mit Hilfe von KI systematisch und effektiv manipuliert werden können. Wie viele andere Entwicklungen zuvor ist auch Künstliche Intelligenz ein zweischneidiges Schwert – einerseits ein Instrument zur Lösung einiger der größten Probleme der Menschheit, aber auch anderseits ein Instrument zur Überwachung, Kontrolle und Steuerung von Individuen.
 

Haben Sie ein Beispiel aus einer Organisation, wo dank Big Data unternehmerische Probleme oder Herausforderungen gelöst werden konnten?

Große Erfolge verzeichnen natürlich die großen Konzerne aus den Vereinigten Staaten. Schließlich sind sie maßgeblich an der Entwicklung des maschinellen Lernens beteiligt. Hinter den gezielten Werbeanzeigen bei Facebook & Co stecken Algorithmen des maschinellen Lernens zur Segmentierung der Benutzer. Durch das Schalten von Anzeigen, die genauer zu den persönlichen Vorlieben der Benutzer passen, werden diese Anzeigen auch häufiger angeschaut, wodurch letztlich die Werbeeinnahmen erhöht werden. Hinter den Sprachassistenten von Google, Apple und Amazon stecken Modelle, die die Laute gesprochener Sprache möglichst korrekt in geschriebene Sprache konvertieren und die Semantik hinter den Zeichen auf auszuführende Handlungen abbilden können.

Für diese Unternehmen sind solche Sprachassistenten Produkte beziehungsweise Dienstleistungen, für die wir mit unseren Daten bezahlen. Auf Basis dieser neuen Daten werden schließlich sowohl erweiterte als auch neue KI-Produkte entwickelt. Durch Künstliche Intelligenz hat Google – beziehungsweise das von Google im Jahr 2014 aufgekaufte und durch AlphaGo berühmt gewordene Start-up DeepMind – beispielsweise den Betrieb einiger Rechenzentren optimiert, wodurch eine beachtliche Menge an Strom eingespart werden konnte. Aus Deutschland sind mir derart einschlägige Entwicklungen nicht bekannt. Deutsche Unternehmen stehen hier noch eher am Anfang, warten noch ab oder führen erste kleinere Schritte durch. Für Deutschland und deutsche Unternehmen besteht daher durchaus die Gefahr, wichtige Entwicklungen in dieser Schlüsseltechnologie zu verschlafen und langfristig ins Hintertreffen zu geraten.

So funktioniert New Work – Arbeiten 4.0.



Worum wird es in Ihrem Net.Law.S Vortrag gehen? 

In meinem kurzen Vortrag möchte ich auf grundlegende Vorgehensweisen des maschinellen Lernens eingehen. Verdeutlichen möchte ich dabei, dass moderne KI-Methoden keine Zauberei sind. Vielmehr handelt es sich dabei um mathematische Optimierungsverfahren, die oftmals nur dank der heutzutage verfügbaren Rechenleistung praktisch durchgeführt werden können. Zum Vortrag

Danke für die tiefgehenden Einblicke.

Weitere Artikel über KI lesen

top