Was CEOs jetzt über Big Data und künstliche Intelligenz (KI) wissen müssen

Walter Maderner | März 28, 2018

 

Kein Tag vergeht, an dem wir nicht in den Medien mit dem einen oder anderen Artikel, Blog oder Statement zum Thema Digitalisierung, Big Data und künstliche Intelligenz (KI) konfrontiert werden.

Das aus gutem Grund: Während die Digitalisierung der Welt, angefangen vom privaten Bereich (Smartphone, Tablet, PC) über den Handel (eCommerce Plattformen) und die produzierende Industrie (Digitalisierung der Wertschöpfungskette) beschleunigt voranschreitet, hat es in der jüngsten Vergangenheit bei der sinnhaften Verwertung und Interpretation von Big Data durch künstliche Intelligenz (KI) bahnbrechende Entwicklungen gegeben. Drei wesentliche Treiber sind dafür verantwortlich:

  • Die immer größere Menge an Daten in digitaler Form
  • Die rasant steigende Kapazität und Vernetzung der Rechner
  • Die Durchbrüche bei der Entwicklung mathematischer Modelle für die künstliche Intelligenz

Das Datenvolumen wächst exponentiell

Big Data ist heute kein leeres Schlagwort mehr. Durch die rasante Verbreitung von Smartphones, Tablets und PCs im privaten Bereich (ca. 5 Milliarden Nutzer 2020) und den in der Industrie, Handel und Verwaltung eingesetzten IT Systemen sind immer mehr Endgeräte mit Schnittstellen zum Internet aktiv, die über ihre optischen, akustischen, Positions- und sonstigen Sensoren in Echtzeit Daten generieren und ins Internet übertragen. Ebenso tragen die Protokolle und Log Files der privaten und gewerblichen Kommunikations- und Transaktionsprozesse zur Explosion der Datenmenge bei. Aktuell gehen Experten von einer Verdopplung der Datenmenge alle zwei Jahre aus.

Folgender Vergleich soll ein Gefühl für die Größenordnungen vermitteln: Würde man das gesamte Datenvolumen von 2016 im Umfang von geschätzten 16 Zettabyte (10^21 Byte) im DVD Format abspeichern wollen, dann würde man dafür etwa 4 Trillionen (10^12) Datenträger benötigen. Das entspräche einer stolzen Menge von etwa 560 DVDs für jeden Erdenbürger mit etwas mehr als 2 Terrabyte Datenvolumen. Aufgetürmt würden die etwa 1mm dicken Datenträger eine Säule von 4 Millionen km Höhe ergeben. Dies entspricht etwas mehr als der zehnfachen Entfernung von der Erde zum Mond.


Weitere Merkmale von Big Data sind die Verfügbarkeit der Daten in Echtzeit (z.B. Sensordaten, live Streams, Echtzeit Kommunikations- und Transaktionsdaten), ihre große Heterogenität und Bandbreite (etwa 80 % aller Daten sind optischer Natur, der Rest zerfällt in akustische, Text und sonstige Formate) und ihre mangelnde Strukturiertheit (nur etwa 3 % der Daten lassen sich systematisch über Keywords suchen).

Computing Power wird stärker und vernetzter


Zweiter Treiber ist die stetige Zunahme der Rechnerleistung, der Leitungskapazitäten und der Vernetzung. Das bereits Mitte der 70er Jahre formulierte Mooresche Gesetz ist eine empirische Regel, die besagt, dass sich die Leistungsfähigkeit der Rechner Chips alle 18 Monate verdoppelt. Diese Regel hält im Großen und Ganzen bis heute. Wie beeindruckend dieses exponentielle Wachstum ist, zeigt der oft zitierte Vergleich der Rechenleistung des Bordcomputers der Apollo Missionen (1969 1972) mit einem iPhone 6: Das iPhone 6 (2014+) übertrifft den Apollo Computer um das 80 Millionenfache. 

Allen Unkenrufen zum Trotz, die befürchten, dass die Silizium Halbleiter Technologie in puncto Miniaturisierung an die Grenzen stößt, stehen schon neue technologische Entwicklungen wie zum Beispiel die der Quantencomputer in der Erprobungsphase bereit. Quantencomputer können über die quantenmechanische Verschränkung von Zuständen, sogenannten Qbits, viele Rechenoperationen gleichzeitig durchführen, und sind daher viel schneller als herkömmliche Vektor Prozessoren. Erste Quantencomputer als Web Dienst werden von IBM schon seit Mai 2016 angeboten. Wenngleich die Rechnerleistung noch bescheiden ist, gehen die Experten von Google davon aus, dass diese Technologie in weniger als zehn Jahren serienreif sein wird. Neu entdeckte Materialien, wie etwa die topologischen Kristalle könnten das Ende der Silizium Ära einläuten, da topologische Kristalle eine noch weitere Miniaturisierung der Leiterbahnen ermöglichen.

Auch die Dichte und Übertragungskapazität der Datennetze nimmt ständig zu. Während am Anfang der Ethernet Entwicklung im Jahre 1973 die Übertragungskapazität schwache 3 Mbit/sec betrug, sind wir heute in den Größenordnungen von hundert Mbit/sec bis mehreren hundert Gbit/sec bei Endgeräten, abhängig vom Übertragungsmedium. Damit können auch extrem großen Datenpakete wie z.B. Bildinformationen in höchster Auflösung in Echtzeit übertragen werden.

Last but not least steigt die Anzahl der vernetzten Geräte im Internet der Dinge rasant. Schätzungen gehen 2017 von etwa 8,4 Milliarden Endgeräten aus mit dem Ausblick auf 20,5 Milliarden im Jahr 2020.

Das Wachstum kommt aus USA, Asien und Westeuropa und wird hauptsächlich von den Endverbrauchern durch den Einsatz von Smartphones, Tablets, PCs, internetfähigen Haushaltsgeräten und privaten Überwachungseinrichtungen getrieben.

Das erweiterte Adressprotokoll IPv6 ermöglicht erstmals eine fast unbegrenzte Adressierbarkeit der Endgeräte im Netz (etwa 340 Sextillionen mögliche IP Adressen) und schafft so die Grundlage für deren gegenseitige Vernetzung. Da der ökonomische Wert eines Netzwerkes quadratisch mit der Anzahl der Teilnehmer wächst, so folgt aus der obigen Abschätzung, dass das Internet der Dinge 2020 schon um das fünfeinhalbfache attraktiver sein muss als noch 2017.

Bahnbrechende Entwicklungen bei der KI auf Basis neuronaler Netze in der jüngsten Vergangenheit

Der dritte Treiber der Entwicklung ist der Durchbruch in der Entwicklung künstlicher Intelligenzen (KIs) beziehungsweise der mathematischen Methode, die den KIs zugrunde liegt: die Methode der neuronalen Netze.

Neuronalen Netze sind eine vereinfachte mathematische Abstraktion der Funktionsweise des menschlichen Gehirns. Vereinfacht deshalb, weil bis heute die Komplexität der 90 Milliarden Nervenzellen mit ihren 100 Billionen Vernetzungen immer noch nicht gut verstanden ist.

Im abstrahierten mathematischen Modell werden Neuronen in mehreren Schichten so angeordnet, dass jedes Neuron einer Schicht mit jedem Neuron der benachbarten Schicht über ein Signal wechselwirken kann. Die Stärke der Signalübertragung zwischen zwei Neuronen wird durch individuelle Gewichte und durch eine individuelle Aktivierungsschwelle eingestellt. Die Signale der Sensoren (z.B. die einzelnen Pixel eines Bildes, eines Buchstabens bei der Schrifterkennung) werden über die Input-Schicht in das Netz eingespeist. In den nachfolgenden sogenannten verborgenen Schichten werden die Anregungen der Neuronen sukzessive analysiert, wobei jede der Schichten unterschiedliche Merkmale des Input Signals filtert und analysiert. In der letzten Schicht, der sogenannten Output Schicht wird das Resultat der Analyse final bewertet (z.B. wird der zu lesende Buchstabe mit einer bestimmten Wahrscheinlichkeit erkannt).

Bemerkenswert ist, dass Neuronale Netze nicht programmiert, sondern trainiert werden. Anhand von Testdaten, bei denen die Analyseergebnisse bekannt sind, werden die individuellen Gewichte und Schwellenwerte mit Hilfe eines mathematischen Optimierungsverfahrens sukzessive so verändert, bis das Netz die richtigen Ergebnisse mit hinreichender Qualität auf den Testdaten reproduzieren kann. Dies nennt man überwachtes Lernen, bei dem die Zielwerte vorgegeben sind. Dies ist die gängige Methode für etwa 99 % aller kommerziellen aktuellen KI Anwendungen. Daneben gibt es aber noch, jeweils abhängig von der konkreten Fragestellung, andere Lernmethoden wie das bestärkende Lernen, bei dem das Netz selbstständig lernt und bei Erfolg belohnt wird, bzw. das unüberwachte Lernen, bei dem das Netz ohne Zielwert und Belohnung selbstständig Muster erkennt.

Obwohl das Konzept der neuronalen Netze bereits Mitte der 50er entwickelt wurde, waren die Netze lange Zeit wegen mangelnder Rechnerleistung, unzureichender Tiefe (maximal drei verborgene Schichten) und einer zu geringen Testdatenmenge nicht sehr leistungsfähig.

Als es 2014 gelang wirklich tiefe Netze mit bis zu 1000 Schichten zu bauen, die Rechner entsprechend leistungsfähig wurden, und über Big Data eine Fülle von Trainingsdaten im Netz zur Verfügung standen, waren die Voraussetzungen für einen Durchbruch in der KI gegeben.

Heute verfügen leistungsfähige KIs über mehrere Dutzend Schichten, mehrere Millionen Parameter (Gewichte und Schwellenwerte) und benötigen mächtige Trainingsdatensets (500 Millionen Datensätzen aufwärts für das überwachte Lernen). Dafür stellt die Performance dieser großen Netze alles bisher Dagewesene in den Schatten. Nachfolgend zwei Beispiele aus der jüngsten Vergangenheit.

Brettspiele in Computerhand: Googles AlphaGo vernichtet den Go Champion Lee Sedol


Wie erstaunlich die Leistungsfähigkeit der KIs mittlerweile geworden ist, illustriert am eindrucksvollsten der Sieg von Google DeepMinds AlphaGo im März 2016 über den weltbesten Go Profi Lee Sedol.

Go gilt als der König der Brettspiele, und ist vom Spielverlauf viel komplexer als Schach. Während Deep Blue 1996 den Schachweltmeister Gary Kasparow durch bloße Rechenleistung bezwungen hat, ist dies bei Go nicht mehr möglich. Dort kommt man durch bloßes Durchspielen der Kombinationen nicht mehr weiter. Stattdessen benötigt man Intuition gepaart mit strategischem Weitblick. Und beides wurde von Googles KI geleistet: AlphaGo entwickelte eigenständig Strategien und Spielzüge, ohne dass diese vorher im Einzelnen programmiert oder trainiert worden wären. AlphaGo wurde zwar mit den Partien der Top Spieler gefüttert, lernte aber dann auch selbstständig weiter.

Dies ist ein wesentliches Merkmal der neuen mathematischen Verfahren: Sie sind in der Lage eigenständig sinnvolle Spielzüge zu entwickeln, ohne alle Möglichkeiten durchprobiert zu haben. Die KIs lernen was Sinn macht und was nicht, und verbessern sich dadurch laufend. Damit werden die Verfahren extrem adaptiv und anpassungsfähig.

Und dann das: Mehr als ein Jahr später designte Google DeepMind die AlphaGo KI komplett neu. Eine neue vereinfachte Netz Architektur, schlankere Hardware: AlphaGo Zero war geboren. AlphaGo Zero benutzte zum Training keinen menschlichen Input mehr wie sein Vorgänger, sondern erlernte das Go Spiel selbst anhand der Regeln. Die KI trat 4,9 Millionen Mal gegen sich selbst an. Am Anfang setzte AlphaGo Zero die Spielzüge zufällig, aber die KI lernte schnell aus Fehlern und wurde laufend besser. So trainiert fegte der Autodidakt AlphaGo Zero seinen Vorgänger AlphaGo, der Lee Sedol bezwungen hatte, kurzerhand 100:0 vom Platz.

Ganz nebenbei hat ein Alpha Zero Modell im Dezember 2017 die beste amtierende KI Schach Software vernichtend geschlagen, nachdem es sich auch dieses Spiel wie bei Go autodidaktisch beigebracht hatte.

 

„Spooky“: Künstliche Intelligenzen werden auf unheimliche Weise kreativ


KIs zeigen ein mitunter verblüffend kreatives Systemverhalten, das aus der Architektur des Netzes oder der Struktur der Trainingsdaten nicht ableitbar ist: In 2017 konstruierte Facebook die zwei Chatbots Alice und Bob, um menschliche Verhandlungssituationen zu modellieren. Während des Experimentes entwickelten die beiden kurzerhand eine eigene Sprache. In diesem seltsamen und uns gänzlich unverständlichen Dialog feilschten Alice und Bob dann so wie ursprünglich beabsichtigt um Hüte, Bälle und Bücher. Das Experiment wurde den Facebook Entwicklern dann doch unheimlich und sie brachen es ab.

Ein zweites Beispiel ist Googles Übersetzungsdienst: Als im September 2016 die Software von Google Translate durch ein leistungsfähigeres neuronales Netz ersetzt wurde, das in der Lage ist ganze Sätze auf einmal sinnhaft zu übersetzen, stellte sich heraus, dass die KI eine eigene Sprache entwickelt hatte, die bei der Übersetzung zum Einsatz kam: Die zu übersetzenden Texte transferierte Google Translate zunächst in die eigene Sprache, um daraus dann die gewünschte Übersetzung zu erzeugen.

Diese Beispiele illustrieren eindrucksvoll, wie kreativ KIs von sich aus werden können. Bei allen Vorteilen und Stärken der Methode ist die mangelnde Transparenz der Ergebnisfindung die Kehrseite der Medaille. Die KI ist wie eine Black Box: Das Ergebnis der Analyse mag gut und richtig sein, aber meist versteht man nicht, wie es dazu gekommen ist. Ein zulässiger Vergleich ist vielleicht die menschliche Intuition, wo das richtige Ergebnis gleichsam erraten und nicht logisch abgeleitet wird. Wie wir damit in Zukunft umgehen werden, wird die Praxis der Anwendungen zeigen.

 

Die neue KI Revolution ist angebrochen

Mit Big Data, leistungsfähigen Rechnern und den neuen mathematischen Methoden der KI treten wir in ein neues Zeitalter. Die Veränderungen werden in jedem Lebensbereich nachhaltig und tiefgreifend sein. KI beflügelt mittlerweile jede Branche.

Die führenden Internetunternehmen der Welt streben an, Intelligenz unbedingt in jede App zu integrieren. Wir sind umgeben von Apples Siri, Amazons Alexa, Googles Translate, IBMs Watson, Microsofts Captionbot, Facebooks, Baidus und Googles Bilderkennung, Netflixs Assistenten, Googles Allo Chatbot und vielen mehr. Auf der ganzen Welt wurden mehr als 1.500 KI-Startups gegründet. Autonome Fahrzeuge werden die 10 Billionen Dollar schwere Transportbranche revolutionieren. Und mit KI-fähigen Industrierobotern werden sich Fabriken und Fertigungseinrichtungen neu erfinden. Big Data und KI sind das Herz dieser intelligenten industriellen Revolution. 

Fazit: KI wird erheblichen Einfluss auf alle existierenden und aktuell möglicherweise auch gut funktionierenden Business Modelle haben. Um weiterhin erfolgreich am Markt auftreten zu können ist ein rechtzeitiges Auf- und Vorbereiten der anstehenden Entwicklungen unerlässlich. 

 

 New Call-to-action

 

 

 

Über den Autor

Walter Maderner

Dr. - Partner, Wien

Kommentare