+ All Categories
Home > Documents > KÜNSTLICHE INTELLIGENZ (KI) - it-production.com · Datenfabrik mit sechs Stationen: Ein...

KÜNSTLICHE INTELLIGENZ (KI) - it-production.com · Datenfabrik mit sechs Stationen: Ein...

Date post: 08-Aug-2019
Category:
Upload: duongdieu
View: 214 times
Download: 0 times
Share this document with a friend
17
SONDERTEIL KÜNSTLICHE INTELLIGENZ (KI) Lösungen - Use Cases - Algorithmen www.it-production.com Bild: © phonlamaiphoto/Fotolia.com E-PAPER SONDERTEILE, BRANCHENSPECIALS, THEMENSCHWERPUNKTE
Transcript

SONDERTEIL

KÜNSTLICHE INTELLIGENZ (KI)

Lösungen - Use Cases - Algorithmen

www.it-production.com

Bild: © phonlamaiphoto/Fotolia.com

E-PAPERSONDERTEILE, BRANCHENSPECIALS, THEMENSCHWERPUNKTE

KÜNSTLICHE INTELLIGENZ | ANWENDUNGSFÄLLE ERMITTELN

IT&Production 3/2019

Halle 6 Stand A46

Der IT-Branchenverband Bitkom

betrachtet künstliche Intelligenz

(KI) als den wichtigsten Treiber

der Digitalisierung. Die Technologie wird

das Herzstück der digitalen Wirtschaft bil-

den, prognostiziert der Verband. Damit

sich das Identifizieren und Anwenden von

Mustern aus Datensätzen über statisti-

sche Korrelationen sowie das Schlussfol-

gern aufgrund von semantischen Bezie-

hungen stärker als bisher verbreitet, muss

allerdings noch einiges passieren. Auf die-

sen beiden Prinzipien beruht die Fähigkeit

von Maschinen, Texte, Sprache und Bilder

zu erkennen. Zudem definiert sich KI als

ein System aus Hard- und Software, das

auf seine Umgebung reagiert, selbststän-

dig lernt und handeln kann.

Basis wird geschaffen

Die Bitkom-Prognose lässt sich als Auf-

trag verstehen, den Abstand zu den füh-

renden Nationen USA und China zu ver-

kürzen. In diesem Kontext betonen KI-Ex-

perten und Analysten, dass KI-Technolo-

gie Unternehmen die Chance eröffnet,

über Automatisierung Prozesse zu ver-

bessern. Genau das streben viele Unter-

nehmen in Deutschland an, die sich mit

KI-Systemen beschäftigen. Ihr Ziel ist eine

höhere Wertschöpfung. Allerdings er-

weist sich das Zusammenspiel von KI und

einem Roboter oder einer Maschine in

komplexen Produktionsanlagen als her -

ausfordernd. Jedoch lässt sich in der Pra-

xis beobachten, dass viele produzierende

Firmen gerade eine Basis schaffen, um KI

in die Informationen zwischen Maschi-

nen, Materialien, Produkten sowie Mitar-

beitern stärker einzubinden und so er-

weiterte Analyse-, Unterstützungs- und

Automatisierungsmöglichkeiten zu nut-

zen. Wie in anderen Branchen auch, kon-

zentrieren sich Unternehmen in der Ferti-

gungsindustrie auf die KI-Teildisziplin ma-

schinelles Lernen (Machine Learning, ML),

das sich technologisch von Schlussfol-

gern (Reasoning), Spracherkennung und -

verarbeitung (Natural Language Proces-

sing, NLP) sowie automatisiertem Planen

(Planning) abgrenzt. Allerdings sind die

Übergänge dabei fließend. Bei ML nutzt

ein digitales System einen Algorithmus,

der in Iterationen mit Daten trainiert

wird, in der Folge lernt und Erkenntnisse

liefert. Abhängig von den vorhandenen

Datensätzen werden Algorithmen für

überwachte, unüberwachte oder spe-

zielle Lernverfahren eingesetzt. Für kom-

plexe Lernsituationen eignen sich bei-

spielsweise die Deep Learning Ansätze.

Viel Rechenleistung nötig

Maschinelles Lernen mit sogenannten

neuronalen Netzen erfordert viel Re-

chenleistung. Die Trainingsdatensätze

müssen einen entsprechenden Umfang

haben, die Netze werden für realistische

Erkennungsaufgaben schnell sehr groß.

Bei Deep Learning werden Schichten

neuronaler Netze aufgebaut, die auf be-

stimmte Teilaufgaben trainiert werden

und früher mangels ausreichender Re-

chenleistung nicht effizient eingesetzt

werden konnten. Bei gestaffelten, tiefen

neuronalen Netzen wird über Cluster aus

Grafikkarten gerechnet, die teilweise be-

reits spezielle, sogenannte Tensor-Cores

für Lernalgorithmen mitbringen. Googles

Open Source Framework TensorFlow für

maschinelles Lernen unterstützt solch

ein GPU (Graphics Processing Unit)-Com-

puting. Ultraskalierbare Hochleistungs-

server decken diesen Bedarf ebenfalls

ab, indem sie leistungsstarke Prozesso-

ren (CPU) und Grafikprozessoren (GPU)

sowie Speicher- und Rechner-Module

kombinieren. Unter diesen Voraussetzun-

gen können Unternehmen geschäftskriti-

sche Workloads schnell bereitstellen, die

sich über zusätzliche Grafikprozessoren

um Maschinenlernen- und KI-Kapazität

erweitern lassen. Für den Einsatz von

Deep-Learning-Algorithmen können Un-

ternehmen Grafikprozessoren heute bei

unterschiedlichen Cloudanbietern als vir-

tuelle Maschine (VM) ordern. Auch für

KI-Anwendungen erweist sich die Cloud

meist als flexibelste und skalierbarste Lö-

sung. Die Frage nach der Technologie

und IT-Infrastruktur für die Umsetzung

stellt sich jedoch erst, wenn der Business

Case steht. Unternehmen müssen daher

zunächst den Anwendungsfall für den KI-

Einsatz definieren. Dabei hat es sich be-

währt, mit einem einfachen und zu-

Wer mit maschinellem Lernen jede Produktionsstraße automatisieren möchte, erwartet zuviel von künstlicher Intelligenz. Wird jedoch ein konkreter Nutzen in den Mittelpunkt eines Projektes gestellt, ist die passende Technologie schnell gefunden – und Ergebnisse, auf denen sich aufbauen lässt.

Wer mit maschinellem Lernen jede Produktionsstraße automatisieren möchte, erwartet

Schritt für Schritt die KI ins Haus holen

Blaupause der KI-Strategie

| KÜNSTLICHE INTELLIGENZANWENDUNGSFÄLLE ERMITTELN

IT&Production 3/2019

Bild: ©Westend61/gettyimages.com

nächst unkritischen Anwendungsszena-

rio erste Erfahrungen zu sammeln. Der

Erfolg hängt jedoch von unterschiedli-

chen Faktoren ab. Entscheidenden Ein-

fluss haben beispielsweise Datenqualität

und -relevanz. Um mit den relevanten

Daten Maschinen richtig zu trainieren,

wird KI-Wissen benötigt, welches sich

Unternehmen u.a. durch Kooperationen

mit anderen Unternehmen, Hochschulen

oder Startups ins Haus holen können.

Zudem stehen Unternehmen vor der

Aufgabe, intern eine KI-Kultur zu schaf-

fen. Diese fängt damit an, Bedenken der

Mitarbeiter ernst zu nehmen und et-

waige Vorbehalte offen anzusprechen

und auszuräumen.

Verschiedene Ansatzpunkte

In der Fertigungsbranche gibt es heute ver-

schiedene Ansatzpunkte, bei denen KI

Echtzeit-Informationen verarbeitet. In Frage

kommen dabei u.a. Produkttests und Qua-

litätskontrolle, ein verbesserter Mitarbeiter-

einsatz und der optimierte Betrieb von Sys-

temen und Anlagen. Perspektivisch gewin-

nen Innovationen auf der Prozessebene an

Bedeutung. Künstliche Intelligenz kann

dabei interne Abläufe verbessern sowie

Produkte miteinander verknüpfen und er-

weitern. Klar abgegrenzte Anwendungs-

fälle lassen sich schnell realisieren und stel-

len rasch ihren Nutzen unter Beweis. Da-

raus können sich Unternehmen eine Blau-

pause für weitere Projekte schaffen. ■

Der Autor Wolfgang Thronicke ist R&D Manager

in der Innovationsabteilung Atos C-LAB und

Mitglied der Atos Scientific Community

www.atos.net/de

Datenfabrik mit sechs Stationen: Ein Fabrik-Modell für KI und maschinelles Lernen bietet Data Scientists die optimale Umgebung für eine erfolgreiche Arbeit.

Bild: Dell EMC

KÜNSTLICHE INTELLIGENZ |

Das Tempo der Digitalisierung

nimmt zu. Wollen sich Unter-

nehmen einen Wettbewerbs-

vorsprung verschaffen, sollten möglichst

alle relevanten Datenquellen ausgewer-

tet werden und in Erkenntnisse für neue

Produkte und Services münden. Dabei

helfen zunehmend Algorithmen des ma-

schinellen Lernens. Nachdem diese ent-

sprechend trainiert wurden, können sie

in großen Datenmengen Zusammen-

hänge, Muster sowie Trends erkennen,

aus denen sich handlungsrelevante Er-

kenntnisse ableiten lassen. Wie aber kön-

nen Unternehmen ihre Lösungen zur Da-

tenanalyse effizient skalieren? Eine Ant-

wort auf diese Frage liefert das Modell

einer “Datenfabrik” mit quasi industriali-

sierten KI-Prozessen als optimierte Ar-

beitsumgebung für Data Scientists. Beim

Aufbau dieses Modells sollten Unterneh-

men sechs Punkte beachten.

1. Potenzial auslotenvon KI-Technologie

Lassen sich mit Hilfe von KI bestehende

Tools und Prozesse verbessern? Oder

würde der Einsatz von KI-Technologien

sogar einen disruptiven Charakter haben

und das eigene Geschäftsmodell massiv

verändern? Frameworks und Tools rund

um KI und Maschinelles Lernen entwi-

ckeln sich sehr schnell. Im ersten Schritt

Die nächsten deutlichen Wettbewerbsvorteile könnten an jene Firmen gehen, die künstliche Intelligenz und maschinelles Lernen besser als andere auf ihre Ziele ausrichten. Im folgenden Beitrag geht es um die Infrastruktur, mit der Data Scientists besonders produktiv arbeiten.

PROJEKTIERUNG

IT&Production 3/2019

Skalierbare Fabrik für Data Scientists

Die Datenfabrik als Rahmen für KI-Projekte

Halle 6 Stand A54

sollte daher die IT-Abteilung diese Tech-

nologien und Funktionen evaluieren und

ihre Auswirkungen auf das Unternehmen

und deren potenziellen Geschäftswert

identifizieren. Diese grundsätzliche Be-

wertung der Technologie bildet die Basis

für die Planung der nächsten Schritte. Sie

erfolgen in enger Zusammenarbeit mit

den einzelnen Geschäftsbereichen, für

die der Einsatz der Technologie beson-

ders relevant ist, oder mit einem Team,

das für Business Development zuständig

ist. Letzterer Ansatz verfolgt das Ziel, mit

möglichst schlanken Prozessen neue Pro-

dukte bereitzustellen und Freiraum für

Innovationen zu schaffen.

2. Prioritäten setzen

Mit KI und maschinellem Lernen finden

Unternehmen Datenmuster, um etwa Pro-

dukte und Services zu erstellen und neue

Märkte zu erschließen. Dafür benötigen

die Data Scientists eine unterstützende

Infrastruktur und die passenden Tools. An-

| KÜNSTLICHE INTELLIGENZPROJEKTIERUNG

Prioritäten setzen: Kriterien für die Auswahl der KI-Projekte sind die Unternehmensstrategie, die aktu-ellen Ziele oder eine höhere Effizienz in den vor-handenen Geschäftsprozessen.

Bild: Dell EMC

gesichts begrenzter Ressourcen müssen

aber selbst große Unternehmen Prioritä-

ten bei ihren Effizienz- und Geschäftsmo-

dellprojekten setzen. Kriterien für die Aus-

wahl der wichtigsten Vorhaben sind die

Gesamtstrategie, die aktuellen Business-

ziele, der zu erwartende Nutzen sowie

die Verfügbarkeit der erforderlichen

- Anzeige -

IT&Production 3/2019

COSMO CONSULT Gruppe

Intelligente Businesslösungen von COSMO CONSULT

Als europaweit führender Anbieter von Microsoft-basierten

End-to-End-Unternehmenslösungen für Auftrags- und Prozess-

fertigung, Handel und Dienstleistung ist COSMO CONSULT einer

der Pioniere beim Thema künstliche Intelligenz im Business-

Umfeld. Mit über 950 Mitarbeitern an 40 internationalen Stand-

orten – davon 13 in Deutschland – begleitet COSMO CONSULT

Unternehmen aller Größen bei der Digitalisierung und bietet

intelligente, zukunftsweisende Industrie 4.0-Lösungskonzepte.

Unsere Stärke liegt darin, unseren Kunden auf der Basis

vorhandener Daten einen vollkommen neuen Blick auf das

eigene Unternehmen zu ermöglichen. Durch die Integration

ausgefeilter Algorithmen und systemgestützter Entscheidungs-

modelle in das umfassende Microsoft Dynamics-Ökosystem

sowie in das COSMO CONSULT-Lösungs- und Serviceportfolio

haben unsere Kunden bereits heute die Möglichkeit, KI-Techno-

logien zu nutzen, die den Weg in die Zukunft intelligenter

Business-Software weisen.

Die durch digitale Technologien und künstliche Intelligenz auf uns zu kommenden Veränderungen sind so

fundamental, dass sich Geschäftsmodelle, Unternehmen und sogar ganze Industrien verändern werden.

Es kommt darauf an, das Potenzial dieser Entwicklung nicht nur zu nutzen, sondern aktiv mitzugestalten

und dafür zu sorgen, dass die Menschen in den Unternehmen davon profitieren – denn es geht um die

Menschen, die mit ihrer Kreativität und Leidenschaft den Erfolg eines Unternehmens ausmachen.

Kontakt

COSMO CONSULT Gruppe

Schöneberger Str. 15

10963 Berlin

Tel.: +49 30 343815 0 • Fax: +49 30 343815 111

[email protected] • www.cosmoconsult.com

Daten. Die Daten müssen in dieser Phase

nicht unbedingt komplett und in ihrer

endgültigen Form bereitstehen, es sollten

aber genügend vorhanden sein, um we-

nigstens das Pilotprojekt zu starten.

3. Produktivität derData Scientists steigern

Bei der KI-basierten Datenanalyse gibt es

keine Standardlösung. Manche Projekte

sind sehr datenintensiv, andere benöti-

gen weniger Informationen. Teilweise

benötigen die Datenspezialisten sehr viel

Zeit für das Aufbereiten und Formatieren

der Daten, während sie in anderen Pro-

jekten mit komplexen und recheninten-

siven neuronalen Netzen arbeiten. Auch

die eingesetzten Bibliotheken und Tools

werden sich sehr wahrscheinlich unter-

scheiden und hängen zum Teil auch von

den persönlichen Präferenzen der Data

Scientists und den Einsatzgebieten

ab. Unternehmen sollten den Datenwis-

senschaftlern diese Freiheiten lassen und

auf eine Standardisierung der Tools weit-

gehend verzichten. Jeder von ihnen ist

viel produktiver, wenn er in seiner eige-

nen, ihm vertrauten Umgebung arbeiten

kann, die speziell auf seine Herausforde-

rung zugeschnitten ist und seine bevor-

zugten Tools enthält.

4. Auf Datenqualität achten

Analog zur Produktion bei Automobilher-

stellern müssen Unternehmen auch in der

Datenfabrik sicherstellen, dass die Supply

Chain die richtigen Komponenten Just-in-

Time bereitstellt, damit die Fertigung des

Produkts unterbrechungsfrei ablaufen

kann. Im vorliegenden Fall geht es um die

Daten als Rohstoff; am Ende steht ein

Datenprodukt oder ein Service. Damit die

KI-basierte Analyse funktioniert, müssen

die Daten ein sehr hohes Qualitätsniveau

aufweisen. Dazu gehören Kriterien wie

Korrektheit, Konsistenz, Vollständigkeit,

Aktualität und Einheitlichkeit. Unterneh-

men sollten daher großes Augenmerk auf

die Vorbereitung und Validierung der

Daten legen, damit die Daten-Fertigungs-

linie nicht unterbrochen wird. Data Scien-

tists setzen bei der Datenanalyse auf in-

terne, freigegebene Daten sowie bei Be-

darf auch auf externe Bestände, etwa aus

der Marktforschung oder aus Social-

Media-Kanälen. Die IT-Infrastruktur für all

dies muss mit den unterschiedlichen Da-

tenaufkommen skalieren und alles zuver-

lässig speichern können. Denn die Quell-

Datensätze werden permanent integriert,

bereinigt und angereichert, um die Leis-

tung des Datenmodells für maschinelles

Lernen zu verbessern. In traditionellen

Umgebungen mit Direct Attached Sto-

rage führt dies häufig zu Einbußen bei

der Geschwindigkeit und zusätzlichen

Kosten, da die Daten für jeden Data

Scientist und Anwendungsfall mehrfach

repliziert werden. Modernere Ansätze

wie hochskalierbarer Network Attached

Storage (Scale-Out-NAS) oder Storage

aus der Cloud bieten Snapshot-Technolo-

gien, die Replikate schnell erstellen, da

nur die jeweils geänderten Daten Kapazi-

tät verbrauchen. Auch die Rechenleistung

muss skalierbar sein. Hier sollten Unter-

nehmen auf eine flexible, virtualisierte In-

frastruktur und die dynamische Verwal-

tung von Ressourcen in einem Cloud-Be-

triebsmodell setzen, um die Rechenkapa-

zität je nach Anforderung nach oben und

unten skalieren zu können. Auf diese

Weise können Unternehmen Lastspitzen

abfedern und die Serverauslastung er-

heblich verbessern.

5. Schneller umsetzenmit agilen Methoden

In KI-Projekten soll in aller Regel auf Basis

der Algorithmen und statistischen Metho-

den ein Modell beziehungsweise eine Ap-

plikation für ein bestimmtes Einsatzgebiet

entstehen. Erweist sich das erstellte Daten-

modell als überzeugend, müssen die Ergeb-

nisse so in die Geschäftspraxis übertragen

werden, dass sich ein quantifizierbarer Nut-

zen ergibt. Der Data Scientist bereitet dann

das entsprechende Arbeitspaket (Backlog)

mit den benötigten Eigenschaften, Funktio-

nalitäten und den Anforderungen für die

Entwickler vor, die mit agilen Methoden ar-

beiten. Das Entwickler-Team setzt sich in

der Regel aus Datenarchitekten und Spe-

zialisten für die agile Entwicklung zusam-

men. Um effizient arbeiten zu können, be-

nötigen die Entwickler die passenden Res-

sourcen, Data-Science-Tools für das Erstel-

len der Scoring-Modelle (Nutzwertanaly-

sen) sowie geeignete Entwicklungs- und

Analyseumgebungen. Hier haben sich vir-

tualisierte und cloudbasierte Infrastruktur-

lösungen bewährt. Gleiches gilt für die an-

schließenden Tests des neuen Datenpro-

dukts, bevor es in die Produktionsumge-

bung übertragen wird.

6. Erfolg messen undDatenprodukt stetig verbessern

Ist die neue Lösung im Einsatz, verändert

sie meist auch Geschäftsprozesse. Ent-

sprechend wichtig ist es, die erzielten Er-

gebnisse zu erfassen, auszuwerten und

zu überprüfen, ob diese den Erwartungen

entsprechen oder ob es notwendig ist,

das Datenmodell und die Methodik anzu-

passen. Dafür ergänzen die Entwickler

eine bestehende Business-Intelligence-

Lösung oder Echtzeit-Monitoring-

Dashboards um neue Berichtsfunktionen.

Wenn Unternehmen all diese Schritte um-

setzen, können sie mithilfe von maschi-

nellem Lernen und KI-Methoden Daten

effizient und mit Mehrwert für ihr Ge-

schäft einsetzen – und das Fundament für

eine erfolgreiche Zukunft schaffen. ■

Der Autor Benjamin Krebs ist Director

Unstructured Data Solutions und Mitglied der

Geschäftsleitung bei Dell EMC Deutschland.

www.dellemc.de

KÜNSTLICHE INTELLIGENZ | PROJEKTIERUNG

IT&Production 3/2019

Bild

: Del

l EM

C

Mit einer Business-Intelligence-Lösung prüfen die Firmen, ob die mit agilen Methoden ent-wickelte KI-Anwendung im produktiven Einsatz den erwar-teten Mehrwert liefert.

TECHNIK // ARBEITSWELT // GESELLSCHAFT

ww

w.t

edo-

verla

g.de

| in

fo@

tedo

-ver

lag.

de

Jetzt KOSTENFREI eintragen: www.i40-magazin.de/anmelden

INDUSTRIE 4.0-MAGAZIN − Die Zeitschrift für die vierte

industrielle Revolution

Technik, Arbeitswelt,

Gesellschaft − das digitale

INDUSTRIE 4.0-MAGAZIN

zeigt das ganze Bild!

Verständlich, umfassend

und übersichtlich zusammen-

gestellt. So sichern Sie sich

Ihren Wissensvorsprung!

KÜNSTLICHE INTELLIGENZ |

Ein Fließband in der Produktion: Eine

Kamera analysiert jedes Bauteil,

bevor es an Kunden ausgeliefert

wird. Registriert kleine Schwankungen in

der Qualität und schlägt Alarm, wenn Fer-

tigungstoleranzen überschritten werden.

Automatisierte Qualitätskontrolle ist nichts

Neues. Doch dabei entstehen oft Daten,

die Potential für weit mehr bieten – z.B. für

die vorausschauende Wartung. Wenn etwa

eine künstliche Intelligenz (KI) Schwankun-

gen innerhalb der Toleranzbereiche regis-

triert und daraus schließt, dass ein defektes

Maschinenteil die Schwankungen hervor-

ruft. Eine KI kann das erkennen, indem sie

Millionen Datensätze aus der Vergangen-

heit mit aktuellen vergleicht. Die fördert zu-

tage, dass ähnliche Schwankungen früher

bereits zu Ausfällen führten und verhindert

so einen erneuten Defekt. Ein Mensch

könnte in so kurzer Zeit keine Millionen Da-

tensätze analysieren.

Alle könnten profitieren

Für eine KI sind solche Szenarien keine Zu-

kunftsvision mehr: „Derartige Projekte

haben wir bereits für einige Kunden umge-

setzt“, sagt Florian Schild, KI-Experte und

Gründer von Boot.AI. Sein Startup hilft Un-

ternehmen dabei, Potential für KI zu erken-

nen und daraus eine Plattform zu entwi-

ckeln. Einige Plattformen können die Kun-

den von Boot.AI später an andere Unter-

nehmen weiterverkaufen – und somit ein

Geschäftsfeld erschließen. „Jedes Unterneh-

men kann von KI profitieren. Das produzie-

rende Gewerbe bietet dafür sogar beson-

ders gute Voraussetzungen, weil es hier

Wertschöpfungsprozesse mit vielen gleich-

förmigen Teilschritten gibt. Daraus ergeben

sich wertvolle Daten, aus denen neuronale

Netze Verbesserungspotentiale ermitteln

und diese noch dazu selbstständig heben

können“, sagt Schild.

Zahlreiche Möglichkeiten

Ob für Lastprognosen oder vorausschau-

ende Wartung, ob Entscheidungshilfen fürs

Management, Qualitätskontrolle oder Ver-

kaufsprognose – Einsatzmöglichkeiten für KI

sind riesig, auch in Deutschland: Allein durch

KI werde die Bruttowertschöpfung im pro-

duzierenden Gewerbe innerhalb der nächs-

ten fünf Jahre um 32 Milliarden Euro steigen.

Das entspreche etwa einem Drittel des ge-

Von Lastsprognosen bis zur Qualitätskontrolle: Das Startup Boot.AI hat als IT-Dienstleister

rund um KI-Projekte bereits einige Erfahrung in der produzierenden Industrie gesammelt.

Um die neuronalen Netzwerke in den Projekten zu erstellen, lässt das Startup die GPU-

starken Bare Metal Server der Open Telekom-Cloud für sich arbeiten.

STARTUPS

IT&Production 3/2019

Neuronales Netz aus der Public Cloud

Startup unterstützt bei KI-Projekten

Riesige Datenmengen sichten, sortieren und analysieren: Nur künstliche Intelligenz ist in der Lage, große Zusammenhänge in Millionen von Datensätzen zu erkennen.

Bild

: Bo

ot.A

I

samten Wachstums des produzierenden

Gewerbes in Deutschland, heißt es in einer

aktuellen Studie, die das Bundeswirtschafts-

ministerium in Auftrag gegeben hatte.

Sensorendaten gibt es zuhauf

Weil produzierende Unternehmen in der

Regel ihren Fokus bisher auf die analoge

Herstellung oder Veredelung von Gütern

legen, existieren in vielen Firmen derzeit

meist noch zu wenige Daten, um eine

selbstlernende KI trainieren zu können.

Selbst wenn entsprechende Daten verfüg-

bar wären, reicht die IT-Infrastruktur der

meisten Unternehmen meist nicht, um

künstliche Intelligenz zu nutzen. Genau

hier setzt Boot.AI an: Die Düsseldorfer ana-

lysieren Unternehmen, ermitteln Potential

und Ansatzpunkte für den Einsatz einer KI-

Lösung. Sie strukturieren vorhandene

Daten so, dass eine KI damit arbeiten kann.

Oder installieren an wichtigen Stellen Sen-

soren, um geeignete Daten zu generieren.

Schild: „Die IT-Infrastruktur des Unterneh-

mens spielt dabei überhaupt keine Rolle.

Denn die notwendigen Kapazitäten bezie-

hen wir bei Bedarf aus der Cloud.“ Dabei

setzt die Mitarbeiter auf das Public Cloud-

Angebot der Deutschen Telekom, die

Open Telekom Cloud. Die Wahl fiel auf die-

sen Anbieter, weil in einem vergangenen

Projekt im medizinischen Sektor hohe An-

forderungen an die IT-Sicherheit und den

Datenschutz gestellt waren. Die im Cloud-

Rechenzentrum aufgestellten Bare Metal

Server boten im Projekt zudem die Mög-

lichkeit, eine zusätzlich isolierte und so ge-

schützte Umgebung zu nutzen, in der

sich große Mengen selbst sensibler Daten

abgesichert verwalten lassen.

Drei Stunden statt 30 Tagen

Diese Bare Metal Server sind mit zweimal

14-Prozessorkernen, 512 Gigabyte-Arbeits-

speicher und acht P100 Nvidia-Grafikkar-

ten ausgestattet. Diese Konfiguration ist

laut Schild optimal zum Erstellen neurona-

ler Netze: Durch die zahlreichen Graphics

Processing Units (GPUs) können die KI-

Fachleute Millionen Datensätze gleichzei-

tig bearbeiten lassen. Die Berechnungen

laufen pro GPU zehn bis hundertmal

schneller als mit CPUs, also den Hauptpro-

zessoren eines Rechners. „Mit einem Ser-

ver der Telekom werden dadurch Berech-

nungen in drei Stunden möglich, wofür

wir sonst 30 Tage benötigen würden“,

sagt Schild. „Auf diese Weise sind die Er-

gebnisse, die wir mit unserer KI erzielen

schnell abrufbar, agil nutzbar und damit

schnell sehr hochwertig.“ ■

Der Autor Sebastian Mainzer

ist IT-Fachredakteur aus Köln.

www.opentelekomcloud.de www.boot.ai

| KÜNSTLICHE INTELLIGENZSTARTUPS

IT&Production 3/2019

Bild: Boot.AI

Lastprognosen Von der Maschinenauslastung über die Just-in-Time-Produktion bis hin zu den Lieferzeiten – künstliche Intelligenz kann

auf Basis historischer und aktueller Unternehmens- und Maschinendaten immer präzisere Prognosen erstellen, mit denen

Firmen ihre Wertschöpfungskette effizienter gestalten können.

Predictive Maintenance Einer der Vorteile künstlicher Intelligenz im Vergleich zu menschlicher liegt in der Fähigkeit neuronaler Netze, große

Datenmengen zu analysieren, ohne dabei den Überblick zu verlieren. KI fördert dabei Informationen und Zusammen-

hänge zutage, die Menschen mitunter nie entdeckt hätten. Etwa wenn eine KI den Ausfall einer Maschine voraussagt,

bevor er geschieht – weil ihr feinste Vibrationen einer Maschine aufgefallen sind, vorsorglich ein kritisches Bauteil

tauschen lässt und auf diese Weise einen Produktionsstillstand verhindert.

Unternehmensführung Wissen ist Macht – und genauso wie KI-gestützte Systeme Zusammenhänge in der vorausschauenden Wartung verwen-

den können, um Ausfälle zu verhindern, können sie Korrelationen und Kausalitäten für die Geschäftsleitung aufspüren.

Auf deren Basis können Unternehmenslenker bessere Entscheidungen für die künftige Strategie ihrer Firma ableiten.

Qualitätskontrolle Wer fehlerhafte Erzeugnisse erkennen soll, braucht ein geschultes Auge, hohe Aufmerksamkeit und viel Erfahrung.

Eigenschaften, die neuronale Netze geradezu perfekt erlernen können. Nach diesem Prinzip unterstützt KI beispielsweise

bereits Ärzte bei der Krebs-Diagnose – indem sie tausende MRT-Aufnahmen analysiert und Auffälligkeiten an mensch-

liche Mediziner meldet. Ein Prinzip, das sich auf die Produktion übertragen lässt.

Verkaufsprognosen Künstliche Intelligenz wird aktuell bereits sehr erfolgreich in der Berechnung und der Prognose von Kaufverhalten

eingesetzt, z.B. im eCommerce. Davon können nicht nur Marketing- und Vertriebsleute profitieren, sondern auch die

Produktion, weil dadurch Lagerhaltungskosten optimiert und Produktionsprozesse präziser geplant werden können.

Einsatzfelder künstlicher Intelligenz in der Produktion Wie verbessern Unternehmen im produzierenden Gewerbe mit neuronalen Netzen, Deep Learning und Big Data Analytics ihr Business?

KÜNSTLICHE INTELLIGENZ |

GGezielte Analyse von Daten ent-

scheidet immer häufiger über den

Erfolg einer Geschäftsidee. Für Un-

ternehmen stellt sich die Frage, wie diese

Herausforderungen in der Praxis angenom-

men und die Chancen für die eigenen Akti-

vitäten aufgegriffen werden können. Der

Startpunkt dafür sind automatisierte Pro-

zesse und Analysewerkzeuge, die aus Da-

tenströmen Erkenntnisse ermitteln.

Wo wir stehen

Seit Beginn des Milleniums wurden enorme

technologische Durchbrüche bei der Leis-

tungsfähigkeit von Graphikprozessoren und

im Bereich Machine Learning erreicht. Dies

hat insbesondere die Entwicklung von neu-

ronalen Netzwerken beschleunigt und ihren

Einsatz bei der Bilderkennung, Sprachana-

lyse und Text-Klassifizierung möglich ge-

macht. Mit der Verfügbarkeit von immer

größeren Datenmengen und der damit ein-

hergehenden Komplexität der Datenmo-

delle ist eine Schwelle erreicht, wo klassi-

sche Analysemethoden oft nicht mehr zu-

verlässig greifen. Hier sind neuronale Netz-

werke durch ihre größere Anpassungsfähig-

keit an die Datenlage viel besser darin, prä-

zise Vorhersagen zu treffen. Grundlage dafür

ist eine Rechenleistung, die dank parallel ar-

beitender Graphikprozessoren und speziel-

ler, auf neuronale Netzwerke abgestimmte

Hardware deutlich gesteigert werden

konnte. Die Barriere zum Einsatz solcher

Technologien liegt momentan also eher am

Fachkräftemangel und einer relativ langen

Entwicklungszeit für dedizierte Lösungen.

Die Entwicklung sich selbst programmieren-

der neuronaler Netzwerke läuft allerdings

bereits und zeigt vielversprechende Ergeb-

nisse, was zu einer weiteren Beschleunigung

und Breite in der Anwendung führen wird.

Die Datenpyramide

Bei der Adaption der neuen Techniken ist zu

beobachten, dass oft ad-hoc-Ansätze ge-

wählt werden, um möglichst schnell zu den

neuesten Data-Analytics-Methoden vorzu-

stoßen. Dieser Ansatz ist jedoch zu kurz ge-

griffen. Die wertschöpfende Nutzung von

Daten setzt voraus, dass sie kontinuierlich

gut strukturiert bereitgestellt werden. Erst

dann führen die gezielte Abfrage und Ver-

arbeitung der Daten zu neuen Erkenntnis-

sen. Datenanalyse ist ein Prozess mit ständi-

gem Verbesserungspotenzial, das nur zu

heben ist, wenn die Datenmengen nach kla-

ren Vorgaben und Analysestrategien ausge-

wertet werden. Um diese formulieren zu

können, ist die genaue Kenntnis des fachli-

chen Kontextes unabdingbar. Erst dann kön-

nen zielführende Verfahren und Algorith-

men entwickelt beziehungsweise ausge-

wählt werden. Der nächste Schritt nach

vorn ist das Reporting und die Visualisierung

der bereitgestellten Datenflüsse. Findet das

kontinuierlich statt, ergeben sich Geschäfts-

ideen und Ziele für die Vorhersage, die dann

gezielt angegangen werden kann. Der di-

rekte Sprung von unten nach oben ist ohne

erforderliche Basis meist wenig erfolgreich.

Disruptive Geschäftsmodelle

Letztendlich zielt die Datenauswertung da-

rauf ab, Geschäftsmodelle zu verbessern

oder neue aufzubauen. Obwohl auf diesem

Gebiet einige Ideen veröffentlicht wurden,

bleibt der Umkreis der Suche oft innerhalb

der traditionellen Geschäftsmodelle verhaf-

tet. Ein Beispiel aus dem industriellen Um-

feld ist das Thema der vorausschauenden

Der Algorithmus als Treibstoff Data Analytics an der Schwelle

Die digitale Transformationführt zu immer größeren,schnelleren und variablerenDatenflüssen. Die intelli-gente Ordnung und Ana-lyse dieser Daten lenkt denBlick auf Werte, die sich oftüber neue Geschäftsmo-delle monetarisieren las-sen. Die Herausforderungist, auch einmal radikalereIdeen durchzuspielen, alsnur die der vorausschauen-den Instandhaltung.Der fachliche Kontext ist die Basis für sinnvolle Analysestrategien.

NEURONALE NETZE

IT&Production 3/2018

Bild

: Con

tact

Sof

twar

e Gm

bH

Wartung (Predictive Maintenance), das oft

als Platzhalter für mangelnde Ideen herhal-

ten muss. Ein Blick auf die großen disrupti-

ven Vorreiter wie Airbnb und Uber zeigt,

dass sich digitale Geschäftsmodelle über die

Kundenbeziehung und ihre Daten definie-

ren. Die dahinterstehenden Dienstleistungen

sind in ihrem Mehrwert so begrenzt oder so

standardisiert, dass traditionell professiona-

lisierte Bereiche wie das Hotel- und Taxige-

werbe heute im Wettbewerb zu einer ano-

nymen Menge von auf eigene Rechnung ar-

beitenden Privatleuten stehen. An dieser

Stelle radikaler zu denken, und – insbeson-

dere im Service-Bereich – die Geschäftsmo-

delle auf den Kern zu reduzieren, kann sich

als Grundlage für eigene digitale Angebote

lohnen. Gleichzeitig ist dies eine gute Vor-

bereitung auf zukünftige Konkurrenten, die

nach diesem Modell operieren.

Radikaler denken

Auch in anderen Branchen ist der Service

soweit standardisiert, dass das eigentliche

Geschäftsmodell in der reinen Vermittlung

und Abwicklung besteht. So dienen bei-

spielsweise Notare, Makler und Banken als

vertrauenswürdige Dritte – eine Aufgabe,

die zukünftig schneller, billiger und vielleicht

sogar besser in der Blockchain abgebildet

werden kann. Ähnlich zugespitzt lässt sich

die Situation in der Fertigungsindustrie be-

trachten. Gehört im Zeitalter der digitalen

Transformation die Produktion noch dazu?

In vielen Bereichen ist es denkbar, ein Pro-

dukt ‘fabless’ zu erstellen, wie es in der Chip-

Industrie zu großen Teilen geschieht – bei-

spielsweise durch den Einsatz von 3D-Dru-

ckern oder indem die Fertigung komplett an

andere, dafür prädestinierte Standorte aus-

gelagert wird. Und auch in der Produktent-

wicklung, einer überwiegend virtuellen Do-

mäne mit oft vielen beteiligten Partnern,

können neue Methoden wie das Model

Based Systems Engineering zu einem voll di-

gitalisierten und damit gut analysierbaren

Produkt führen, zu dem Experten überall auf

der Welt relativ einfach und schnell Zugang

finden. Diese Gedanken mögen noch weit

hergeholt klingen, die Entwicklung im Be-

reich Cloud Computing, IoT und Neuronale

Netzwerke sowie die blitzartige Verbreitung

von neuen Startups geben aber Zeiträume

für Veränderungen vor, die nicht mehr in

Jahrzehnten, sondern in wenigen Jahren zu

messen sind.

Branchen vor dem Umbruch

Die kommenden Jahre werden für viele

Firmen eine entscheidende Phase der

Umstellung sein, da treibende Kräfte im

Bereich der Infrastruktur und Digitalisie-

rung zu einer völligen Virtualisierung von

Geschäftsmodellen führen werden. So ist

zum Beispiel im Bereich Telekommunika-

tion zu sehen, wie die Umstellung auf IP-

basierte Leistungen ganze Geschäftsbe-

reiche verschwinden und neue entstehen

lässt. Gerade mittelständische Unterneh-

men müssen auf eine mögliche Erosion

ihrer Märkte durch neue Anbieter reagie-

ren und die Chancen der digitalen Trans-

formation erkennen und nutzen. Sie soll-

ten sich bewusst mit den neuen Mitteln

und Techniken auseinandersetzen, und

ihre Flexibilität und Agilität nutzen, um

mit Partnern schnell zu fundierten Ansät-

zen zu kommen. Eine gute Beratung hilft

geeignete Prozesse und Tools festzule-

gen, um neue Geschäftsmodelle erfolg-

reich zu realisieren. ■

Der Autor Dr. Udo Göbel, Mitglied der

Geschäftsführung, leitet den Bereich

Professional Services bei Contact Software.

www.contact-software.com

| KÜNSTLICHE INTELLIGENZNEURONALE NETZE

IT&Production 3/2018

Gegenwärtige Mega-Trends und ihre Abhängigkeiten mit dem Thema Datenanalyse verbunden

Bild

: Con

tact

Sof

twar

e G

mbH

Vorhersagegenauigkeit: Seit der Jahrtausend-wende sind neuronale Netzwerke bei komplexenProblemen im Vorteil.

Bild: Contact Software GmbH

Weiterführende Informationen finden sich

im White Paper ‘Analytics: How to predict

anything, das Contact Software im Okto-

ber letzen Jahres veröffentlichte.

VViele führende Unternehmen der

Bauindustrie greifen zur Verbesse-

rung der operativen Prozesse auf

Datenerfassung und -nutzung zurück. Mit

seinem Dienst Smart Solutions hat Ko-

matsu Mining eine Industrial Internet of

Things-Anwendung (IIoT) aufgebaut, die

Maschinenbetreibern im Berg- und Tage-

bau Informationen vermittelt, auf deren

Grundlage sie ihre Produktivität und Ab-

baueffizienz optimieren können. Zu den

überwachten Maschinen gehören Streb-

abbausysteme, elektrische Seilbagger,

Streckenvortriebsmaschinen und Radlader.

Ursprünglich hat das eigene Data Ware-

house von Komatsu Mining diesen IIoT-

Service unterstützt. Als die Nachfrage

stieg und immer mehr Maschinen vernetzt

wurden, suchte das Unternehmen nach

einem neuen Ansatz. Anforderung war,

künftig ein Datenvolumen von bis zu 30

Terabytes pro Monat verarbeiten zu kön-

nen. „Unsere alte Umgebung war in ihren

Möglichkeiten zur Skalierung und zum

Wachstum begrenzt”, sagt Shawn Terry,

Lead Architect der Smart Solutions.

Neun Monate Projektdauer

Innerhalb von neun Monaten schufen die

Mitarbeiter von Komatsu Mining gemein-

sam mit Spezialisten von Cloudera und

Microsoft eine Cloud-basierte IIoT-Platt-

form, die globalen Serviceteams die nö-

tige Skalierbarkeit, Leistung und Flexibili-

tät zur Verfügung stellt. Mit einer einheit-

lichen Plattform für das Datenmanage-

ment können die ‘Smart-Teams’ jetzt

Daten von den Baumaschinen der Marken

P&H und Joy sowie von Dritthersteller-

Ausrüstung mit speicherprogrammierbarer

Steuerung einfacher auswerten, um einen

systematischen Blick auf die Abläufe im

Berg- und Tagebau zu erhalten. Data

Scientists von Komatsu Mining können ef-

fizientere Machine-Learning-Modelle

bauen und schneller bessere Erkenntnisse

liefern, als das vorher möglich war.

Maschinen weltweit

Die Analyse-Plattform erfasst, speichert

und verarbeitet eine große Menge ver-

schiedener Daten von Baumaschinen. Diese

werden auf der ganzen Welt betrieben, oft

in entlegenen Gebieten und unter schwie-

rigen Bedingungen. Die Daten beinhalten

Zeitserien-Messgrößen – Maschinendruck,

Temperaturen, Ströme und so weiter,

Alarm- und Ereignisdaten sowie weitere In-

formationen von Drittparteisystemen. Eine

einzige Maschine kann tausende Daten-

Messgrößen haben und 30.000 bis 50.000

Industrial Internet of Things von Komatsu Mining

Um die Sicherheit, Produktivität und Kosten im Berg- und Tagebau zu verbessern, bietetder Baumaschinenhersteller Komatsu Mining seinen Kunden den IIoT-basierten ServiceSmart Solutions an. Mit dem Datendienst können die Betreiber die Leistung ihrer Maschi-nen auf Basis von Echtzeit-Daten und -Analysen optimieren. Dahinter arbeitet eine Engineauf der Basis von Machine Learning.

IT&Production 3/2018

KÜNSTLICHE INTELLIGENZ | MACHINE LEARNING

Bergbau mit Machine Learning optimiert

Bild: Komatsu M

ining

einzelne Einträge mit Zeitstempel pro Mi-

nute erzeugen. Geplant ist, zukünftig eine

noch engere Integration von Systemen

beim Kunden vor Ort und weiteren Daten-

quellen zu erreichen, um die Zusammen-

hänge beim Betrieb der Maschinen besser

zu verstehen. Durch die deutlich erhöhte

Leistung der Lösung müssen die Mitarbeter

von Komatsu Mining Entscheidungen nicht

mehr davon abhängig machen, was die In-

frastruktur unterstützt, sondern können

sich ganz auf die Anforderungen der eige-

nen Kunden konzentrieren. „Wir können

jetzt inkrementell und kostengünstig ska-

lieren und wachsen. Damit sind wir in der

Lage, unsere Anwenderbasis auszubauen

und schnellere und bessere Services zu lie-

fern”, sagt Shawn Terry.

Plattform für die Bauindustrie

Laut Anthony Reid, Senior Manager of

Analytics bei Komatsu Mining, war das

Unternehmen auf der Suche nach einer

Plattform, mit der es den Zugriff auf Ana-

lysen von Maschinendaten für verschie-

dene Nutzergruppen demokratisieren

kann. Cloudera bot Reid zufolge die

schnelle Performance, Datensicherheit

und den Kundensupport, um die eigenen

Teams so unkompliziert wie möglich in

Richtung Big Data zu bewegen. Mit der

Implementierung von Cloudera Enterprise

auf Microsoft Azure konnte Komatsu Mi-

ning erhebliche Kosteneinsparungen rea-

lisieren. „Wir können alle Daten mit weni-

ger Berechnungen und viel geringerer

Komplexität liefern”, sagt Reid.

Workloads im Cluster

Die gesamte Anwendung läuft in der

Azure-Cloud von Microsoft. In einem

Hochleistungs-Cluster laufen HBase-Wor-

kloads mit acht Nodes. Hinzu kommt ein

Langzeitspeicher mit Impala- und Kudu-

Workloads mit sechs Datenknoten. Cluster

für Test und Entwicklung teilen sich auf

beide Bereiche auf. Gemeinsam mit dem

Resource-Team von Cloudera und einem

Microsoft-Berater startete das Team um

Reid im Juni 2016 mit dem Deployment.

Bereits im Februar 2017 konnte das alte

Produktionssystem abgeschaltet werden

und der Betrieb lief vollständig mit allen

Live-Daten, Streaming und allen verbun-

denen Kunden auf der Cloud-Plattform.

Abläufe besser verstehen

Die Smart-Solutions-Mitarbeiter in den Re-

gionen nutzen die Plattform, um den Kun-

den Einblicke in ihre Abläufe zu geben.

Zeitreihendaten werden über Open TSDB

in Apache HBase geladen. Apache Impala

(in Inkubation) unterstützt Adhoc-SQL-Ab-

fragen. Zur Visualisierung der Daten wird

Grafana, eine offene Plattform für Analytik

und Monitoring, eingesetzt. Durch die De-

mokratisierung des Datenzugriffs und die

Bereitstellung intuitiver Analysetools

konnte Komatsu Mining den angestrebten

Grad an Benutzerakzeptanz erreichen. In

der Vergangenheit haben beispielsweise

einige ausgewählte Personen Trends aus

den Daten erstellt und diese Trends den

Alarmbedingungen auf einer Maschine zu-

geordnet. Indem sie den Datenzugriff auf

die Regionen öffnen und den Regionen

selbst die Erstellung eigener Berichte er-

möglichen, können die Mitarbeiter von

Smart Solutions nun schneller verwertbare

Informationen aus den Daten erhalten und

aussagefähigere Dashboards erstellen, die

weit über die Möglichkeiten bisheriger

Analysetools hinausgehen. Die Plattform

bietet auch Analytics-Entwicklern auf der

Suche nach Innovationen die Möglichkeit,

von ihnen bevorzugte Data Science-Tools

– R, Python, Matlab und mehr – beim Er-

stellen von Modellen zu verwenden.

Auslastung verdoppelt

Mit dem entstehenden Bild vom Zustand

einer Maschine und dem Betrieb in jeder

Mine können die Smart-Teams von Ko-

matsu in Partnerschaft mit ihren Kunden

Wege identifizieren, um die Sicherheit,

Produktivität und die Betriebskosten zu

verbessern. „Ein großes Unternehmen aus

dem Kohlebergbau konnten mit unseren

Empfehlungen die tägliche Auslastung

ihrer Joy-Strebsysteme verdoppeln”, schil-

dert Reid. Dadurch, dass die Ingenieure

von Komatsu Mining auch leicht auf die

Daten zugreifen und sie analysieren kön-

nen, erhalten sie wertvolle Einsichten, mit

denen sie Reid zufolge helfen können, ak-

tuelle Produkte zu verbessern und bei der

Entwicklung zukünftiger Generationen

von Bergbaugeräten zu helfen. Das Fazit

von Reid: „Wir machen das Unsichtbare

sichtbar und helfen damit unseren Kun-

den, Produktivität und Effizienz im Berg-

bau zu optimieren.” ■

Der Autor Wim Stoop

ist Senior Technical Marketing Manager

bei Cloudera.

www.cloudera.com

| KÜNSTLICHE INTELLIGENZMACHINE LEARNING

IT&Production 3/2018

Bergbaugeräte sind groß. Entsprechend deutlich können sich selbst kleine Optimierungen auf derKostenseite auszahlen.

Bild

: Kom

atsu

Min

ing

KÜNSTLICHE INTELLIGENZ |

DDer zweite Geschäftsführer der

Management Informations Part-

ner GmbH, Markus Ruf, sieht

ebenfalls eine verzerrte Wahrnehmung

der KI-Anwendung Watson in der Öf-

fentlichkeit: „Diese Reduktion auf Wat-

son als einzelne Maschine hat in der Ver-

gangenheit sicher für die ein oder andere

Verwirrung gesorgt.“ Für ihn ist Watson

weder ein einzelner Superrechner, noch

eine irgendwie geartete individuelle KI.

Vielmehr sei Watson eine Plattform ver-

schiedenster Services und Verfahren, die

auf derselben Technologie basieren. Es

handele sich bei Watson nicht um ein

Produkt, sondern um viele Einzelpro-

dukte. Auch seien diese meistens auf

mehreren Rechnern installiert – von einer

einzigen Maschine oder einem Watson

könne keine Rede sein.

KI für B2C und B2B verschieden

Zudem wird Watson gerne seinen KI-

Pendants aus dem B2C-Bereich gegen-

übergestellt. „Ungerechterweise“, sagt

Flade-Ruf, „denn hier werden Äpfel mit

Birnen verglichen. Die mit Watson ver-

bundenen Services und Entwickler-Tools

von IBM sind ausschließlich auf den B2B-

Sektor ausgerichtet.“ Alexa, Siri, Cortana,

Google Home und Co. haben es hinge-

gen mit den Endkunden im B2C erheb-

lich einfacher, rasche Erfolge vorzuwei-

sen, da sie jeden Tag von Millionen Men-

schen genutzt, mit Informationen gefüt-

tert und dadurch stetig trainiert werden.

Dabei ist die Frage nach der Datenho-

heit über die pausenlos mitgelauschten

Gespräche ungeklärt oder geht womög-

lich in der AGB unter.

Daten gehören dem Nutzer

„Solch ein Vorgehen unterscheidet sich er-

heblich vom projektbezogenen, individuel-

len Daten-Training mit Watson“, sagt Flade-

Ruf. „Hier hat IBM zudem eine Art Code of

Conduct für Cloud Services in Verbindung

mit KI-Daten verfasst, sodass die innerhalb

eines Projektes gewonnenen Informatio-

nen immer Eigentum der jeweiligen Ser-

vice-Nutzer bleiben – und bisher hält sich

IBM auch daran.“ Damit lässt sich auch der

Vorwurf einiger Unternehmen entkräften,

dass man ja bei Watson nicht genau wisse,

wem schließlich sowohl die eingespielten

als auch die neu gewonnenen Daten gehö-

ren würden. Unterm Strich lassen sich die

KIs der verschiedenen Hersteller und Ein-

satzgebiete nur schwer bis überhaupt nicht

miteinander vergleichen.

In der jüngeren Berichter-stattung ist die KI-Lö-sung Watson von IBMein wenig in Misskre-dit geraten. Einehäufig geäußerterVorwurf war, IBMhabe mit seinerMedienkampagneErwartungen ge-weckt, die die Tech-nologie nicht oder nochnicht erfüllen kann. Für Ur-sula Flade-Ruf, Geschäftsführe-rin der Management Informati-ons Partner GmbH, zeigt dieser Vor-wurf „jedoch auch ein großes Missver-ständnis, in der Watson immer wieder als die denMenschen verstehende Maschine personifiziert wird.”Doch was ist die KI nun und was leistet sie?

IBM WATSON

IT&Production 3/2018

Der Ärger um WatsonDie IBM-KI ins richtige Licht gerückt

Bild: mip M

anagement Inform

ationspartner GmbH

Konkrete Beispiele selten

Eine Schwierigkeit im Zusammenhang

mit Watson-Projekten ist das Fehlen von

allgemeingültigen weltweiten Anwen-

dungsfällen, wie sie im B2C-Bereich mit

Alexa, Siri oder Cortana vorhanden sind.

„Watson-Projekte sind dagegen äußerst

industrie- und unternehmensspezifisch“,

sagt Flade-Ruf. „Vieles passiert hier hinter

verschlossenen Türen, da sich niemand

zu früh von Mitkonkurrenten in die Kar-

ten schauen lassen möchte.“ Ein großer

Teil stammt dabei aus dem Bereich Inter-

net of Things (IoT) im industriellen Sek-

tor. Big Data in Form von Sensor- und

Maschinendaten soll dort im Predictive-

Maintenance-Umfeld und zur Qualitäts-

sicherung eingesetzt werden. IBM ko-

operiert beispielsweise mit Unterneh-

men wie Schaeffler, Bosch, BMW, Ci-

troen und Renault. Ein anderer Bereich, in

dem ein großes Potenzial gesehen wird,

ist die Unterstützung von Call-Centern

und -Services etwa im Öffentlichen

Dienst oder Versicherungs- und Banking-

Umfeld, aber auch im technischen Sup-

port. Die Nachfrage nach Künstlicher In-

telligenz steigt auch in der Ausbildung.

An der Technische Hochschule Nürnberg

konnten Studenten zum Beispiel die ver-

schiedenen Cloud-Services von Watson

ausprobieren und dabei die Spracherken-

nung des Bots trainieren.

KI-gestützte Chatbots

Einen Schritt weiter gehen Chatbots, die

eigenständig Chat-Sessions mit Kunden

oder Mitarbeitern bewältigen können,

um etwa FAQs zu beantworten oder Be-

stellungen abzuwickeln. „Auf dem Wat-

son Summit wurde ein Chatbot vorge-

stellt, der von Siemens für das eigene

Personal basierend auf den IBM Conver-

sation Services und anderen Watson-

Tools entwickelt wurde“, erläutert Flade-

Ruf. Auch in der Juristik könnten eine

Vielzahl an einfacheren Rechtsfällen über

einen Watson-Service abgebildet wer-

den. Ein weiteres Feld umfasst das

Thema Enterprise Search, in dem Wat-

son-basierte Tools wie das Natural

Language Processing zur Verarbeitung

menschlicher Sprache und das Watson

Knowledge Studio, welches ein bran-

chenspezifisches Training ohne Program-

mierungskenntnisse ermöglicht, einge-

setzt werden. „Mit Enterprise-Search-

Systemen lassen sich schnell große Men-

gen an Informationen durchsuchen und

personenbezogen aufbereiten“, erklärt

Ruf. Die Lösung lernt dabei, welche Infor-

mationen für den Nutzer besonders rele-

vant sind und zeigt sie auf einem

Dashboard an.

Watson im Mittelstand

Eine McKinsey-Studie zeigte kürzlich,

dass sich kleine und mittelgroße Unter-

nehmen bei der Implementierung von

Künstlicher Intelligenz noch schwer tun:

So setzen gerade einmal neun Prozent

bereits maschinelles Lernen im größeren

Maßstab ein. Nur zwölf Prozent gaben

an, dass sie das Experimentierstadium

bereits verlassen hätten. „Unser Rat ist,

dass Unternehmen mit der Umsetzung

von Watson-Projekten erst einmal klein

anfangen sollten“, sagt Flade-Ruf. „Wat-

son ist kein fertiges Produkt und vor

dem Training sozusagen noch ‚dumm‘.

Deshalb müssen Ziele und Trennschärfen

im Vorfeld klar formuliert werden.“ Umso

eindeutiger sich Themen definieren und

Grenzen ziehen lassen, desto einfacher

und schneller lässt sich auch zum Bei-

spiel ein Chatbot aus den verschiedenen

Watson-Komponenten zusammenstellen

und mit einer spezifischen Wissensda-

tenbank trainieren. Zudem ist ein großes

Team erforderlich, das sich aus unter-

schiedlichen Qualitäten zusammensetzt,

die sich von üblichen IT-Projekten unter-

scheiden. Man benötigt unter anderem

Business-User sowie -Analysten, KI-Ex-

perten, Programmierer sowie Prozess-

Spezialisten für die Einbindung der KI in

die Systemlandschaft.

Viele Experimente, wenig Ertrag

Im Watson-Umfeld tut sich viel, doch feh-

len vielerorts noch die Erträge. Flade-Ruf

weiter: „Leider erkennen wir gerade den

Trend, dass Unternehmen Projekte in Ei-

genregie durchführen – und dabei oft

scheitern, ohne die entsprechenden

Schlüsse daraus zu ziehen.“ Dabei bieten

der Markt und Watson selbst viele Open-

Source-Möglichkeiten an. Beim Experi-

mentieren mit der Technik fallen so oft

deutlich weniger Kosten an. „Das Schei-

tern solcher Ansätze, wie etwa im

Startup-Umfeld, ist ein immanenter Be-

standteil solcher Experimente“, bemerkt

Flade-Ruf. „Jedoch hat sich in Deutschland

bisher keine ‚Fast-Fail-Kultur‘, also der

schnelle Übergang von einem Fehlschlag

zu einem neuen optimierten Versuch, ent-

wickeln können.“ Dieser Trend fordert IT-

Dienstleister heraus, da es immer schwie-

riger wird, die eigene Expertise in solche

Projekte einzubringen. Deren Erfahrung

kann aber helfen, Projekte schneller und

erfolgreicher abschließen zu können. ■

Der Autor Marian Spohn ist Fachredakteur

bei Dieleutefürkommunikation.

www.mip.de

| KÜNSTLICHE INTELLIGENZIBM WATSON

IT&Production 3/2018

Mögliche Einsatzorte für Chatbots

Bild

: mip

Man

agem

ent I

nfor

mat

ions

part

ner G

mbH

Bild: Sage

Bei Messenger-Diensten wie dem Facebook-Messenger sind bereits mehr als 100.000 Chatbots im Einsatz.

KÜNSTLICHE INTELLIGENZ |

CChatbots können günstige Flugver-

bindungen suchen, Teams bei der

Organisation ihrer Zusammenar-

beit unterstützen oder Internetnutzer

dazu animieren, Marketingbotschaften

von Unternehmen in sozialen Medien zu

teilen. So unterschiedlich die Zielsetzun-

gen auch sind, eines ist allen gemeinsam:

Chatbots könnten die Art verändern, wie

Menschen Computer und andere Maschi-

nen benutzen. Sie könnten die Bedienung

von Anwendungen auf Computern, Tab-

lets und Smartphones so einfach machen

wie die Kommunikation per Whats-App

oder Facebook-Messenger.

Nutzen im Alltag

Allein der Facebook-Messenger bietet

mehr als 100.000 Chatbots für ganz un-

terschiedliche Anwendungen. Und eine

aktuelle Umfrage des Digitalverbandes

Bitkom zeigt, dass rund ein Viertel der

Befragten Chatbots (Bots) im Alltag ein-

setzen möchte. So wollen beispielsweise

mehr als zwei Drittel (68 Prozent) mit

Chatbots ihre Termine planen. Weitere

beliebte Nutzungsszenarien sind der Un-

tersuchung zufolge Ticketreservierungen,

Online-Shopping und Reisebuchungen.

Nutzen für das Unternehmen

Dass Chatbots auch unternehmerische

Aufgaben wie die Buchführung unterstüt-

zen können, zeigt das Beispiel von Pegg:

Der Chatbot von Sage fungiert als Assis-

tent für kleine Unternehmen und erlaubt

Nutzern beispielsweise, Ausgaben zu er-

fassen und die Finanzen per Messaging-

Dienst – etwa über den Facebook-Mes-

senger oder via Skype – zu verwalten. Auf

die Frage “Wer hat offene Rechnungen bei

uns?” antwortet Pegg zum Beispiel über

die entsprechende Messaging-App mit

den Namen der Kunden sowie den offe-

nen Beträgen in einer Nachricht.

Hände frei beim Datenabruf

Mit Chatbots lassen sich zudem Daten

von unterwegs erfassen, kategorisieren

und speichern. Außerdem können sie

weitere Arbeitsschritte anstoßen. Das

unterstützt Anwender beispielsweise bei

der Reisekostenabrechnung, etwa durch

das Erfassen und Verbuchen von Taxi-

quittungen, Bewirtungsbelegen und an-

deren Dokumenten. Der Nutzer wird vom

Chatbot per Dialog durch den jeweiligen

Vorgang geführt, sodass der Ablauf des

Prozesses vorher nicht bekannt sein

muss. Anwender können somit schneller

zur gewünschten Information gelangen

und Transaktionen schneller vornehmen.

Zusätzliche Vorteile bringt es, wenn

Chatbots per Audio-Signal mit dem Nut-

zer kommunizieren. Dieser hat dadurch

beide Hände frei, was ihm beispielsweise

ermöglicht, während Wartungsarbeiten

Unterstützung zu erhalten. Nach dem

gleichen Prinzip können Fertigungsmitar-

beiter in der Einarbeitungsphase oder bei

seltenen und komplizierten Arbeiten un-

terstützt werden. Vertriebsmitarbeitern

ermöglicht ein Chatbot wiederum die

Abfrage von Kundeninformationen wäh-

rend der Fahrt zum nächsten Termin. Ein

Chatbots ermöglichen eine ganz neue Art der Interaktion zwischen Mensch und Ma-schine: Als intelligente Benutzerschnittstellen mit Natural Language Understanding(NLU) sollen sie dafür sorgen, dass Sprache zum Steuerungselement von Computernund anderen Anlagen wird.

CHATBOTS

IT&Production 3/2018

Chatbots: Zeitenwende für die PC-Bedienung?

KI-gesteuerte Benutzerschnittstelle

weiterer Vorteil ist, dass Chatbots nicht

an feste Arbeitszeiten gebunden sind.

Vom Chatbot zum Kollegen

Durch Technologien aus dem Bereich der

Künstlichen Intelligenz (KI) – etwa Rein-

forcement Learning oder anderen For-

men des maschinellen Lernens – entwi-

ckelt sich die dialogbasierte Benutzer-

oberfläche in Zukunft hin zu einer Art

Kollegen, der dann weitgehend selb-

ständig agieren kann. Auf dem Weg

dahin geht es unter anderem darum, die

Fehlertoleranz in der Sprach- oder Text-

eingabe zu verbessern. Bisher ist der

Mensch dem Computer in diesem Be-

reich noch weit überlegen. Ein Chatbot

allein macht noch keinen durchgängig

automatisierten Prozess. Vielmehr geht

es zunächst darum, klar abgegrenzte

Aufgabenbereiche und Services zu defi-

nieren, die ein Bot in der erforderlichen

Geschwindigkeit und Qualität bewälti-

gen kann. Im Falle einer Chatbot-Lösung

für die Buchhaltung erledigt dann zum

Beispiel ein Konto-Bot den Download

und die Archivierung der Kontoauszüge.

Den Cash-Flow hingegen überwacht ein

weiterer auf diesen Aufgabenbereich

spezialisierter Bot. Er registriert Unregel-

mäßigkeiten, wie einen fehlenden Zah-

lungseingang, und stößt – je nach Höhe

des offenen Betrages und Status des

Kunden – entweder einen Mahnungs-

vorgang an oder benachrichtigt einen

Mitarbeiter. Unabhängig vom Einsatzbe-

reich gilt, dass jeder Chatbot eine tiefe

Integration in die Datenbanken und

Transaktionssysteme des Unternehmens

benötigt, sowie eine zielführende Struk-

tur des Dialogs. Denn erst die Kombina-

tion aus den Leistungen unterschiedli-

cher Chatbots führt zu durchgängig auto-

matisierten Prozessen. Dabei spielt auch

die Abgrenzung zwischen unterschiedli-

chen Chatbots und ihre Zusammenarbeit

in komplexen Unternehmensanwendun-

gen eine wichtige Rolle. Das gilt in der

Lagerverwaltung sowie in der Produkti-

onsplanung und -steuerung ebenso wie

in der Buchhaltung und im Vertrieb.

Der Nutzen entscheidet

Ausschlaggebend für die Praxistauglich-

keit eines Chatbots ist nicht das Ausmaß

seiner künstlichen Intelligenz, sondern

der Nutzen, den er Menschen verschafft,

die für das Unternehmen wichtig sind.

Nutzen entsteht vor allem dann, wenn

Mitarbeiter und Kunden einfacher und

schneller bekommen, was sie in ihrer je-

weiligen Situation brauchen. Das kann

ein Service-Ticket ebenso sein wie eine

Aussage zu Preis und Verfügbarkeit einer

bestimmten Produktkonfiguration oder

eine Auftragsänderung. ■

Der Autor Rainer Downar ist

Executive Vice President bei Sage.

www.hellopegg.iowww.sage.de

| KÜNSTLICHE INTELLIGENZCHATBOTS

- Anzeige -

COSMO CONSULT Gruppe

Intelligente Businesslösungen von COSMO CONSULT

Als europaweit führender Anbieter von Microsoft-basierten

End-to-End-Unternehmenslösungen für Auftrags- und Prozess-

fertigung, Handel und Dienstleistung ist COSMO CONSULT einer

der Pioniere beim Thema künstliche Intelligenz im Business-

Umfeld. Mit über 950 Mitarbeitern an 40 internationalen Stand-

orten – davon 13 in Deutschland – begleitet COSMO CONSULT

Unternehmen aller Größen bei der Digitalisierung und bietet

intelligente, zukunftsweisende Industrie 4.0-Lösungskonzepte.

Unsere Stärke liegt darin, unseren Kunden auf der Basis

vorhandener Daten einen vollkommen neuen Blick auf das

eigene Unternehmen zu ermöglichen. Durch die Integration

ausgefeilter Algorithmen und systemgestützter Entscheidungs-

modelle in das umfassende Microsoft Dynamics-Ökosystem

sowie in das COSMO CONSULT-Lösungs- und Serviceportfolio

haben unsere Kunden bereits heute die Möglichkeit, KI-Techno-

logien zu nutzen, die den Weg in die Zukunft intelligenter

Business-Software weisen.

Die durch digitale Technologien und künstliche Intelligenz auf uns zu kommenden Veränderungen sind so

fundamental, dass sich Geschäftsmodelle, Unternehmen und sogar ganze Industrien verändern werden.

Es kommt darauf an, das Potenzial dieser Entwicklung nicht nur zu nutzen, sondern aktiv mitzugestalten

und dafür zu sorgen, dass die Menschen in den Unternehmen davon profitieren – denn es geht um die

Menschen, die mit ihrer Kreativität und Leidenschaft den Erfolg eines Unternehmens ausmachen.

KontaktCOSMO CONSULT GruppeSchöneberger Str. 1510963 BerlinTel: +49 30 343815 0 • Fax: +49 30 343815 [email protected] • www.cosmoconsult.com

IT&Production 3/2018


Recommended