Benutzerspezifische Werkzeuge
Sie sind hier: Startseite Lexikon Technologische und methodische Grundlagen Künstliche Intelligenz

Künstliche Intelligenz

Künstliche Intelligenz soll Maschinen in die Lage versetzen, menschliche Tätigkeiten zu übernehmen.

Grundlegendes Verständnis und aktuelle Entwicklung

Künstliche Intelligenz gewinnt in Unternehmen, Verwaltungen und unserem täglichen Leben an Bedeutung. In vielen Situationen erfahren wir bereits heute Unterstützung durch Methoden der Künstlichen Intelligenz. Grundlage dessen sind Innovationen in der Prozessor- und Speichertechnologie, im Cloud Computing, der Sensorik, dem Internet der Dinge und der Robotik stattfanden, von denen die Nutzung der Künstlichen Intelligenz profitiert. Zwar stehen wir beim Einsatz von KI-Systemen trotz aller Fortschritte noch ganz am Anfang. „Dank Big Data und algorithmischen Fortschritten wie Deep Learning hat sich das Feld des Maschinellen Lernens in den letzten Jahren rasant weiterentwickelt. Während in der Vergangenheit Maschinelles Lernen häufig offline nach kritischem Review durch Experten und in unkritischen Anwendungen – etwa der Werbeplatzierung im Internet - genutzt wurde, wird es heutzutage mehr und mehr in operativen und sicherheitskritischen Systemen auf 24/7 Basis eingesetzt. Selbstfahrende Autos, medizinische Entscheidungsunterstützung und das Monitoring technischer Infrastruktur sind Beispiele. Diese Fortschritte sind von den Trends Big Data und Digitalisierung getrieben, die sowohl mehr Daten für die automatische Analyse bereitstellen als auch schnellere und komplexere Entscheidungen in kontinuierlichen Datenanalyseprozessen verlangen.“ [Bitkom 2017]

Die Entwicklungen der vergangenen Jahre haben, wie bereits erwähnt, nicht nur die verfügbaren Rechenkapazitäten an den Arbeitsplätzen erhöht, sondern auch die Datenverfügbarkeit und damit die Grundlage datengetriebener Entscheidungsfindung. Darüber hinaus sind Machine-Learning-Algorithmen in den letzten Jahren leistungsfähiger geworden. Insbesondere der Ansatz des Deep Learning, also dem Maschinellen Lernen mit großen neuronalen Netzen, ist aktuell ein oftmals benannter Analyseansatz und damit die Referenz zur Auswertung großer, verrauschter Datenmengen und steckt hinter aktuellen Fortschritten etwa in der Text-, Bild- und Spracherkennung. Es hat sich in prominenten Beispielen bereits gezeigt, dass Deep Learning selbst menschliche Experten schlagen kann. Dies ist ein Effekt der hohen Anpassungsfähigkeit dieser tiefen neuronalen Netze, gepaart mit der Möglichkeit, diese Netze auch auf großen Datenmengen effizient zu trainieren.

Maschinelles Lernen in der Künstlichen Intelligenz

Maschinelles Lernen (ML) bezeichnet Verfahren, bei denen Computer-Algorithmen aus Daten lernen, beispielsweise Muster zu erkennen oder gewünschte Verhaltensweisen zu zeigen, ohne dass jeder Einzelfall explizit programmiert wurde. So lernen Algorithmen im Online-Buchhandel, dass es bestimmte Klassen von Büchern gibt, die von bestimmten Klassen von Kunden gekauft werden ohne, dass irgendwo im Vorfeld definiert würde, was Liebesromane sind oder was ein junger Familienvater ist. Autonome Fahrzeuge können schlicht dadurch lernen, dass Menschen sie eine Zeitlang steuern. Mit diesem Verfahren wird auch das automatische Labeln von Bildern trainiert. Menschen ergänzen hierbei Bilder z.B. mit der Information, ob ein Gesicht fröhlich oder traurig erscheint, und nach mehreren tausenden oder zehntausenden Beispielen kann dann ein Algorithmus lernen, neue Bilder selbst zu klassifizieren. Oft wird Maschinelles Lernen mit künstlicher Intelligenz gleichgesetzt. Während in der Künstlichen Intelligenz häufig ML eingesetzt wird, ist ML eine Methode und damit ein Werkzeug unter vielen der Künstlichen Intelligenz. [generell hierzu Felden 2017]

Künstliche Intelligenz beschreibt Informatik-Anwendungen, deren Ziel es ist, intelligentes Verhalten zu zeigen. Dazu sind in unterschiedlichen Anteilen bestimmte Kernfähigkeiten notwendig: Wahrnehmen, Verstehen, Handeln und Lernen. Diese vier Kernfähigkeiten stellen die größtmögliche Vereinfachung eines Modells zur modernen Künstlichen Intelligenz dar: Wahrnehmen - Verstehen - Handeln erweitern das Grundprinzip aller EDV Systeme: Eingabe – Verarbeitung - Ausgabe. Das wirklich Neue ist das Lernen und Verstehen. Heutigen Künstlichen-Intelligenz-Systemen ist gemein, dass sie in der Verarbeitungskomponente auch trainiert werden und damit lernen können und so bessere Ergebnisse erzielen als mit herkömmlichen Verfahren, die auf klar definierten und fest programmierten Regelwerken basieren. Heute sprechen wir von der schwachen Künstlichen Intelligenz, bei der es darum geht, den Menschen intelligent beim Erreichen seiner Ziele zu unterstützen, also um smarte Mensch-Maschine-Interaktion und Zusammenarbeit zwischen Mensch und Maschine. Die starke Künstliche Intelligenz ist eher philosophisch relevant. Sie zielt auf eine Imitation des Menschen ab. Die vier Entwicklungsphasen der Künstliche-Intelligenz-Forschung spiegeln sich auch im Einsatz der Künstlichen Intelligenz in industriellen und privaten Anwendungsfeldern wider. Letztlich ist das Ziel von Künstlichen-Intelligenz-Systemen, den Menschen beim Erreichen seiner Ziele intelligent zu unterstützen und dabei unmenschliche oder unangenehme Arbeit deutlich zu vermindern, aber nicht den Menschen überflüssig zu machen [generell hierzu und im Folgenden Cavanillas et al. 2016].

Entwicklungsphasen der Künstlichen Intelligenz

Abbildung 1: Entwicklungsphasen der Künstlichen Intelligenz [entnommen und modifiziert aus Cavanillas et al. 2016]

In der ersten und zweiten Phase wurde sehr viel an Wissen manuell und direkt in die Maschine einprogrammiert. Ein Beispiel hierfür wäre ein Taschenrechner. Dieser zeigt zwar intelligentes Verhalten, indem er rechnet, aber seine Funktionsweise ist nicht intelligent. Mit den Ansätzen der zweiten Phase hatte man zwar sehr gute Kontrolle über das Verhalten der Maschinen, aber deren Handlungsumfang war extrem begrenzt. Beispielhaft seien hier Empfehlungssysteme aus dem Buchhandel genannt, die auf früheren Einkäufen basieren.

In der dritten Phase der Künstlichen Intelligenz kam der Durchbruch über das Maschinelle Lernen aus Massendaten. Um beim Beispiel Buchhandel zu bleiben, ist es heute so, dass die Kunden und die Waren automatisch in Gruppen (Cluster) einsortiert werden und die Empfehlungen vom System selbst gelernt und ständig verbessert werden. Ein Nachteil an diesem Ansatz des vollautomatischen maschinellen Lernens wurde bereits angedeutet: Es ist nur schwer nachvollziehbar, warum ein System einen bestimmten Vorschlag macht und noch schwerer ist es, diesen zu korrigieren bzw. zukünftig zu unterbinden.

Die vierte Phase von Künstlichen-Intelligenz-Systemen versucht, Lernverfahren mit Expertenwissen zu verbinden, um das Beste aus beiden Welten zu nutzen: Kontrolle und explizites Wissen mit der Kraft von Lernalgorithmen, die dann auch bei unsicherer Faktenlage ähnlich gut wie ein Mensch handeln kann. In der Geschichte der Künstlichen-Intelligenz-Forschung und -Entwicklung gab es immer wieder disruptive Ereignisse. In letzter Zeit sind IBM Watson, Alpha Go und die autonomen Fahrzeuge von Google aus den Medien bekannt.

Lernen und Verstehen sind die zentralen Kernfähigkeiten, die sich in den Prozess: Sense, Comprehend, Act and Learn einbetten (vgl. Abbildung 2). Diese Vier stellen die größtmögliche Vereinfachung eines Modells zur modernen Künstlichen Intelligenz dar und erweitern das Grundprinzip aller EDV Systeme: Input – Operating – Output oder Eingabe – Verarbeitung – Ausgabe. Das wirklich Neue ist das Lernen und davon ausgehend auch das Verstehen. Heutigen Künstlichen-Intelligenz-Systemen ist gemein, dass sie in der Verarbeitungskomponente trainiert werden und so immer bessere Ergebnisse erzielen können und zwar häufig besser, als mit herkömmlichen Verfahren, die im Wesentlichen auf klar definierten und fest programmierten Regelwerken basieren. 

Komponenten einer Künstlichen Intelligenz

Abbildung 2: Komponenten einer Künstlichen Intelligenz [Purdy/Daugherty 2016]

Betrachtet man die vier Kern-Komponenten detaillierter, so wird deutlich, welch enormes Potenzial in den Anwendungen besteht. Dies liegt an der Vielfalt der verarbeiteten Datenarten und Datenmengen (1 - Sense), die kaum noch Limitationen unterliegen. Die verarbeitende Komponente (2 - Comprehend) wird um Künstlichen-Intelligenz-Methoden, meist Sprachverstehen und Deep bzw. Machine Learning erweitert. Damit ist gemeint, dass die Experten-Software um eine trainierbare, lernende Komponente erweitert wird, dass aber auch weiterhin eine eindeutige Systemsteuerung zum Einsatz kommt, wenn Fallentscheidungen eindeutig definiert werden können. Wenn zum Beispiel ein Dokument als vollständiges Formular erkannt wird, dann wird der entsprechende Weiterverarbeitungs-Prozess angestoßen. Im Gegensatz hierzu ist eine unstrukturierte Kundenemail zu sehen, wo eine Künstliche Intelligenz erst verstehen muss, was der Kunde eigentlich will - und dies können trainierte Systeme mittlerweile leisten. Die Ausgabekomponente (3 - Act) beinhaltet wiederum alle Steuerungsmöglichkeiten moderner IT-Systeme. In den Medien erscheinen immer wieder die beachtenswerten Ergebnisse aus der Künstlichen-Intelligenz-Forschung, wie Systeme, die Bilder malen wie van Gogh, Musikstücke komponieren wie Bach, Lastenroboter, die auf vier Beinen wie ein Tier durch unwegsames Gelände laufen etc. In der Praxis sind aber eher Dinge wie intelligente Prozess- oder Gerätesteuerung relevant. Das Besondere an aktuellen Künstlichen-Intelligenz-Systemen ist nun, dass sie während der Trainingsphase (4) aber auch im laufenden Betrieb aus ihren Fehlern bzw. anhand eines Feedbacks lernen können.

Bestandteile der Künstlichen Intelligenz

Die KI deckt einen weiten Anwendungsbereich ab, der von Spracherkennungs-, über Bilderverarbeitungssysteme, den Einsatz in der Robotik bis hin zu Expertensystemen unterschiedlicher Anwendungsfelder reicht [Kreutzer/Sirrenberg 2019]. Eine umfassende Betrachtung der KI Bestandteile, welche diesen Anwendungen zugrunde liegen, nimmt der Bundesverband für Informationswirtschaft, Telekommunikation und neue Medien e. V. (Bitkom) in dem im Jahr 2018 veröffentlichten Periodensystem der KI vor.  

Periodensystem der KI

Abbildung 3: Periodensystem der KI [Bitkom 2018]

Der darin sehr weitläufig ausgelegte KI Begriff teilt 28 Elemente in die Gruppen: 

  • Bewerten (Assess, grün und fellgrün), 
  • Informieren (Infer, gelb und rot) und 
  • Antwort (Response, magenta). 

Wie der Abbildung 2 zu entnehmen ist, fällt jedes Element dabei in genau eine dieser drei Gruppen und bietet potential für die verschiedensten Anwendungsfälle und -bereiche. Jedes Element stellt dabei einen Baustein dar, welcher sich erst in Kombination mit weiteren Bausteinen zu einem KI System zusammengefügt lässt [Bitkom 2018].

Fazit

Die wieder einmal in den Vordergrund gerückte Künstliche Intelligenz, als jedoch schon seit den 1960er Jahren existierendes Thema, umfasst aktuell viel Forschung, die nach allgemeinen Grundsätzen des Lernens, der Suche und der Entscheidungsfindung sucht und versucht, riesige Mengen an Domänenwissen zu integrieren. 

„Mit den rapiden Fortschritten in der Erfassung von Daten aus der realen Welt, mit der Möglichkeit zur aktiven Interaktion und mit virtuellen Agenten sind wesentliche Voraussetzungen für einen tiefgreifenden Wandel in Wirtschaft und Gesellschaft gegeben. Kognitive Systeme setzen auf Big Data und KI auf und können bereits vielfältige Aufgaben übernehmen, die von der Beschaffung und Verdichtung von Informationen über die Verrichtung gefährlicher, schmutziger, körperlich anstrengender Arbeiten bis hin zur Unterstützung von Management-Entscheidungen reichen. In den nächsten Jahren werden kognitive Systeme ihr Leistungsspektrum deutlich ausweiten. Daraus ergibt sich das Erfordernis, die wirtschaftlichen und gesellschaftlichen Konsequenzen des eingeleiteten kognitiven Zeitalters zu verstehen und in einen Diskurs einzutreten – insbesondere im Kontext der globalen politischen und wirtschaftlichen Herausforderungen.“ [Bitkom 2017]

Dabei steht derzeit insbesondere das Deep Learning im Zentrum der Diskussion und dabei dreht sich die internationale Diskussion über Deep Learning derzeit um Ordnungsrahmen, die Optimierung von Deep Learning sowie deren Grenzen. Die Optimierung hinsichtlich Funktionsumfang und Bedienbarkeit von Deep-Learning-Ansätzen ist ein wesentlicher Hebel, um Data-Scientist-Teams den Einstieg in das Deep Learning zu erleichtern. Zugleich werden aber auch immer stärker die Grenzen der reinen Mustererkennung im Vergleich zu einer dualen Verwendung von Musterkennung mit generischen Lernansätzen diskutiert. Aber auch der hohe Komplexitätsgrad von Neuronalen Netzen gegenüber dem Einsatz von einfacheren Methoden bei ähnlich guten Ergebnissen wird zum Gegenstand einer lebhaften Diskussion.

Literatur

Bitkom - Bundesverband Informationswirtschaft, Telekommunikation und neue Medien e.V..: Entscheidungsunterstützung mit Künstlicher Intelligenz – Wirtschaftliche Bedeutung, gesellschaftliche Herausforderungen, menschliche Verantwortung, 2017, https://www.bitkom.org/sites/default/files/pdf/noindex/Publikationen/2017/Positionspapiere/FirstSpirit-1496912702488Bitkom-DFKI-Positionspapier-Digital-Gipfel-AI-und-Entscheidungen-13062017-2.pdf, abgerufen am: 24.04.2020 .

Bitkom- Bundesverband Informationswirtschaft, Telekommunikation und neue Medien e.V..:  Digitalisierung gestalten mit dem Periodensystem der Künstlichen Intelligenz Ein Navigationssystem für Entscheider, 2018, https://www.bitkom.org/sites/default/files/2018-12/181204_LF_Periodensystem_online_0.pdf, abgerufen am: 23.04.2020.

Cavanillas, J. M.; Curry, E.; Wahlster, W. (Eds.): New Horizons for a Data-Driven Economy. A Roadmap for Usage and Exploitation of Big Data in Europe. Springer 2016.

Felden, C.: Die Bedeutung von Big Data und Advanced Analytics für die Mittelstandsfinanzierung. In:  Corporate Finance, 11-12, November/ Dezember 2017, S.333-338

Kreutzer, R. T.; Sirrenberg, M.: Künstliche Intelligenz verstehen. Springer Fachmedien Wiesbaden, 2019.

Purdy, M.; Daugherty, P.: Why Artificial Intelligence is the Future of Growth. https://www.accenture.com/lv-en/_acnmedia/PDF-33/Accenture-Why-AI-is-the-Future-of-Growth.pdf. Abruf am 2018-02-21.

Autor


 

Univ.-Prof. Dr. rer. oec. Carsten Felden, TU Bergakademie Freiberg (Sachsen), Fakultät für Wirtschaftswissenschaften insbes. Internationale Ressourcenwirtschaft, Direktor Institut für Wirtschaftsinformatik, Professur für ABWL insb. Informationswirtschaft/Wirtschaftsinformatik, Silbermannstr. 2, 09599 Freiberg (Sachsen)

Autoreninfo


Zuletzt bearbeitet: 29.09.2020 12:56
Letzter Abruf: 30.11.2020 09:32
Artikelaktionen