Unsere Lernplattform ist bislang nicht auf eine Nutzung an mobilen Endgeräten angepasst. Wir würden dich deshalb darum bitten stattdessen einen Laptop zu verwenden.
StartseiteIn diesem Kapitel informiert Prof. Tobias Meisen über die Grundlagen künstlicher Intelligenz. Die Ursprünge intelligenter Computer, sowie die grundsätzliche Methodik und die zukünftige Bedeutung werden analysiert und so der Grundstein für die - folgenden - konkreten Anwendungsbereiche künstlicher Intelligenz gelegt.
An dieser Stelle muss kurz auf die Methodik eingegangen werden, die heutigen künstlichen Intelligenzen im Wesentlichen zugrunde liegt. Im Gegensatz zu Expertensystemen, bei denen die Regelmodellierung durch Experten erfolgen muss, basieren heutige „intelligente“ Systeme auf unterschiedlichen Lernparadigmen. Es gilt aus Beobachtungen (Daten) generalisiertes Wissen abzuleiten, wobei unterschiedliche Formen des Lernens unterschieden werden.
Beim Supervised Learning gilt es, bekannte Zusammenhänge, die in den Trainingsdaten – den Daten aus denen gelernt wird – bekannt sind, für die aber eine explizite Formalisierung fehlt, in allgemeiner Form zu lernen. Beispielsweise erkennt ein Jeder von uns sehr gut Katzen in Bildern. Wenn wir jedoch gefragt werden, wie uns das gelingt, fällt uns die Formulierung geeigneter Regeln sehr schwer – ganz davon zu schweigen, dass die Anwendung dieser Regeln nicht zu einer entsprechenden Erkennungsrate führt, wie der Mensch sie erreicht. Wir wissen zwar nicht, wie wir es machen, aber wir haben gelernt, Katzen zu erkennen. Beim Supervised Learning werden zusammenhängende Muster, die in den Trainingsdaten auftreten, gelernt. Um beim Katzenbeispiel zu bleiben bedeutet dies, dass beim Training Kanten-, Farb- sowie Texturfilter gelernt werden, die typisch für Katzen sind. Natürlich wird hierbei nicht nur die Klasse der Katzen gelernt, sondern mehrere unterschiedlichste Klassen. Das berühmte ImageNet, eine Datenbank von Bildern, die unter anderen in der Forschung eingesetzt werden, umfasst mehr als 14 Millionen Bilder und mehr als 20.000 Klassen. Die Erkennungsrate durch heutige Verfahren liegt bei über 90%. Selbstverständlich geht es beim Supervised Learning nicht nur um Bilder, die klassifiziert werden, sondern um jede Form von Daten. Ebenso wird neben der Klassifizierung auch die Regression betrachtet.
Ein zweites Lernparadigma stellt das Unsupervised Learning dar. Es entspricht der Suche nach Regelmäßigkeiten (Mustern) in Daten, wobei im Gegensatz zum Supervised Learning die zu erlernenden Klassen oder Zielgrößen nicht im Vorfeld bekannt sind. Ein Beispiel hierfür ist die Detektion von Anomalien beispielsweise im Finanzwesen.
Ein dritter andersartiger Ansatz ist das Reinforcement Learning. Sehr vereinfacht dargestellt lässt sich dieses Lernparadigma mit dem Pawlowschen Hund vergleichen. So wird einem künstlichen Agenten eine Belohnung gegeben, wenn er zielführende Aktionen durchführt, wodurch er wiederum lernt, vorausschauend und zielgerichtet zu agieren. Zeigt er hingegen ein fehlerhaftes Verhalten, wird er bestraft. Gilt es beispielsweise ein Spiel wie Schach zu lernen, könnten Belohnungen immer dann ausgegeben werden, wenn eine gegnerische Figur geschlagen oder strategisch wertvolle Positionen eingenommen werden. Hingegen werden Fehler wie der Verlust einer Figur oder die erzwungene Einnahme schwacher Positionen bestraft. Es ist hierbei in der Regel schwierig, gute Belohnungen zu entwickeln, die in einem gewünschten Verhalten resultieren. Häufig führen naheliegende Ansätze für ein Belohnungsdesign zu fehlerhaften Strategien.
Diese vorangestellten Lernparadigmen werden im Rahmen des maschinellen Lernens betrachtet, bei dem das sogenannte Deep Learning eine Unterklasse von Methoden zusammenfasst, die maßgeblich in den zuvor genannten jüngsten Erfolgen Anwendung finden. Die Methoden des Deep Learning zeichnen sich im Wesentlichen durch künstliche neuronale Netze aus, die über eine große Anzahl Zwischenschichten, sogenannte Hidden Layer, verfügen. Solche Netze werden auch als tiefe künstliche neuronale Netze bezeichnet. Für ihre Beiträge zu Deep Learning erhielten Yann LeCun, Yoshua Bengio und Geoffrey Hinton übrigens 2018 den Turing Award. Hierbei ist das Deep Learning jedoch keine neuartige Methode. Erstmals im heutigen Kontext verwendet wurde der Begriff Deep Learning im Jahr 2000 in der Publikation „Multi-Valued and Universal Binary Neurons: Theory, Learning and Applications“ von Igor Aizenberg et al.
Lorem ipsum dolor sit amet, consectetur adipiscing elit. Suspendisse varius enim in eros elementum tristique. Duis cursus, mi quis viverra ornare, eros dolor interdum nulla, ut commodo diam libero vitae erat. Aenean faucibus nibh et justo cursus id rutrum lorem imperdiet. Nunc ut sem vitae risus tristique posuere.
Lorem ipsum dolor sit amet, consectetur adipiscing elit. Suspendisse varius enim in eros elementum tristique. Duis cursus, mi quis viverra ornare, eros dolor interdum nulla, ut commodo diam libero vitae erat. Aenean faucibus nibh et justo cursus id rutrum lorem imperdiet. Nunc ut sem vitae risus tristique posuere.
Du bist jetzt am Ende des Kapitel angekommen. Wenn du möchtest, kannst du gleich mit dem nächsten Kapitel weitermachen. Wähle es dazu in der Seitenteile im linken Teil deines Bildschirms unter Kapitelübersicht aus.
Tobias Meisen ist Professor für Technologien und Management der Digitalen Transformation an der Bergischen Universität Wuppertal. Seine Forschungsinteressen sind Deep and Machine Learning, Knowledge Graphs, Semantic Interoperability, Transfer Learning und Explainable and Transparent Artificial Intelligence.