Unsere Lernplattform ist bislang nicht auf eine Nutzung an mobilen Endgeräten angepasst. Wir würden dich deshalb darum bitten stattdessen einen Laptop zu verwenden.
StartseiteIn diesem Kapitel informiert Prof. Tobias Meisen über die Grundlagen künstlicher Intelligenz. Die Ursprünge intelligenter Computer, sowie die grundsätzliche Methodik und die zukünftige Bedeutung werden analysiert und so der Grundstein für die - folgenden - konkreten Anwendungsbereiche künstlicher Intelligenz gelegt.
Als im Jahr 1956 in Hanover (New Hampshire) die Darthmouth Conference nach sechs Wochen zu Ende geht, beginnen die goldenen Jahre der KI-Forschung. Diese halten bis zur Veröffentlichung des Papers „Artificial Intelligence: A General Survey“ durch Sir James Lighthill im Jahr 1973 im Vereinigten Königreich und bis zur Verabschiedung der Mansfield Amendments (benannt nach Mike Mansfield) im Jahr 1969 in den USA an. Ausgehend von – völlig überzogenen – Erwartungen an künstliche Intelligenz werden in den 60er Jahren Forschungsgelder in Millionenhöhe unter anderem in den USA und Großbritannien ausgegeben, wobei in der Regel keine konkreten Zielbedingungen formuliert werden. Herbert A. Simon, Nobelpreisträger (1978) und Turing Award Gewinner (1975), behauptete 1965 „Maschinen werden in zwanzig Jahren in der Lage sein, jede Arbeit zu erledigen, die ein Mensch erledigen kann“. Auch Marvin Minsky, einer der Urväter der künstlichen Intelligenz und Gewinner des Turing Awards 1969, versprach: „Innerhalb einer Generation wird das Problem der Schaffung ‚künstlicher Intelligenz‘ im Wesentlichen gelöst sein.“ (1967) und „In drei bis acht Jahren werden wir eine Maschine mit der allgemeinen Intelligenz eines durchschnittlichen Menschen haben“ (1970). Wir wissen heute, dass dies nicht der Fall war und so ist es auch nicht verwunderlich, dass im Lighthill Report – dies ist der allgemein übliche Name für das von Sir James Lighthill veröffentlichte Papier – die Aussage: „In keinem Teil des Feldes haben die bisher gemachten Entdeckungen die damals versprochene große Wirkung gezeigt“ zu finden ist. Dieser für die britische Regierung verfasste Bericht und die in den Mansfield Amendments formulierten Veränderungen in den Förderbedingungen der US-Militärforschung markieren das Ende einer Ära und leitet den ersten sogenannten „AI winter“ein – eine Zeit, in der sich nur noch die größten Verfechter von künstlicher Intelligenz mit der Forschung auseinandersetzen und das Begriffspaar „künstliche Intelligenz“ in Forschungsanträgen gemieden wird, wie Pig Pen von den Peanuts das Wasser meidet.
Eine Wiederbelebung des Begriffspaares zeichnet sich jedoch bereits um 1980 ab, als mit den sogenannten Expertensystemen eine regelbasierte Form der künstlichen Intelligenz, die auf Wissensbasen und Inferenzmaschinen (Regelinterpreter) aufbaut, neue Potentiale aufzeigt. Die Beschäftigung mit dieser Form der künstlichen Intelligenz, die mit der aktuellen Form und den heute zugrundeliegenden Methoden wenig gemein hat, belebt zwar zunächst die Forschung und Entwicklung, hält aber ebenfalls nur bis zu den frühen 90er Jahren an. Schnell zeigt sich, dass die Nutzung und Entwicklung von Expertensystemen zu enormen Wartungsaufwänden führen und die Abbildbarkeit von Wissen in einem statischen Regelwerk starken Beschränkungen unterworfen ist. Die Folge ist der zweite AI-Winter. Doch die Forscher*innen haben dazu gelernt. Anstelle weiterhin die künstliche Intelligenz zu bemühen, beginnen sie während des AI-Winter damit, ihre Forschung unter anderen Begrifflichkeiten zu publizieren, die nicht dem der künstlichen Intelligenz anhaftenden Stigma unterliegen. Begriffe, wie beispielsweise maschinelles Lernen (Machine Learning), wissensbasierte Systeme (Knowledge-based Systems), Data Mining, Business Rule Management, kognitive Systeme (Cognitive Systems) oder intelligente Agenten (Intelligent Agents) entstehen und etablieren sich. Hierdurch wird einerseits eine Abgrenzung zu den allgemeinen Zielen der künstlichen Intelligenz vermittelt, wie sie mit dem Aufkommen dieses Forschungsfeldes formuliert wurden. Andererseits erlaubt dieses Vorgehen, neue Fördermittel zu akquirieren, indem spezifische und deutlich reduzierte Versprechungen gemacht werden. Auch wenn im Anschluss daran einzelne Errungenschaften, wie 1997 der Sieg von Deep Blue über den damalig amtierenden Schachweltmeister Garry Kasparov, ihren Beitrag zum Aufleben von künstlicher Intelligenz liefern, so dauert es dennoch bis ins Jahr 2010 bis eine neue Form des KI Frühlings volle Früchte trägt. Nur am Rande sei ergänzt, dass Garry Kasparov auf der DefCon Konferenz 2017 die Intelligenz von Deep Blue mit der eines Weckers verglich. „Die Art und Weise, wie Deep Blue spielte, bot keinen Einblick in die Geheimnisse der menschlichen Intelligenz. Es war so intelligent wie Ihr Wecker“, sagte er und fügte hinzu: „Obwohl die Niederlage gegen einen 10-Millionen-Dollar-Wecker mich nicht besser fühlen ließ.“
Machine Learning (deutsch: maschinelles Lernen) ist eine Anwendung der künstlichen Intelligenz (KI). IT-Systeme lernen automatisch Muster und Zusammenhänge aus Daten und verbessern sich, ohne explizit programmiert zu sein. Dazu bauen Algorithmen beim maschinellen Lernen ein statistisches Modell auf, das auf Trainingsdaten beruht. Das heißt, es werden nicht einfach die Beispiele auswendig gelernt, sondern Muster und Gesetzmäßigkeiten in den Lerndaten erkannt. So kann das System auch unbekannte Daten beurteilen (Lerntransfer) oder aber am Lernen unbekannter Daten scheitern (Überanpassung; englisch overfitting).
Das endgültige Ablegen des auferlegten Stigmas, zumindest bis zum Zeitpunkt des Verfassens dieses Beitrags, ist den Entwicklungen im Bereich der künstlichen Intelligenz zu verdanken, die sich ab 2010 ergeben und auch außerhalb der Forschung für eine hohe Sichtbarkeit und Wahrnehmung sorgen. Hierunter fallen unter anderem die Fortschritte in der automatisierten Übersetzung, der Objekterkennung in Bildern, der Personalisierung von digitalen Inhalten und damit der kommerzialisierten Nutzung von Werbung sowie abschließend die Errungenschaften in Spielen wie Schach, Go, Dota 2 und Starcraft II. Künstliche Intelligenz wird wieder Mode und lässt sich darüber hinaus in der IT-Beratung bestens vermarkten. Begriffe wie das Internet der Dinge, Cyber-Physische Systeme, Big Data und Industrie 4.0, die teilweise zunächst auf die Vernetzung technischer Systeme fokussiert waren, entwickeln sich genauso wie Data Science und Digitale Transformation zu Buzzwords unserer Zeit. Im Vordergrund all dieser Überlegungen steht das Potential von digitalen Daten, das sich durch den Aufbau künstlicher Intelligenzen basierend auf diesen Daten ergibt.
Lorem ipsum dolor sit amet, consectetur adipiscing elit. Suspendisse varius enim in eros elementum tristique. Duis cursus, mi quis viverra ornare, eros dolor interdum nulla, ut commodo diam libero vitae erat. Aenean faucibus nibh et justo cursus id rutrum lorem imperdiet. Nunc ut sem vitae risus tristique posuere.
Lorem ipsum dolor sit amet, consectetur adipiscing elit. Suspendisse varius enim in eros elementum tristique. Duis cursus, mi quis viverra ornare, eros dolor interdum nulla, ut commodo diam libero vitae erat. Aenean faucibus nibh et justo cursus id rutrum lorem imperdiet. Nunc ut sem vitae risus tristique posuere.
Du bist jetzt am Ende des Kapitel angekommen. Wenn du möchtest, kannst du gleich mit dem nächsten Kapitel weitermachen. Wähle es dazu in der Seitenteile im linken Teil deines Bildschirms unter Kapitelübersicht aus.
Tobias Meisen ist Professor für Technologien und Management der Digitalen Transformation an der Bergischen Universität Wuppertal. Seine Forschungsinteressen sind Deep and Machine Learning, Knowledge Graphs, Semantic Interoperability, Transfer Learning und Explainable and Transparent Artificial Intelligence.