Unsere Lernplattform ist bislang nicht auf eine Nutzung an mobilen Endgeräten angepasst. Wir würden dich deshalb darum bitten stattdessen einen Laptop zu verwenden.
StartseiteIn diesem Kapitel informiert Prof. Tobias Meisen über die Grundlagen künstlicher Intelligenz. Die Ursprünge intelligenter Computer, sowie die grundsätzliche Methodik und die zukünftige Bedeutung werden analysiert und so der Grundstein für die - folgenden - konkreten Anwendungsbereiche künstlicher Intelligenz gelegt.
Es ist zulässig zu fragen, warum Deep Learning, wenn doch so vielfältig, erst in den 2000ern erfolgreich umgesetzt wurde und nicht in den 1960ern. Die Antwort scheint überraschend: Die Rahmenbedingungen waren nicht gegeben. Die Anfänge von künstlichen neuronalen Netzen werden 1943 durch Warren McCulloch und Walter Pitts gelegt. 1958 publiziert Frank Rosenblatt mit dem Perzeptron-Modell die Grundlage für künstliche neuronale Netze. Eine Grundlage, die bis heute Bestand hat. Elf Jahre später 1969 zeigen Marvin Minsky und Seymour Papert jedoch, dass wichtige Probleme, wie die Exklusiv-Oder-Funktion (XOR), mit einem Perzeptron nicht lösbar ist, sondern Klassifikationssysteme höherer Ordnung benötigen. Diese Erkenntnis trägt dazu bei, dass Forschungsgelder gestrichen werden und ein vorläufiges Ende der Forschungen auf dem Gebiet der künstlichen neuronalen Netze einsetzt. Es dauert bis in die Mitte der 1980er bis Minskys Ausführungen durch die Nutzung von Backpropagation als Lernverfahren widerlegt werden. Der Name ergibt sich aus der zugrundeliegenden Idee, den Fehler des Netzes beim Trainingsprozess zurück zu propagieren und die bestimmenden Einflussfaktoren in diesem Schritt derart anzupassen, dass der Fehler kleiner wird. Infolgedessen werden immer wieder neue Formen von künstlichen neuronalen Netzen präsentiert, die zwar außerhalb der Forschung nicht für Aufsehen sorgen, die wir aber heute noch in der Anwendung sehen. Herauszuheben sind hier exemplarisch die 1989 von Yann LeCun erdachten Convolutional Neural Networks, die unter anderem für eine Revolution in der Handschriftenerkennung und in der Objekterkennung in Bildern verantwortlich sind. Dennoch sind die Herausforderungen zu Beginn der 2000er nicht lösbar: Für das Training künstlicher neuronaler Netze werden Rechenkapazitäten benötigt, die zu dieser Zeit schlichtweg außerhalb etwaiger Rentabilität liegen. Darüber hinaus bedarf es großer Datenmengen für das Training, deren Ansammlung kostspielig und zeitaufwändig sind.
Deep Learning lässt sich in diesem Zusammenhang mit einem lauernden Luchs vergleichen, der, nachdem er sich an sein Ziel herangepirscht hat, darauf wartet, dass seine Zeit gekommen ist. Die methodischen Grundlagen waren gelegt und dank der voranschreitenden Vernetzung durch das Internet und immer kleineren und günstigeren Sensoren war es nur eine Frage der Zeit, bis erste Durchbrüche gelingen sollten.
Drei nahezu zeitgleiche Ereignisse ermöglichen den Aufbau und das Training tiefer künstlicher neuronaler Netzwerke: Große Datensätze entstehen in Social Media Netzwerken und den Weiten des Internets. Dank der Steigerung und Nutzbarmachung der Rechenleistung von Grafikprozessoren (GPUs) steht Rechenkapazität für das Training zur Verfügung. Voranschreitendes Cloud Computing ermöglicht den Aufbau skalierbarer Infrastrukturen ohne vorab enorme Investitionen in eigene Infrastrukturen zu tätigen. Erst das Zusammenkommen dieser drei Faktoren trägt letztendlich dazu bei, dass neuronale Netze die Hoffnungen der 60er Jahre in geringem Maße erfüllen können. Heutige tiefe künstliche neuronale Netze sind in der Lage, Bilder schneller und genauer zu klassifizieren als Menschen. Systeme wie Amazon Echo oder Siri verstehen natürliche Sprache und sprechen zu uns und autonome Autos sind auf dem Weg Realität zu werden. Aber dennoch handelt es sich bei all diesen Anwendungen um schwache künstliche Intelligenzen, die der Definition von Elaine Rich genügen. Wo stehen wir also, wenn es um starke künstliche Intelligenzen geht?
In seinem vielbeachteten Buch „Superintelligence“ aus dem Jahr 2014 geht der schwedische Philosoph Nick Bostrom, der an der Universität Oxford lehrt, dieser Frage scheinbar aus dem Weg. Er diskutiert in einer Art Gedankenexperiment was passiert, wenn Maschinen den Menschen an allgemeiner Intelligenz übertreffen. Am Ende seines Buches warnt er vor der leichtsinnigen Forschung an einer Superintelligenz. Und auch wenn wir hiervon noch sehr weit entfernt sind, so ergeben sich zwei zentrale Fragen, die wir uns lieber früher als zu spät stellen und in unserer Gesellschaft diskutieren sollten: Welche Werte wollen wir einer künstlichen Intelligenz mitgeben und wer bestimmt, welche Werte vermittelt werden?
Lorem ipsum dolor sit amet, consectetur adipiscing elit. Suspendisse varius enim in eros elementum tristique. Duis cursus, mi quis viverra ornare, eros dolor interdum nulla, ut commodo diam libero vitae erat. Aenean faucibus nibh et justo cursus id rutrum lorem imperdiet. Nunc ut sem vitae risus tristique posuere.
Lorem ipsum dolor sit amet, consectetur adipiscing elit. Suspendisse varius enim in eros elementum tristique. Duis cursus, mi quis viverra ornare, eros dolor interdum nulla, ut commodo diam libero vitae erat. Aenean faucibus nibh et justo cursus id rutrum lorem imperdiet. Nunc ut sem vitae risus tristique posuere.
Du bist jetzt am Ende des Kapitel angekommen. Wenn du möchtest, kannst du gleich mit dem nächsten Kapitel weitermachen. Wähle es dazu in der Seitenteile im linken Teil deines Bildschirms unter Kapitelübersicht aus.
Tobias Meisen ist Professor für Technologien und Management der Digitalen Transformation an der Bergischen Universität Wuppertal. Seine Forschungsinteressen sind Deep and Machine Learning, Knowledge Graphs, Semantic Interoperability, Transfer Learning und Explainable and Transparent Artificial Intelligence.