Artificial Intelligence

Gibt es künstliche Intelligenz? Warum der Begriff in die Irre führt

Der Hype um künstliche Intelligenz kennt keine Grenzen. Kaum ein Software-Unternehmen, das nicht angeblich auf KI setzt. Aber ist der Begriff eigentlich der richtige? Und woher rührt die Panik, die oftmals rund um KI gemacht wird?

16.10.2017 Quelle: t3n Luca Caracciolo
KI-Existenz
Gibt es eigentlich eine Künstliche Intelligenz? (Foto: Shutterstock)

Wer die Berichterstattung der vergangenen Monate zum Thema künstliche Intelligenz verfolgt hat, der könnte es mit der Angst zu tun bekommen: Eine KI, die lernt zu bluffen und einen Poker-Weltmeister schlägt. Eine KI, die eine eigene Sprache entwickelt und von Facebook gestoppt wird . Eine KI, vor der Tech-Pionier Elon Musk warnt, weil sie eines Tages intelligenter als der Mensch werden könnte. Dieser angstmachende Diskurs zeigt, wie stark die Vorbehalte gegenüber künstlicher Intelligenz sind.

Er zeigt aber auch, wie undifferenziert dieser Diskurs ist. Denn die eine künstliche Intelligenz gibt es nicht. Oftmals wird für sehr unterschiedliche maschinelle Verfahren der Begriff künstliche Intelligenz verwendet, weil er aktuell den meisten Buzz erzeugt. Nicht umsonst: KI gilt als die vielleicht wichtigste Technologie-Sparte, weil sie so viele andere Bereiche antreibt. Autonomes Fahren, Sprachsteuerung, Augmented Reality – all diese Zukunftstechnologien hängen in ihrer Entwicklung hochgradig davon ab, welche Fortschritte die KI-Forschung macht – beispielsweise in der Bild- und Objekterkennung. Wenn eine KI – vereinfacht gesagt – lernt, seine Umwelt zu verstehen, also etwa zu unterscheiden, ob es sich um einen Hund oder ein kleines Kind handelt, dann wäre das ein wichtiger Schritt für ein autonomes Fahrsystem im Stadtverkehr. Oder im Bereich Augmented Reality: Erst wenn eine KI beginnt, die Umwelt nicht nur in Form von abstrakten Formen und Objekten zu verarbeiten, sondern auch wirklich die Objekte als Gegenstände wie Tisch, Lampe und Stuhl zu verstehen, wird es im Rahmen von AR-Technologien möglich sein, digitale Objekte kontextabhängig, persistent und für den Nutzer logisch einzubetten.

Künstliche Intelligenz als Buzzword

Unabhängig von dieser Schlüsselstellung im Bereich Zukunftstechnologien ist künstliche Intelligenz aber leider ein Sammelbegriff für fast jedwede Form der maschinellen Datenverarbeitung. Egal was für Algorithmen im Hintergrund laufen, wie herkömmlich und veraltet eingesetzte maschinelle Methoden sind – sie werden als künstliche Intelligenz bezeichnet, weil sich aktuell nahezu jedes Software-Startup mit dem Hypebegriff schmücken will. "Im Hintergrund arbeitet eine künstliche Intelligenz", "Eine KI sorgt für die Auswahl" oder "Ohne KI wäre das nicht möglich". Meist gilt jedoch: Mit künstlicher Intelligenz hat dies alles herzlich wenig zu tun.

Einerseits handelt es sich oftmals noch um die "good old AI", also regelbasierte Systeme – sogenannte Expertensysteme –, die nicht eigenständig lernen. In einem Expertensystem wird das Wissen eines bestimmten Fachgebiets in Form von Regeln und Wissen zusammengefasst. Solche Systeme, die in den 80er Jahren entwickelt wurden, sind relativ primitiv und lassen sich auf die Formel herunterbrechen: Wenn "A", dann "B". Andererseits hängt das undifferenzierte KI-Labeling aber auch mit dem unklaren KI-Begriff zusammen.

Starke und schwache KI

In der Fachwelt wird zwischen starker und schwacher KI unterschieden. Von starker KI sprechen Forscher, wenn eine Intelligenz selbstständig agiert und eine Art Bewusstsein hat. Wir kennen sie aus Filmen wie Terminator oder Star Trek. Allerdings ist die Menschheit weit davon entfernt, eine solche KI zu entwickeln. Bis heute ist wissenschaftlich noch gar nicht genau geklärt, was eigentlich das Bewusstsein genau ist – geschweige denn, wie man es reproduzieren könnte.

Bei den heute entwickelten Systemen sprechen die Forscher von schwacher KI – also einer künstlichen Intelligenz, die auf einen sehr eingegrenzten Bereich angewendet wird, zum Beispiel bei der Analyse von Patientendaten zwecks der besseren Diagnose oder im Bereich der Bilderkennung für die Sortierung großer Fotobestände. Der entscheidende Unterschied ist – vereinfacht ausgedrückt: Eine KI, die für Bilderkennung entwickelt wird, kann ihre Schlüsse nicht auf ein anderes Feld übertragen. Schon gar nicht selbstständig wie der Mensch.

Dennoch sind neuere Methoden des maschinellen Lernens wie neuronale Netze besonders spannend, weil sie dazu fähig sind, aus großen Datenmengen eigenständig zu lernen, um etwa Muster zu erkennen. Erstmalig beschrieben und umgesetzt wurden künstliche neuronale Netze bereits in den 50er Jahren. Mit der Leistungsfähigkeit heutiger Computer ergeben sich allerdings neue Möglichkeiten für solche Verfahren.

Selbst wenn neuere Methoden des maschinellen Lernens wie neuronale Netze zum Einsatz kommen, heißt das aber noch lange nicht, dass die komplexen Strukturen eines menschlichen Gehirns auch nur annähernd erreicht werden. KI-Forscher Toby Walsh bezeichnete in einem Interview mit dem t3n Magazin das menschliche Gehirn als das „komplexeste System, das wir in unserem Universum kennen“. Kein System könne es bisher mit den Milliarden von Neuronen, den Billionen von Verbindungen und Synapsen im menschlichen Gehirn aufnehmen.

Bedrohung durch KI – eine lange Tradition

Woher kommt aber dieses starke Narrativ der Bedrohung durch KI-Systeme? Interessant ist jedenfalls, dass bereits in der theoretischen Begründung des Computers von Alan Turing das Bedrohungspotenzial mitschwingt. Turing hat im Rahmen seiner Forschung zur universellen Rechenmaschine behauptet, dass eine solche Maschine in der Lage sein wird, jedes Problem zu lösen – mit einer Bedingung: Es muss sich durch Algorithmen darstellen lassen. Weitergedacht: Das würde bedeuten, das jedweder durch Algorithmen darstellbare kognitive Prozess, auch der eines Menschen, von einer Maschine durchgeführt werden kann. In dieser Logik braucht es nur genug Rechenkraft und entsprechende Algorithmen, bis Maschinen die Intelligenz des Menschen überschreiten.

In der Folge gab es heftige Debatten, ob das menschliche Denkvermögen tatsächlich komplett von Algorithmen darstellbar ist. Heftigen Gegenwind erhielt diese These in KI-Forscherkreisen vom Philosophen John Searle in den 70er Jahren, der darauf beharrte, dass menschliches Denken an den menschlichen Körper und insbesondere an das Gehirn gebunden ist. Oder anders formuliert: Der Mensch ist auch Körper und lässt sich nicht allein auf sein Denkvermögen reduzieren. Seine Emotionen haben einen unmittelbaren Einfluss auf sein Denken und seine Intelligenz. Laut Searle lässt sich das menschliche Denken zwar imitieren, aber nicht abbilden. In dieser Logik wäre der Begriff der künstlichen Intelligenz zumindest fragwürdig, weil eine Maschine niemals eine Intelligenz im menschlichen Sinne erreichen könnte – ganz egal, wie leistungsstark ein Computer ist.

Die technizistische Perspektive des Silicon Valley, dass sich mit Technologie eines Tages nahezu alle menschlichen Probleme lösen lassen, befeuert allerdings den Glauben an eine KI-Entwicklung, die eines Tages die menschliche Intelligenz nicht nur übersteigt, sondern auch überholt. Denn in dieser Logik ist Technologie zu allem fähig, hier spiegelt sich auch die Haltung eines Peter Thiels wider, der es vor allem auf den Tod abgesehen hat. Thiel sieht den Tod als Problem, das gelöst werden kann – wie ein Programmierproblem, das mit den richtigen Codezeilen überwindbar ist. Aber selbst, wenn wir eines Tages ein Backup von unsrem Gehirn machen könnten, wie viel von uns als Mensch würde dann noch in diesem Backup stecken? Und wäre es dann überhaupt noch intelligent?

Artificial Intelligence Augmented & Virtual Reality RSS Feed abonnieren