5 minute read
Künstliche Intelligenz – Chance, Bedrohung, Realität?
from Denkraum 4
Digitalisierung, Industrie 4.0, Internet of Things – diese Begriffe bewegen zurzeit Fachleute wie Laien. Die Künstliche Intelligenz (KI) spielt dabei eine zentrale Rolle. Doch was macht ein Computersystem intelligent? Und sind die Systeme intelligenter als Menschen – oder können sie es demnächst werden?
von Christine Klein
Advertisement
// Seit es Computer gibt, versuchen Wissenschaftler, diese dazu zu bringen, nicht nur vorgegebenen Algorithmen zu folgen, sondern selbst intelligent zu handeln. Allerdings sind trotz jahrzehntelanger Forschung heutige KI-Systeme immer noch weit entfernt von der menschlichen Intelligenz. Eher handelt es sich um die Simulation einzelner Aspekte menschlicher Intelligenz, zum Beispiel die Fähigkeit, Bilder oder Wörter wiederzuerkennen oder logische Schlussfolgerungen aus einer großen Datenmenge zu ziehen.
Wie bringt man einen Computer dazu, intelligent zu handeln? Anders als das menschliche Gehirn gibt es für „intelligente“ Software keine einheitliche Lösung, welche die Vielfalt der zu lösenden Probleme im Sinne eines „Universal Problem Solvers“ klären könnte. Es bedarf eines erfahrenen Informatikers, um für ein spezifisches Problem eine eigens zugeschnittene Lösung zu entwickeln.
Für klar umrissene Aufgaben, etwa die Diagnose einer Krankheit, lassen sich die einem Arzt bekannten Fakten und Regeln in einer „Wissensbasis“ zusammenfassen, sodass ein Algorithmus daraus Schlussfolgerungen ziehen kann. Damit wird dem Computer ermöglicht, aus gewissen Krankheitssymptomen und Laborparametern auf Basis dieses explizit modellierten Wissens Schlüsse über eine vorliegende Krankheit zu ziehen und Vorschläge für Therapiemaßnahmen zu unterbreiten. Mit dieser umfassenden Kenntnis ist er dem Wissen des Arztes überlegen. Allerdings wird die end
Welch ein Omen: In Stanley Kubricks berühmten Film „2001: Odyssee im Weltraum“ (1968) wird ausgerechnet der wichtigste Helfer der Mission, der perfekte Computer HAL 9000, zum gefährlichsten Gegner. Nicht Aliens, sondern das Produkt menschlichen Erfindungsreichtums wird zur tödlichen Gefahr!
Was heißt eigentlich „Intelligenz“?
„Intelligenz ist die Fähigkeit, Regelmäßigkeiten und Strukturen aller Art zu erfassen, Daten zu komprimieren und zukünftige Ereignisse daraus abzuleiten. Genau diese Fähigkeit bietet einen evolutionären Vorteil, denn der Intelligentere kann sein Handeln entsprechend besser an seine Umwelt anpassen.“ (nach Jean-Paul Delahye: „Universelle Intelligenz – Die Formel“ in: Spektrum der Wissenschaft, 17.10.2016)
Mein Freund, der Roboter
Der Biochemiker und Science-Fiction-Autor Isaac Asimov hat bereits in den 1950er-Jahren in seinem Buch „I, Robot“ diese drei berühmten Robotergesetze formuliert: 1. Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen. 2. Ein Roboter muss den Befehlen der Menschen gehorchen – es sei denn, solche Befehle stehen im Widerspruch zum ersten Gesetz. 3. Ein Roboter muss seine eigene Existenz schützen, solange sein Handeln nicht dem ersten oder zweiten Gesetz widerspricht. Der Vorteil dieser drei Regeln ist, dass sie unumstößlich programmiert sind. Hätten wir Menschen ein ähnlich verbindliches Regelwerk, hätten wir wohl eine gerechtere und friedlichere Welt.
gültige Entscheidung auch heute noch beim behandelnden Arzt und nicht beim Computer liegen, der aus den Daten, der persönlichen Erfahrung und der konkreten Befragung des Patienten eigene Schlüsse ziehen wird. Ob diese unbedingt „richtiger“ sind, sei dahingestellt – Medizin ist eben keine exakte Wissenschaft.
Ähnlich sieht es beim heftig diskutierten autonomen Fahren aus. In Konfliktsituationen wird KI strikt rational entscheiden. Doch wie sieht es aus, wenn nur die Möglichkeit zwischen Kind oder Seniorenpaar bei einem drohenden Unfall besteht? Wer ist letztlich verantwortlich für solche „Kollateralschäden“, über die der Computer entscheiden muss? Eine Frage, die künftig Gerichte, Versicherungen, aber auch Mobilitätsunternehmen beschäftigen muss.
Für andere Aufgaben haben sich sogenannte lernende Verfahren bewährt. Ein gutes Beispiel ist die Bilderkennung, wie sie etwa in Automaten für die Annahme von Pfandflaschen verwendet wird. Anstelle explizit zu definieren, wie eine Pfandflasche aussieht, wird einem lernenden Algorithmus eine große Menge an Bildern vorgelegt, die sowohl Pfandflaschen als auch Einwegflaschen zeigen („Training“). Auf dieser Datenbasis „lernt“ der Rechner zwischen beiden Arten von Flaschen zu unterscheiden. Technisch realisiert wird das durch „neuronale Netze“. Damit wird versucht, das menschliche Gehirn, das aus einer Vielzahl von Zellen (Neuronen) besteht, die untereinander durch Nervenbahnen verknüpft sind, mit mathematischen Mitteln nachzubilden. Beim Training werden – analog zum Lernen im menschlichen Gehirn – die Verknüpfungen zwischen den Neuronen so angepasst, dass das neuronale Netz schließlich Pfandflaschen richtig erkennen kann.
Sind die Systeme intelligenter als Menschen – oder können sie es werden? Ob Rechner jemals intelligenter werden können als Menschen, ist nach wie vor umstritten – und je nach Perspektive mit großen Hoffnungen oder blanken Ängsten verbunden. Zwar sind die jüngsten Erfolge der KI-Forschung durchaus beeindruckend. So gelang es Computern bereits, nicht nur Schachgroßmeister oder den Weltrangführer im sehr komplexen Brettspiel „Go“ zu schlagen, sondern auch die amerikanische Quizshow „Jeopardy!“ zu gewinnen. Allerdings sind viele Wissenschaftler der Meinung, dass das Vorgehen des Computers hier stets sehr maschinenmäßig ist und weniger einem menschlichen Verhalten ähnelt.
Bereits 1950 entwickelte der britische Informatiker Alan Turing einen Test, um festzustellen, ob eine Maschine ein dem Menschen gleichwertiges Denkvermögen hat. In diesem legendären Test führt ein menschlicher Fragensteller via Tastatureigabe eine Kommunikation mit einem Menschen oder einem Computer. Ziel der Konversation ist es, zweifelsfrei zu erkennen, ob das Gegenüber Mensch oder Computer ist. Turing selbst hatte prognostiziert, dass es bis zum Jahr 2000 Systeme gäbe, die für einen durchschnittlichen Anwender, der fünf Minuten kommuniziert, höchstens eine 70-prozentige Chance bieten, Mensch oder Maschine erfolgreich zu identifizieren. Diese Vorhersage hat sich bis dato nicht erfüllen lassen, allerdings ist der Test zur Bewertung von KI seit jeher umstritten.
Schöne neue Welt? Andere Forscher sind progressiver und denken, dass in nicht allzu ferner Zukunft Rechner die Fähigkeiten der Menschen erreichen und übertreffen. Es ist offensichtlich, dass dies die menschliche Zivilisation radikal verändern würde. Aber ist Künstliche Intelligenz erst erreicht, wenn die Maschine ebenso irrational und teilweise selbstzerstörerisch funktioniert wie der Mensch?
Marvin Minsky, der im letzten Jahr verstorbene Doyen der Künstlichen Intelligenz, hat auf das Argument, dass ein Computer niemals eine Sinfonie wie Mozart komponieren könne, gerne geantwortet, dass er selbst und die meisten anderen Menschen das ebenso wenig könnten. Vielleicht sollte man sich ja künftig – ohne Utopien und ohne Fortschrittsängste – auf die jeweiligen Eigenheiten und das sinnvolle Zusammenspiel von menschlicher und künstlicher Intelligenz konzentrieren. Denn ist es nicht fraglich, ob der Mensch allein die aktuellen und künftigen Probleme, die er selbst geschaffen hat, ohne Hilfe lösen kann? //