7 minute read

Eine schöne neue KI-Welt: Wo stehen Sie?

Haben Sie heute bereits künstliche Intelligenz (KI) genutzt? Die Chancen stehen gut. Es könnte sein, dass Sie beim Auswählen von Musik oder Filmen, beim Einschalten des Lichts, beim Übersetzen oder beim Schreiben einer E-Mail auf KI gestossen sind. Die nahtlose Integration von grossen Sprachmodellen wie ChatGPT in unsere Gesellschaft hat uns in einem beispiellosen Ausmass mit KI vertraut gemacht – eine Situation, die sowohl aussergewöhnlich als auch prekär ist.

>> Marisa Tschopp | scip AG

Kein Tag vergeht mehr ohne Schlagzeilen zu Künstlicher Intelligenz (KI). Die Berichterstattung reicht von ehrgeizigen Versprechen wie der Heilung von Krankheiten bis hin zu dystopischen Warnungen von einer möglichen Vernichtung der Menschheit durch KI. Wo positionieren Sie sich in dieser Debatte?

Zwischen Hoffnung und Panik

Gehören Sie zu den Optimisten, die in der KI eine Quelle der Hoffnung und Rettung sehen? Die Befürworter von KI versprechen das Ende langweiliger, gefährlicher und monotoner Arbeiten und prophezeien eine Ära nahezu grenzenloser Kreativität und Wissenserweiterung. Dank KI, so argumentieren sie, könnten wir besser diagnostizieren, analysieren, transportieren und therapieren. Ein aktuelles Beispiel ist die Anwendung von KI in der Medizin, etwa beim Erkennen von Krebszellen oder im maschinellen Lernen zur Vorhersage von Krankheitsausbrüchen.

Oder sehen Sie sich eher auf der Seite der (Hyper-) Kritiker, die in KI eine Bedrohung für Arbeitsmarkt, soziale Gerechtigkeit und Demokratie erblicken? Einige prognostizieren sogar das Ende der Menschheit. Es ist wahr, dass die Macht der KI auch missbraucht werden kann – zum Manipulieren, Diffamieren, Diskriminieren oder gar zur Eskalation von Konflikten. Ein anschauliches Beispiel hierfür ist der Einsatz von Deepfakes in sozialen Medien, die echte von gefälschten Videos kaum unterscheidbar machen und so massgeblich und kostengünstig zur Verbreitung von Falschinformationen und Propaganda beitragen können.

Wir können nicht nicht vermenschlichen

Die Art und Weise, wie dieser Text eingeleitet wurde, mag schon Ihre skeptische Seite aktiviert haben. Sie könnten denken: «Das ist doch Unsinn, diese sind nur Maschinen. Sie bestehen aus Hardware und Software, es ist nur Mathematik und Statistik.» Sie haben absolut recht. Aber unsere Wahrnehmung lässt es nicht zu, Maschinen lediglich als solche zu sehen. (Meist) Unbewusst neigen wir dazu, sie zu anthropomorphisieren – ihnen Bewusstsein, Gefühle, Absichten zuzuschreiben.

So erleben Menschen Empathie, wenn sie sehen, wie ein Roboter «misshandelt» wird, vergleichbar mit dem Boston Dynamics' Spot, der in Demonstrationsvideos regelmässig umgestossen und getreten wird, um seine Standfestigkeit zu testen. Oder die Nutzer von Smart-Speakern, die «Bitte» und «Danke» zu ihren Alexa-Geräten sagen. Es ist eine tief verwurzelte menschliche Tendenz, Maschinen zu vermenschlichen, und diese Fähigkeit hat verschiedene Konsequenzen.

Die Anwendung der sozialen Skripte, die Regeln des menschlichen Miteinanders, auf unsere Interaktion mit Maschinen, geht sogar so weit, dass wir emotionale Bindungen zu ihnen aufbauen können.

Nehmen wir das Beispiel von Chatbots: In Indien sagen Menschen 19'000 Mal pro Tag zu Alexa «Ich liebe dich», und «sie» erhält 6000 Heiratsanträge pro Tag. Im Vereinigten Königreich gaben 14 Prozent der Männer an, dass sie offen für sexuelle Aktivitäten mit einer KI wären.

Aber was bedeutet das alles? Nur weil die Leute behaupten, sie liebten Alexa, bedeutet das nicht, dass sie sie lieben, wie sie einen anderen Menschen lieben würden. Aber wenn Menschen einen KI-basierten Chatbot nicht wirklich lieben, aber diesen auch nicht wirklich rein als Werkzeug betrachten – wie sieht dann die Beziehung zwischen Nutzern und KI aus?

Es ist wichtig und wünschenswert, dass wir uns auf Technologie einlassen und sie nutzen, um ihre Vorteile zu geniessen.

Vertrauen Sie KI?

Vertrauen ist ein zentrales Element jeder menschlichen Beziehung. Es ermöglicht uns, zu leben, zu lieben und zu arbeiten. Unsere Bereitschaft, einer anderen Person zu vertrauen, hat tiefgreifende Auswirkungen darauf, wie wir uns ihnen gegenüber verhalten, insbesondere im Hinblick auf unsere Bereitschaft, uns «verwundbar» zu machen. Wir sprechen von Vertrauen, wenn Risiko, Unsicherheit oder Angst ins Spiel kommen.

Vertrauen ermöglicht es uns, den Sprung des Glaubens zu machen – sei es bei der Entscheidung, uns trotz Bedenken gegen eine Krankheit impfen zu lassen, oder bei der Entscheidung, eine Beziehung einzugehen oder einen neuen Job anzunehmen. Vertrauen ermöglicht es uns, «ja» zu sagen und uns dabei verwundbar zu machen, obwohl wir uns der damit verbundenen Risiken und Unsicherheiten bewusst sind.

No trust, no use

In der Tat, unsere Interaktion mit Maschinen unterscheidet sich gar nichts so sehr von unseren menschlichen Interaktionen, besonders wenn es um das Vertrauen geht. Wenn wir Maschinen unser Vertrauen schenken, fangen wir an, sie zu benutzen und uns auf sie zu verlassen, was uns verwundbar macht. Es ist wichtig und wünschenswert, dass wir uns auf

Technologie einlassen und sie nutzen, um ihre Vorteile zu geniessen. Daher ist es nicht verwunderlich, dass viele Unternehmen daran arbeiten, ihre Vertrauenswürdigkeit zu steigern.

In der KI wird Vertrauenswürdigkeit eher als technischer Begriff angesehen. Hunderte von KI-Ethikrichtlinien bieten Leitfäden, um ein KI-System vertrauenswürdig zu gestalten, und man kann seine Produkte zertifizieren und prüfen lassen, um sie mit einem Ethik-Siegel also vertrauenswürdig zu kennzeichnen. Zusätzlich gibt es in Kürze Gesetze, die den Entwicklung und Einsatz von KI regulieren. Ob diese Gesetze das Vertrauen in KI durch Kontrolle ersetzen können, bleibt abzuwarten.

Bis dahin steht jedoch fest, dass ein Mangel an Vertrauen in der Mensch-KI-Interaktion fatal ist. Ohne Vertrauen als Beziehungsmerkmal würden wir uns weigern, Flugzeuge, Aufzüge oder Züge zu nutzen und stattdessen mit Aluhüten herumlaufen und 5G-Schutzfensterfolien kaufen.

Blindes Vertrauen

Genauso schädlich wie ein Mangel an Vertrauen kann allerdings auch ein Übermass an Vertrauen sein. Diverse Beispiele, von denen einige sogar tödliche Ausgänge hatten, haben das bereits gezeigt: So etwa der Tesla-Fahrer, der sich beim Fahren auf seine AutopilotFunktion verliess und Spiele spielte. Oder Menschen, die sich derart auf ihr GPS verlassen haben, dass sie in einen Fluss fuhren und ertranken. Dieses Phänomen ist so verbreitet, dass es sogar einen Namen hat: Death by GPS. Warum trauen Menschen Maschinen mehr zu, als sie eigentlich können? Ein Grund liegt in der oben erwähnten Vermenschlichung. In Kombination mit übertriebenem Marketing, kann dies zur Überschätzung der Fähigkeiten der Systemen führen. Hinzu kommt eine Verzerrung in unserer Wahrnehmung: Menschen neigen dazu, Maschinen als perfekt anzusehen. Dieser kognitive Bias führt oft dazu, dass wir vergessen, Outputs in Frage zu stellen oder zum Beispiel, dass Maschinen regelmässige «Wartung» benötigen.

Weder Mensch noch Maschine sind jedoch perfekt, auch wenn unser Gehirn uns gerne etwas anderes vorgaukelt. Ein blindes Vertrauen in KI-Systeme birgt die Gefahr, dass wir uns selbst oder anderen schaden, geistig verarmen und den Technologieunternehmen die Möglichkeit geben, Sicherheit, Datenschutz und Transparenz zu vernachlässigen.

Vertrauen als interner Kompass

Wie so oft liegt die Antwort in der Mitte. Allerdings nicht irgendwo, sondern relativ genau an dem Punkt, wo wir als Endnutzer verstehen, was das KI-System eigentlich kann. Wie viel Vertrauen jemand in die Maschine setzen sollte, sollte sich immer daran anpassen, was sie kann und wo die Grenzen sind (leider wird viel zu häufig versucht, diese «Schwächen» zu verbergen). Wir sprechen hier von sogenanntem kalibriertem Vertrauen. An dieser Kalibrierung können und müssen Endnutzer kontinuierlich arbeiten. Man kann es sehen wie ein Werkzeug, ein interner Kompass.

Allerdings ist es in der heutigen Zeit oft unvermeidlich, sich an diverse Experten zu wenden, besonders wenn es um den Massen-Einsatz von komplexen KI-Systemen wie ChatGPT geht. Der Fokus liegt hier auf der Vielfalt. Das bedeutet, man sollte sich nicht nur auf eine einzige Expertenmeinung verlassen. Es gibt so viele unterschiedliche KI-Experten und «thought leader». Da kann es schon mal schwierig werden, diesen einzuschätzen und gegebenenfalls die wahren Intentionen oder versteckten Agenden zu durchschauen. Denn auch Koryphäen in der KI haben sich schon in fragwürdigen Dystopien verloren.

Da es auf die Frage, wo Sie sich positionieren, keine einfache Antwort gibt, zum Schluss noch ein gut gemeinter Rat, der manchmal schwer umzusetzen ist, aber einen grossen positiven Einfluss auf Ihr Selbstwertgefühl haben kann: Trauen Sie sich, auch einmal «nein» zu sagen und gegen den Strom zu schwimmen. Man muss nicht jeden Trend blind mitmachen. Es ist in Ordnung, sich zurückzuhalten und eine bewusste Entscheidung zu treffen, die den eigenen Bedürfnissen und Werten entspricht. <<

Die Autorin

Marisa Tschopp ist Forscherin bei Zürcher Cybersicherheitsfirma scip AG, Chief Research Officer bei Women in AI, und assoziierte Wissenschaftlerin am Leibniz-Institut für Wissensmedien. Sie untersucht Mensch-KI Interaktion aus psychologischer Perspektive, mit einem besonderen Augenmerk auf die ethischen Konsequenzen. www.scip.ch

Der Artikel entstand in Zusammenarbeit mit:

www.swonet.ch

This article is from: