14 minute read

Entmystifizierung eines Mythos

Der Begriff KI, der für Künstliche Intelligenz steht, ist zu einem Modewort und aktuellen Hype geworden, ein Synonym für eine neuartige und geniale Software. Doch es ist nur die Spitze des Eisbergs. KI hat eine Geschichte von mindestens 70 Jahren, mit vielen Höhen und Tiefen.

KI ist mit ihren vielversprechenden Anwendungen in aller Munde. Im Gesundheitswesen werden KI-Systeme eingesetzt, um medizinische Bilder zu analysieren und Ärzte bei der Erkennung von Krankheiten zu unterstützen. Im Finanzwesen wird die Betrugserkennung durch die automatische Analyse großer Datenmengen und die Erkennung von Mustern verbessert. In der Fertigung können mit Sensoren ausgestattete Maschinen vorhersagen, wann eine Wartung erforderlich ist, um somit die Effizienz der Produktionslinie zu erhöhen. Auch im Verkehrswesen sind KI-Anwendungen sehr präsent, vor allem im Zusammenhang mit selbstfahrenden Autos und der allgemeinen Verkehrsoptimierung. Im Einzelhandel analysieren KI-Systeme Kundendaten, um Produkte anzupassen und Empfehlungen auszusprechen, im Bildungswesen ermöglichen intelligente Tutorensysteme sowohl ein individuelleres wie auch stärker praxisorientiertes Lernen für Schüler, als auch die Unterstützung von Lehrkräften durch Lernanalysen.

Unsere Reise durch die Geschichte der KI beginnt im Zeitalter der ersten industriellen Revolution, noch vor der

Elektrizität. Mathematiker arbeiteten für Architekten und Ingenieure, um komplexe und zeitaufwändige Berechnungen wie Integrale durchzuführen. Charles Babbage, einstudierter Mathematiker, war frustriert über die Grenzen solcher menschlichen Computer. Er war beeindruckt von einer erstaunlichen, neuen Technologie: der Dampfmaschine. Das berühmte Zitat von Charles Babbage aus dem Jahr 1821 lautete: „Ich wünschte bei Gott, diese Berechnungen wären durch Dampf ausgeführt worden.“ Charles Babbage wurde als „Vater des Computers“ bekannt, da er sein restliches Leben der Entwicklung und dem Bau von Maschinen widmete, die bereits über die Grundlagen eines Prozessors, eines Speichers, eines Programms sowie eine Eingabe der Kommandos mit Hilfe von Lochkarten verfügten. Er entwickelte die ersten mechanischen Rechenmaschinen, die „Difference Engine“ und die „Analytical Engine“, die mathematische Berechnungen automatisch durchführen sollten, insbesondere sogenannte Polynomfunktionen.

Ein anderes bekanntes Beispiel für Maschinen, die die menschliche Intelligenz imitieren sollten, war der erste Schachcomputer namens „Turk“. Er wurde im späten 18. Jahrhundert von Wolfgang von Kempelen gebaut. Obwohl der „Schachtürke“ zu einer Sensation wurde und um die Welt reiste, stellte sich später heraus, dass es sich um einen Schwindel handelte: In dem hölzernen Gehäuse war ein echter Mensch versteckt, der die Bewegung der Schachfiguren steuerte.

Es dauerte bis zum 20. Jahrhundert, bis die ersten echten Schachcomputer auftauchten, zum Beispiel „Mephisto“ (1980) der Münchner Firma Hegener + Glaser und „Deep Blue” (1997) von IBM, die erste Maschine, die gegen einen amtierenden Schach-Weltmeister (Garry Kasparov) gewann.

Die Filmindustrie hat viel zur Popularisierung von Maschinen beigetragen, die sich wie Menschen verhalten. „Maria” aus dem Stummfilm „Metropolis“ (1927) war der erste weibliche Roboter. In ScienceFiction-Filmen werden sehr oft Roboter dargestellt, die entweder sehr böse sind und die Menschen herausfordern, oder freundliche Humanoide, die den Menschen helfen. In der „Star Wars“-Reihe gibt es seit 1977 eine Vielzahl von Robotern, darunter R2D2 und C-3PO als emphatisches Duo, während der Film „The Terminator“ von 1984 eine Maschine zeigt, die in der Zeit zurückgeschickt wurde, um eine Frau namens Sarah Connor zu töten. In der Fernsehserie „Knight Rider“, die zwischen 1982 und 1986 ausgestrahlt wurde, ist KITT ein Hightech-Auto, das mit KI und vielen anderen Funktionen ausgestattet ist, um den Serienheld Michael Knight bei seinem Kampf gegen das Verbrechen zu unterstützen.

Der Begriff „künstliche Intelligenz“ wurde 1956 von John McCarthy (Dartmouth College) geprägt, mit dem Ziel, Maschinen zu schaffen, die die menschliche Intelligenz simulieren und Aufgaben ausführen können, die normalerweise menschliche Intelligenz erfordern, wie z. B. logisches Denken, Lernen und Problemlösung. Ein erstes bekanntes Beispiel für ein KI-System war „Eliza“, das 1966 am Massachusetts Institute of Technology (MIT) von Joseph Weizenbaum entwickelt wurde. Es war so konzipiert, dass es ein Gespräch führen und einen einfühlsamen Psychotherapeuten simulieren konnte. Der Ansatz basierte auf der Verarbeitung natürlicher Sprache und der Anwendung von Grammatik und Syntaxregeln, anstatt die Bedeutung der Eingaben des Benutzers zu verstehen. Diese Techniken ermöglichten es, durch die

Identifizierung von Schlüsselwörtern in den Eingaben und Antworten des Benutzers Folgefragen zu generieren.

Lernen ist eine komplexe Aufgabe. Wir Menschen lernen von Eltern, Lehrern, Gleichaltrigen, von dem, was wir lesen und im Fernsehen sehen. Ganz allgemein ausgedrückt, lernen wir aus Informationen, die unser Gehirn den ganzen Tag über erhält und die von unseren Sinnen erfasst werden. Dabei kann es sich um Stimmen, Geruch, Temperatur, Schmerz, Musik, Bewegung oder Beschaffenheit handeln. Diese riesige Menge an Informationen, die unser Gehirn bewusst oder unbewusst aufnimmt, wird dann verarbeitet und schließlich für einen späteren Abruf gespeichert. Unser Gehirn verfügt über fantastische Optimierungskapazitäten, wenn es um die Organisation von Informationen im Kurz- oder Langzeitgedächtnis geht. Der Hippocampus spielt eine Schlüsselrolle bei der Verwaltung von Informationen in Form von Neuronen und deren Verbindung durch Synapsen. Dieses neuronale Geflecht ist stark vernetzt und passt sich an, wenn Informationen abgerufen werden und wir aus Erfahrungen lernen. Die Herausforderung für unser Gehirn besteht darin, zu entscheiden, welche Informationen nützlich sind und welche nicht, was wahr ist und was nicht.

Ein KI-System steht vor ähnlichen Herausforderungen, da es mit großen Datenmengen gefüttert wird, die in einem digitalen Speicher abgelegt und für die spätere Verarbeitung bereitgehalten werden. Maschinen werden eingesetzt, um komplexe Muster – Kombinationen verschiedener Merkmale, die immer wieder auftreten – in diesen großen Datenmengen zu finden. Bei diesem Prozess, der als „maschinelles Lernen“ bezeichnet wird, lernt der Computer, auf die Details zu achten, die wichtig sind. Bei großen Datenmengen, bei denen es für Menschen sehr schwierig oder unmöglich sein kann, diese Herausforderung zu bewältigen, erbringen Maschinen sehr gute Leistungen.

Im Bereich des maschinellen Lernens verwenden viele Methoden einfache Statistiken und Wahrscheinlichkeitsregeln, um herauszufinden, welche Merkmale angesichts der Daten für die jeweilige Aufgabe am wichtigsten sind. So können maschinelle Lernverfahren beispielsweise feststellen, dass die finanzielle Situation eines Kunden wichtiger ist als seine Lieblingsfarbe, wenn er einen Kredit aufnehmen möchte. Da diese Methoden jedoch auf Merkmale (finanzielle Situation und Lieblingsfarbe) beschränkt sind, die vom Programmierer vorgegeben werden, gab es einen hohen Bedarf, die Merkmale selbst zu lernen. Wenn wir zum Beispiel Blumen anhand von Bildern klassifizieren wollen, sind die Merkmale, die gelernt werden, Kombinationen der verschiedenen Pixel.

Um den Lernprozess zu veranschaulichen, wollen wir die Aufgabe der Kategorisierung von Blumen wieder aufgreifen. Nehmen wir an, wir haben zwei verschiedene Arten von Blumen: Tulpen und Rosen. Um unser KI-System zu trainieren, zeigen wir ihm eine kleine Teilmenge der verfügbaren Trainingsdaten, zum Beispiel zehn zufällig ausgewählte Blumen aus beiden Kategorien. Wir lassen das KI-System die Kategorie jeder Blume erraten. Für jede Blume, die falsch klassifiziert wurde, „bestrafen“ wir das System, je nachdem, wie sicher es war, aber trotzdem falsch lag. Wenn wir diesen Schritt Tausende Male wiederholen, lernt das KI-System zu erkennen, welche allgemeinen Merkmale (etwa das Vorhandensein von Dornen) am wichtigsten sind, um Blumen aus beiden Kategorien (Tulpen und Rosen) zu unterscheiden. Während Menschen in der Lage sind, aus kleinen Datenmengen zu lernen, benötigen KI-Systeme in der Regel große Datenmengen, um Muster und Merkmale zu lernen.

Dies bringt uns zu dem Punkt, dass KI sehr datengesteuert ist. Tatsächlich hat der Begriff „Intelligence“ in der englischen Sprache eine zweifache Bedeutung. Erstens kann es sich auf die Fähigkeit beziehen, Wissen und Fähigkeiten zu erwerben und anzuwenden, z. B. „jemand, der intelligent ist, ist eine kluge und gebildete Person“. Die zweite Definition bezieht sich auf die Sammlung von Informationen, z.B. sammelt und analysiert die „Central Intelligence Agency” (CIA) Informationen zur nationalen Sicherheit. KI bezieht sich eher auf die zweite Definition von Intelligenz und impliziert, dass Daten gesammelt und verarbeitet werden. Man könnte sogar sagen, dass es nichts gibt, was einem intelligenten Computersystem im Sinne der ersten Definition von Intelligenz gleichkäme. KI bezieht sich im Allgemeinen auf ein Forschungsgebiet der Informatik, während ein KI-System eine computergestützte Anwendung von KI bezeichnet. Ein KISystem kann Aufgaben erfüllen, für die normalerweise menschliche Intelligenz erforderlich wäre, z.B. Objekterkennung, Klassifizierung oder Spracherkennung. KI-Systeme können nur so gut werden wie die Qualität der Daten, mit denen sie trainiert wurden. Ist der Datensatz nicht vielfältig genug, d.h. beschreibt er die Aufgabe nicht in ihrer Gesamtheit, kann das KI-System sein Wissen in diesem

Bereich nicht verallgemeinern. Im obigen Beispiel würde ein vielfältiger Datensatz viele verschiedene einzelne Blumen aus beiden Kategorien (Tulpen und Rosen) enthalten. Eine allgemeine Faustregel lautet wie folgt: „Es gibt keine besseren Daten als mehr Daten“ (Robert Mercer).

Die Tatsache, dass KI-Systeme häufig von Menschen trainiert und gewartet werden, birgt das Risiko unvollständiger Informationen, verzerrter Informationen und diskriminierender Inhalte. In der Vergangenheit haben sich viele Chatbots rassistisch oder frauenfeindlich geäußert, nachdem sie auf nicht kuratierten oder nicht überprüften Daten trainiert wurden, die durch Benutzerinteraktionen generiert wurden. Das größte Risiko beim Einsatz von KI-Systemen besteht darin, dass sie immer genau das tun, was Sie ihnen sagen. Wenn Ihre Daten fehlerhaft sind, wird Ihr KI-System dieselben Fehler lernen, die in den Daten enthalten sind, und dennoch glauben, dass es sich um korrekte Daten handelt. Denken Sie immer an das Folgende: „Müll rein = Müll raus“ (George Fuechsel).

„Tay” ist der Name eines Chatbots von Microsoft, der im Jahr 2016 veröffentlicht wurde. Er wurde entwickelt, um die Sprache eines 19-jährigen amerikanischen Mädchens zu imitieren. Er lernte aus den Unterhaltungen mit anderen Nutzern auf der Social-Media-Plattform Twitter. Der Chatbot konnte Tweets posten und beantworten. Sechzehn Stunden nachdem er online war, löste der Chatbot eine Kontroverse aus, als er begann, rassistische und frauenfeindliche Kommentare zu verfassen. Einige Twitter-Nutzer fanden heraus, dass der Chatbot aus Gesprächen lernt, und begannen, politisch unkorrekte Nachrichten an ihn zu tweeten.

Während das obige Negativbeispiel auf böswilliges Nutzerverhalten zurückzuführen ist, gibt es auch Beispiele, bei denen menschliches Versagen zu unbeabsichtigtem Verhalten des KI-Systems geführt hat. Im Jahr 2017 veröffentlichte Apple seine neue Funktion Face ID, die es den Nutzern ermöglicht, ihr iPhone mit ihren Gesichtszügen zu entsperren. Das Problem war, dass es meist nur Menschen aus bestimmten ethnischen Gruppen möglich war, ihr iPhone mit ihrem Gesicht zu entsperren. Es wurde vermutet, dass das zugrundeliegende Problem ein nicht diversifizierter Datensatz war, der unbeabsichtigt keine Personen aus bestimmten ethnischen Minderheiten enthielt. Dies ist ein Beispiel dafür, wie KI-Systeme eine unbeabsichtigte Voreingenommenheit erlernen und zu Problemen führen können.

Hand mit dem Gesicht entsperren? Nur für bestimmte ethnische Gruppen möglich. Etwa bei nicht diversifizierten Datensätzen als Grundlage übernimmt die KI ungewollt rassistische Muster.

Die digitale Transformation unserer Gesellschaft zwingt uns, uns an neue Technologien und Werkzeuge anzupassen. Um rentabel zu bleiben, werden z. B. Bankfilialen geschlossen, und Sie werden lernen müssen, alle Ihre Finanzgeschäfte online zu erledigen. Reisebüros werden einen schnelleren Kundenservice durch Online-Chatbots anbieten. Wenn Sie den Kundendienst anrufen, werden Sie mit einem KI-Helpdesk-Operator sprechen und nicht mehr mit einem Menschen. Sie haben kaum eine Chance, sich zu verstecken, oder vor dem digitalen Wandel zu fliehen, der Sie aus Ihrer Komfortzone reißt. Je früher und schneller Sie sich anpassen, desto besser und schmerzloser wird es für Sie werden. Ja, auch Arbeitsplätze werden sich verändern. Die Europäische Union geht davon aus, dass etwa die Hälfte der Arbeitsplätze direkt von der digitalen Transformation betroffen sein wird, wobei praktische und gering qualifizierte Tätigkeiten ein höheres Risiko haben, durch Maschinen ersetzt zu werden. Hand in Hand mit den Veränderungen auf dem Arbeitsmarkt durch die Digitalisierung werden neue Arbeitsplätze in Bereichen entstehen, von denen wir heute noch wenig wissen, wie z. B. Entwickler für virtuelle Realität, Datenwissenschaftler („Data Scientist“) und

Experten für Benutzererfahrung („User Experience“). Wir werden uns anpassen, das haben wir immer getan. Das macht unsere Spezies so intelligent. Die meisten von uns haben die Fähigkeit verloren, mit Pfeil und Bogen zu jagen – eine Fähigkeit, die unsere sehr weit entfernten Vorfahren zum Überleben brauchten.

Die Erstausbildung und die Weiterbildung werden die Bürger darauf vorbereiten, die neuen Fähigkeiten zu erwerben, die in unserer Gesellschaft und auf dem Arbeitsmarkt benötigt werden. In der Tat hat die Schule als Institution einen doppelten Auftrag. Erstens bereitet die Schule die Schüler auf die Berufswelt vor, indem sie sie mit den notwendigen Fähigkeiten ausstattet, um einen Arbeitsplatz zu finden und in ihrer beruflichen Laufbahn erfolgreich zu sein, z. B. um das Handwerk eines Tischlers zu erlernen oder das Profil eines Computerprogrammierers zu erwerben, zweitens bereitet die Schule auf das gesellschaftliche und soziale Leben vor, z. B. um an einer Diskussion über ein künstlerisches Gemälde teilzunehmen und sich aus den Nachrichten zu informieren. Für beide Ziele spielt KI eine Schlüsselrolle. Die Schule muss die Lehrpläne so aktualisieren, dass die Schüler gut auf die neuen Berufe vorbereitet werden. Zum Beispiel ist es für einen zukünftigen Automechaniker wichtig, etwas über KI-Systeme in elektrischen und selbstfahrenden Autos zu lernen. Auch in der Lehre werden KI-Tools ergänzende pädagogische Instrumente bieten, um sowohl Lehrer als auch Schüler bei ihrer täglichen Arbeit zu unterstützen. Was die zweite Aufgabe anbelangt, so muss sich die Schule auf eine Welt voller Technologien, ausgefallener und attraktiver Werkzeuge und Möglichkeiten, aber auch auf eine oft unterschätzte Anzahl von Risiken und Gefahren vorbereiten. Die Lehrkräfte müssen die SchülerInnen darin schulen, kritisch zu sein und nicht jeder Information zu glauben, die von einer OnlineSuchmaschine geliefert oder von einem Chatbot ausgegeben wird. Informationen sind immer verzerrt und müssen mit Vorsicht genossen werden. Auch eine KI kann sich irren.

Wir haben aus der Vergangenheit gelernt, dass neue Technologien bei den Menschen Angst und Abneigung auslösen. Als in den späten 1950er Jahren Fernsehgeräte in den Schulen auftauchten, war die Befürchtung weit verbreitet, dass Lehrer und Schulen überflüssig würden und die Schüler nun von zu Hause aus lernen würden, indem sie sich Lernsendungen im Fernsehen ansehen. Anfang der 1970er Jahre wurden Taschenrechner sehr populär, was die Lehrer zum Nachdenken über mathematische Inhalte veranlasste. Einige Zeit später wurden bestimmte Aktivitäten wie das Berechnen der Quadratwurzel durch eine arithmetische Folge abgeschafft, und die dank des Taschenrechners gewonnene Zeit konnte für andere schulische Aktivitäten genutzt werden. Ähnliche Geschichten lassen sich über die Einführung von Heimcomputern in den 1980er Jahren erzählen, als computergestütztes Lernen angekündigt wurde, um einen Paradigmenwechsel im Bildungswesen einzuleiten. Als das World Wide Web in den 1990er Jahren unsere Gesellschaft veränderte, wurden Online-Lernen und Online-Unterricht zu einem wichtigen Thema, aber zum Teil auch als angsteinflößend angesehen. In den 2000er Jahren wurden Tablets und Smartphones zu neuen Geräten, die bei Lehrkräften und Eltern große Erwartungen und Ängste auslösten. Die 2010er Jahre, schließlich, sind geprägt von neuen Technologien, wie der virtuellen Realität, die neue pädagogische Potenziale und Spielereien bietet, die noch größtenteils unerforscht sind.

Sollten Menschen Angst vor KI haben? Auch wenn es keinen Grund gibt, sich vor der KI als Ganzes zu fürchten, ist es

Wenn die KI „menschelt“

Im revue-Interview erklärt Serge Linckels die Bedeutung der Bildung und Weiterbildung im Bereich der Künstlichen Intelligenz – und deren Grenzen.

Herr Linckels, sind wir überhaupt schon vorbereitet auf die Herausforderungen der digitalen Transformation?

Ich denke, dass wir vorbereitet sind. Die Transformation hat ja nicht erst heute angefangen, künstliche Intelligenz gibt es seit den 50er Jahren. Das Bildungsministerium hat „Coding Classes“ in der Grundschule eingeführt. Wir haben unter anderem „Digital Sciences“ als Fach und Ausbildung in der Informatik, die Sektion I als Fachrichtung im klassischen Gymnasium und wir haben den „Digital Learning Hub“ für berufliche Weiterbildung, wir sind also sehr gut aufgestellt.

Gibt es künftig auch ein Schulfach „Künstliche Intelligenz“?

Das bezweifle ich. Wir haben schließlich auch kein Fach „Hammer“, in dem man lernt, wie man mit einem Hammer umgeht, und auch kein Fach „Schönschreiben“. Das sind transversale Themen, die irgendwo untergebracht sind. Wir haben das Fach Digital Sciences, das auf keinen Fall auf die Künstliche Intelligenz reduziert werden darf. KI wird so wichtig, dass es in vielen Fächern thematisiert werden muss und KI-Systeme eingesetzt werden sollen.

Künstliche Intelligenz betrifft auch zahlreiche Berufe. Muss etwa ein Automechaniker oder Mechatroniker nun auch noch ein Informatiker oder Experte in KI bzw. AI sein?

Ich denke mit der Elektromobilisierung und selbstfahrenden Autos wird sicher auch die Digitalisierung und Künstliche Intelligenz in der Ausbildung dieser Berufe mit inbegriffen sein. Wir müssen aber nicht, wenn wir Auto fahren, Experten in Verbrennungsmotoren sein oder ein Auto reparieren können. Und so muss ein KfzMechaniker auch kein Experte in KI sein, um an einem Auto arbeiten zu können.

Muss nicht erst noch eine ganze Generation von Lehrkräften umgeschult werden?

Weil es sich um ein allgemeines Thema handelt, wird das sowieso in der Lehrerausbildung thematisiert und am IFEN in der Lehrerausbildung angeboten. Da gibt es zum Beispiel „Fit for AI“. Im Digital Learning Hub arbeiten wir mit der Lehrerausbildung zusammen und bieten Kurse in der KI an.

Wird ein möglicher Informatik-Gap oder KI-Gap nicht weiter die Gesellschaft spalten, in diese, die sich damit auskennen, und jene, die nicht über diese Kenntnisse verfügen?

Tatsächlich verändert sich unsere Gesellschaft rasant. Viele Bankfunktionen werden nur noch per Handy oder online getätigt. Da mache ich mir natürlich Gedanken und habe Zweifel, ob alle Menschen da mithalten können. Als das Fernsehen kam, hat es Jahrzehnte gedauert, bis es überall verbreitet war. Heute ist das Tempo bei der Informatik bzw. der KI so hoch, dass wir nicht so schnell rennen dürfen, um jedem Bürger die Möglichkeit zu geben, mit der Entwicklung Schritt zu halten. Das Bildungsministerium hat ein breites Angebot in der Grundausbildung und Weiterbildung, bei dem sich jeder bedienen kann.

Wie kann der kritische Umgang mit KI geübt werden?

Ich finde, das ist das Hauptthema überhaupt. Ich habe ChatGPT verschiedene Fragen gestellt, auf die einige Antworten total falsch waren. Es ist unbedingt wichtig, dass alle Menschen verstehen, dass eine KI falsch sein kann. Der Computer liegt nicht immer richtig. Und wenn man weiß, dass es Fake News in der gedruckten Presse gibt, so sollte man auch wissen, dass es falsche Informationen von der Künstlichen Intelligenz gibt. Man muss lernen, damit umzugehen. Das ist eine große Herausforderung, für die Schulen und für Eltern, die ihre Kinder darauf vorbereiten sollen.

Hat man noch ein falsches Bild vom Computer, der oftmals als zu perfekt betrachtet wird?

Wenn wir von einem KI-System reden, dann es von einem Team, also von Menschen trainiert, und ist somit beeinflusst. Die KI wird mit Daten gefüttert, die auch möglicherweise mangelhaft oder voreingenommen sind. Wenn man hier in Luxemburg ein KI-System mit Pflanzen trainiert, kommt „Palme“ wesentlich weniger vor als wenn man die gleiche KI-System in der Karibik nutzt. Dieses KI-System würde also in der Karibik weniger gut, vielleicht sogar falsch funktionieren. Man muss wissen, dass eine KI nur so clever sein kann, wie sie vom Menschen gewollt oder ungewollt trainiert wird.

Man kann also sagen, dass auch eine Künstliche Intelligenz „menschelt“?

Absolut. So wie die „normale“ Intelligenz, die erst definiert werden muss, genauso ist es auch bei der künstlichen. Vielleicht ist sie in einem bestimmten Bereich vollkommen, aber in vielen anderen Bereichen hat ein KI-System keine Ahnung, denn KI-Systeme sind immer kontextgebunden. Von einer sogenannten Generellen Künstlichen Intelligenz sind wir noch sehr weit entfernt.

Interview: Stefan Kunzmann

Dr. Serge Linckels

ist Leiter des Digital Learning Hub, einer Einrichtung, die spezialisierte IT-Schulungen vor Ort anbietet, die für jeden ohne Vorbedingungen zugänglich sind. Er ist außerdem stellvertretender Direktor der Abteilung für berufliche Bildung und Ausbildung im Ministerium für nationale Bildung, Kinder und Jugend. Serge Linckels verfügt über mehr als 20 Jahre Erfahrung als Lehrer am Lycée Guillaume Kroll und als Lehrbeauftragter an der Universität von Luxemburg. Er hat einen Abschluss in Informatik und einen Ingenieursabschluss sowie einen Doktortitel in Internet-Technologien und -systemen vom Hasso-Plattner-Institut. Serge Linckels hat drei Bücher und 30 wissenschaftliche Veröffentlichungen publiziert.

Ben Bausch

koordiniert den Bereich KI-Training am Digital Learning Hub. Er hat einen MSc in KI von der Albert-Ludwigs-Universität in Freiburg. Sein Fachgebiet ist die automatische Bildverarbeitung mittels Computer Vision Algorithmen. Sein Forschungsinteresse gilt der monokularen Tiefenschätzung und semantischen Segmentierungsnetzwerken. Er betreibt einen YouTube-Kanal „Minttube by Benimeni“, in dem er mathematische Konzepte, Programmiersprachen und Algorithmen des maschinellen Lernens auf einfache und unkomplizierte Art und Weise erklärt.

wichtig, sich ihrer potenziellen Risiken bewusst zu sein und auf die Entwicklung einer KI hinzuarbeiten, die ethisch, transparent und verantwortungsvoll ist. Dies erfordert die Zusammenarbeit von politischen Entscheidungsträgern, Branchenführern sowie Forschern, um sicherzustellen, dass KI auf verantwortungsvolle und nützliche Weise entwickelt und eingesetzt wird.

Die Antwort auf die Frage in diesem Absatz wurde vollständig von chatGPT generiert, einem KI-System, das von openAI entwickelt und im November 2022 eingeführt wurde.

Der Europarat hat bereits 2017 eine Empfehlung zur technologischen Konvergenz, künstlicher Intelligenz und Menschenrechten verabschiedet. Darin heißt es, dass „jede Maschine, jeder Roboter oder jedes Artefakt künstlicher Intelligenz unter menschlicher Kontrolle bleiben muss“. Darüber hinaus „kann der Verweis auf die unabhängige Entscheidungsfindung von Systemen der künstlichen Intelligenz die Schöpfer, Eigentümer und Verwalter dieser Systeme nicht von der Rechenschaftspflicht für Menschenrechtsverletzungen befreien, die mit dem Einsatz dieser Systeme begangen werden, selbst in Fällen, in denen eine schadensverursachende Handlung nicht direkt von einem verantwortlichen menschlichen Befehlshaber oder Bediener angeordnet wurde“. Und schließlich „die Entwicklung und Verwendung von Algorithmen der künstlichen Intelligenz [...], die die Würde und die Menschenrechte aller Nutzer, insbesondere der am meisten gefährdeten Personen, wie ältere Menschen und Menschen mit Behinderungen, in vollem Umfang respektieren müssen.“

Bleiben wir neugierig, vorsichtig, offen und anpassungsfähig gegenüber KI-Systemen, untersuchen wir sie und versuchen wir, das Beste aus ihnen herauszuholen. Wären Sie nicht begeistert, wenn Sie einen KI-Roboter hätten, der Ihnen das Bügeln abnehmen könnte? Und schließlich sollten Sie die nächste große technologische Ankündigung im Auge behalten, die vielleicht noch vielversprechender ist als die KI: das Quantencomputing, ein möglicher Game Changer.

Text: Ben Bausch, Serge Linckels

Fotos: Roberts Kalnītis, Humboldt University Library, SunofErat (wikicommons), DCstudio (Freepik), revue-Archiv, Julien Garroy (Editpress)

This article is from: