Einsatz und Nutzung generativer künstlicher Intelligenz in Marketing- und Kommunikationsberufen

Page 1


Einsatz und Nutzung generativer künstlicher Intelligenz in Marketing- und Kommunikationsberufen

Eine Studie des Instituts für Kommunikation und Marketing IKM

Impressum

Hochschule Luzern

Wirtschaft

Institut für Kommunikation und Marketing IKM

Zentralstrasse 9

Postfach

6002 Luzern

T +41 41 228 99 50 ikm@hslu.ch hslu.ch/ikm

Projektleitung

Prof. Dr. Philipp Bachmann, IKM

Dr. Nadine Stutz, IKM

Prof. Seraina Mohr, IKM

Vinzenz Rast, IKM

Raphael Zeder, IKM

Dr. Simone Griesser, IKM

Alle Rechte für den Nachdruck und die Vervielfältigung dieser Arbeit liegen beim Institut für Kommunikation und Marketing der Hochschule Luzern – Wirtschaft. Die Weitergabe an Dritte bleibt ausgeschlossen.

© 11-2024, Hochschule Luzern – Wirtschaft

Inhaltsverzeichnis

4.

5.

Management Summary

Die Studie zeigt, dass die Entwicklung eines fundierten Verständnisses von Kompetenzen zur generativen Künstlichen Intelligenz (GKI-Kompetenzen) von entscheidender Bedeutung ist. Dabei geht es nicht nur um technisches Wissen, sondern auch um ethische Überlegungen und die Fähigkeit, GKI sinnvoll und verantwortungsvoll einzusetzen. Unternehmen müssen nicht nur in die technische Infrastruktur investieren, sondern auch in die Weiterentwicklung der GKI-Kompetenzen ihrer Mitarbeiterinnen und Mitarbeiter sowie in eine offene Unternehmenskultur, die diese Entwicklung unterstützt. Für die vorliegende Studie wurde daher ein GKI-Literacy-Modell entwickelt, das den Zusammenhang zwischen individueller und organisationaler GKILiteracy aufzeigt.

Darüber hinaus wurden die Teilnehmenden zur Nutzung verschiedener Tools sowie zu den Einsatzmöglichkeiten und Risiken befragt. Die Teilnehmerinnen und Teilnehmer wurden über verschiedene Kanäle rekrutiert, unter anderem über den Newsletter und die LinkedIn-Seite des Instituts sowie über die Netzwerke der Forscherinnen und Forscher.

Die Ergebnisse der Studie zeigen, dass Befragte aus Agenturen und Beratungsunternehmen ihre individuelle GKI-Literacy am höchsten einschätzen und ihren Unternehmen eine hohe Aufgeschlossenheit gegenüber generativer künstlicher Intelligenz attestieren. Die gleiche Befragtengruppe sieht jedoch Nachholbedarf bei gezielten Schulungsmassnahmen und der Stärkung des ethischen Bewusstseins. Männer schätzen ihre Umgangskompetenzen deutlich höher ein als Frauen.

Generative KI-Tools werden vor allem zur Texterstellung und -bearbeitung sowie zur Zusammenfassung von Inhalten und zur Ideengenerierung eingesetzt. Dies unterstreicht den Nutzen von GKI-Anwendungen für kreative und analytische Aufgaben. Die Nutzung für komplexe Entscheidungs- und Urteilsbildungsprozesse bleibt dagegen gering.

Die Ergebnisse zum Vertrauen in generative KI-Tools zeigen, dass Anwendungen wie ChatGPT und Copilot in der kognitiv-funktionalen Dimension, die die Nützlichkeit und Sympathie der Tools bewertet, gut abschneiden. In der kognitiv-sozialen Dimension, die ethische Bedenken und Integrität adressiert, wird Midjourney vergleichsweise positiv bewertet, während Anwendungen wie ChatGPT und Copilot mehr Bedenken hervorrufen.

Als grösstes Risiko wurde der persönliche Druck zur beruflichen Weiterentwicklung genannt. Die Ergebnisse deuten darauf hin, dass die Befragten vor allem über die persönlichen und sozialen Auswirkungen der Nutzung von GKI-Tools besorgt sind, während sie gleichzeitig das Potenzial für Effizienzsteigerungen in ihrer Arbeit erkennen. Darüber hinaus zeigen die Ergebnisse, dass eine hohe individuelle GKI-Literacy zu einem Anpassungsdruck führt. Unternehmen müssen das Spannungsfeld zwischen technologischem Fortschritt und den Auswirkungen auf die Arbeitsbelastung ernst nehmen und gleichzeitig in der Lage sein, die Potenziale generativer KI-Werkzeuge zu nutzen.

Unternehmen sind gefordert, eine offene Unternehmenskultur zu fördern, die die Herausforderungen und Chancen von GKI berücksichtigt. Es bedarf gezielter Massnahmen und Programme, um die Mitarbeiterinnen und Mitarbeiter bei diesem Wandel zu unterstützen und zu begleiten.

Ausgangslage und Ziele der Studie

1. Einleitung

und Ziele der Studie

Generative Künstliche Intelligenz (GKI) beeindruckt mit Fähigkeiten, die sowohl Einzelpersonen als auch Organisationen herausfordern und Anpassungen erfordern. Unter GKI versteht man Software, die grosse Datenmengen verarbeitet und durch parallele Berechnungen sowie eine gezielte Reaktion auf Nutzereingaben kreative Inhalte erzeugen kann. Diese technologische Revolution ermöglicht es, komplexe Aufgaben, die einst menschlicher Intelligenz vorbehalten waren, in Sekundenschnelle zu erledigen. Anwendungen wie ChatGPT und Midjourney generieren beispielsweise Texte und Bilder in gewünschten Themen, Stilen und Stimmungen. Der gezielte Einsatz von GKI bietet somit das Potenzial, Wettbewerbsvorteile zu sichern.

1.1 Ausgangslage

Die Konsequenzen von GKI sind nicht nur positiv. Eine Sorge besteht darin, dass neue Technologien bestehende Menschen und Organisationen zwar nicht überflüssig machen, sie jedoch jene verdrängen, die technisch nicht auf der Höhe der Zeit bleiben, wie Suskind und Suskind (2015) aufzeigen.

GKI-Literacy wird zunehmend als entscheidender Faktor für die Bewältigung der Herausforderungen im Zusammenhang mit der Verbreitung von generativer KI angesehen. GKI-Literacy, d.h. die Fähigkeit, grundlegende Kenntnisse über die Funktionsweise, Möglichkeiten und Grenzen künstlicher Intelligenz zu erwerben, ermöglicht es Individuen und Organisationen, KI-Systeme effektiv und verantwortungsvoll zu nutzen. Insbesondere in einem Umfeld, das von schnellen technologischen Veränderungen geprägt ist, hilft eine fundierte GKI-Literacy dabei, technologische Entwicklungen nicht nur passiv zu konsumieren, sondern aktiv mitzugestalten. Eine GKI-Literacy kann die Risiken mindern, die mit einer uninformierten oder unsachgemässen Nutzung von KI verbunden sind. Darüber hinaus schafft sie ein besseres Verständnis für ethische Fragen und ermöglicht es, fundierte Entscheidungen im Umgang mit KI zu treffen. Organisationen, die in die Entwicklung von GKI-Kompetenzen ihrer Mitarbeitenden investieren, können sich nicht nur gegen Disruptionen wappnen, sondern auch Geschäftspotenziale freisetzen. Auch die Ergebnisse einer Studie von Accenture in der Schweiz bestätigen den positiven Zusammenhang zwischen befähigten Mitarbeitenden und zusätzlicher Wertschöpfung für das Unternehmen. Dabei spricht die Studie von einer «menschen-

zentrierten Implementierung, [...] wobei der Mensch und die Innovation im Mittelpunkt stehen» (Shook et al. 2024).

Diese vorliegende Studie adressiert dabei mehrere Forschungslücken. Es wird nicht nur die GKI-Literacy von Individuen behandelt, sondern auch jene von Organisationen sowie deren Zusammenspiel. Das dafür entwickelte Modell zeigt auf, wie sich die GKI-Literacy von Individuen und Organisationen messen lässt und liefert eine empirische Bestandsaufnahme, wie GKI-Anwendungen von Fachleuten aus Wirtschaft und Kommunikation in der Schweiz genutzt werden und wie viel Vertrauen (oder Skepsis) diesen Anwendungen entgegengebracht wird.

Einsatz und Nutzung

Ausgangslage und Ziele der Studie

1.2 Das GKI-Literacy-Modell

In Kürze

– Individuelle GKI-Literacy umfasst das allgemeine Handlungsvermögen, Zugang und Umsetzungskompetenz sowie Beurteilungsund Erkennungskompetenz.

– Organisationale GKI-Literacy beinhaltet Aufgeschlossenheit gegenüber generativer künstlicher Intelligenz sowie Verfügbarkeit von Weiterbildungen, ethischen Standards und Fachkräften im Bereich der generativen KI.

– Für die Studie wurde ein GKI-Literacy-Modell entwickelt, dass den Zusammenhang zwischen den beiden Dimensionen aufzeigt und über das reine Anwendungswissen wie Prompting hinausgeht.

Früher bezog sich der Begriff «literacy» auf die Lesefähigkeit, heute wird er häufig verwendet, um Kenntnisse oder Fähigkeiten in bestimmten Bereichen zu beschreiben. Beispiele sind «Political Literacy» (politische Bildung), «Financial Literacy» (Finanzkompetenz) oder «Media Literacy» (Medienkompetenz). Mit der Digitalisierung haben neue Varianten an Bedeutung gewonnen, wie «Digital Literacy» und neuerdings «AI Literacy». Diese Entwicklungen spiegeln die Herausforderungen der modernen Welt wider: Das Expertenwissen wächst in vielen Bereichen so schnell, dass es unmöglich ist, überall auf dem neuesten Stand zu sein. Menschen und Organisationen verlassen sich daher zunehmend auf Technologie und Fachwissen. Diese Abhängigkeit schafft sowohl Vertrauen als auch Skepsis gegenüber komplexen Systemen und Expertenwissen.

Für die vorliegende Studie wurde individuelle GKI-Literacy wie folgt definiert:

Individuelle GKI-Literacy umfasst die Handlungs- und Reflexionsfähigkeit eines Menschen, um vielfältige Probleme im Zusammenhang mit oder durch GKI zu lösen (allgemeines Handlungsvermögen). Dies beinhaltet den Zugang zu GKI-Anwendungen sowie sowohl routinemässiges Alltagsverhalten als auch die Mög-

lichkeit, in variablen Situationen reflexiv zu agieren. Dazu ist ein praktisches und diskursives Bewusstsein erforderlich, das neben Fachwissen und Fertigkeiten auch Werte und Motivation einschliesst (Zugang und Umsetzungskompetenz). Die Handlungs- und Reflexionsfähigkeit bezieht sich sowohl auf die Nutzung von GKI für eigene Zwecke als auch auf die Bewertung von GKI-Erzeugnissen anderer, beispielsweise hinsichtlich deren Qualität oder gesellschaftlicher Auswirkungen (Beurteilungskompetenz)

Für die vorliegende Studie wurde organisationale GKILiteracy wie folgt definiert:

Organisationale GKI-Literacy bezeichnet die in einer Organisation eingebetteten materiellen Ressourcen (z.B. technische Infrastruktur) und immateriellen Ressourcen (z.B. Lizenzen, Fachwissen) sowie die Organisationskultur konstituierenden Regeln, die es den Mitarbeitenden ermöglichen, vielfältige Organisationsaufgaben im Zusammenhang mit oder durch GKI zu lösen (z.B. Experimentier- und Lernkultur). Dies trägt dazu bei, dass bisherige Verfahren und Abläufe strukturell hinterfragt werden (institutionelle Reflexivität), um sie effektiver und effizienter oder ethisch reflektierter gestalten zu können.

Der Zusammenhang der beiden Ebenen ist ein wechselseitiges Verhältnis (vgl. Abbildung 1): Organisationen ermöglichen und begrenzen das Handeln der Mitarbeitenden und Stakeholder, während diese Strukturen zugleich durch deren Handlungen – sowohl die routinemässigen als auch die reflexiv gesteuerten – reproduziert und verändert werden (vgl. Banholzer 2023).

Einsatz und Nutzung generativer künstlicher Intelligenz in

Ausgangslage und Ziele der Studie

Das GKI-Literacy-Modell

s und R

E t hi sc h e S t

Materielle und immaterielle Ressourcen (z B Infrastruktur und Lizenzen)

Grad an institutioneller Re exivität (z B Experimentierund Lernkultur)

Schulungs- und Weiterbildungsmöglichkeiten

und

ing

Organisationsebene

Die GKI - Literacy einer Organisation (bzw einer Organisationseinheit) umfasst dessen Aufgeschlossenheit und Veränderungsbereitschaft in Bezug auf GKI sowie die diesbezügliche Verfügbarkeit von Weiterbildungen, ethischen Standards und Fachkräften

reproduzieren und modi zieren

ermöglichen und begrenzen

Die Strukturen einer Organisation begrenzen und ermöglichen das Verhalten und Handeln der Mitarbeitenden, während diese durch ihr Verhalten und ihre Handlungen die Organisationsstrukturen zugleich reproduzieren und verändern

K o m p e t e n z , ei g e n e G KO u t p u t s z u e r z

Anwendungswissen zu GKI (z B Prompting)

Handlungs- und Re exionsfähigkeit sowie Motivation und Werte, um Probleme mit oder durch GKI zu lösen

Fachwissen über GKI und angrenzende Themen (z B Datenschutz)

Individuelle Ebene

Die GKI - Literacy eines einzelnen Mitarbeitenden umfasst dessen allgemeines Handlungsvermögen, dessen Zugang und Umsetzungskompetenz sowie dessen Beurteilungs - und Erkennungskompetenz

Abbildung 1: Das Zusammenspiel von individueller und organisationaler GKI-Literacy

Einsatz und Nutzung

Ausgangslage und Ziele der Studie

1.3 Studiendesign

Um das Zusammenspiel der beiden GKI-Literacy-Formen im aktuellen Kontext zu untersuchen, wurden in einer Studie Organisationen und ihre Akteure untersucht. Die Studie basiert auf einer Onlinebefragung von Fachleuten im Umfeld des Departments Wirtschaft an der Hochschule Luzern (HSLU). Absender der Umfrage war das Institut für Kommunikation und Marketing (IKM). Der Erhebungszeitraum fand vom 4. April bis 18. Mai 2024 statt. Auf die Umfrage wurde über Kommunikationskanäle aufmerksam gemacht, etwa auf LinkedIn, im Alumni-Newsletter oder durch Hinweise in der Weiterbildung. Zwar ist durch dieses Vorgehen, eine genaue Grundgesamtheit nicht festlegbar, doch durch diese kontrollierte Verbreitung des Fragebogens kann gewährleistet werden, dass die Zielgruppe – Fachleute aus Wirtschaft und Kommunikation – erreicht werden.

Insgesamt haben 132 Teilnehmende den Fragebogen vollständig ausgefüllt, davon 73 Männer (55,3 Prozent) und 59 Frauen (44,7 Prozent) (vgl. Abbildung 2). Die Befragten waren zwischen 19 und 68 Jahre alt (vgl. Abbildung 3). Die meisten Befragten arbeiten bei privaten Unternehmen (39,4 Prozent) oder bei Agenturen und in der Beratung (17,4 Prozent) sowie in Bildungs- und Forschungseinrichtungen (17,4 Prozent), gefolgt von öffentlichen Organisationen (12,9 Prozent) und NGOs (4,5 Prozent) (vgl. Abbildung 4).

Von den Befragten gaben 68,2 Prozent an, dass sie im Bereich Kommunikation und Marketing tätig sind; 18,9 Prozent im Bereich Betriebs- und Regionalökonomie, 17,4 Prozent im Bereich Banking und Finanzen und 6,1 Prozent im Bereich Tourismus und Mobilität. Mehrfachnennungen waren möglich (vgl. Abbildung 5). Dieser Verteilung zeigt, dass der angestrebte Personenkreis erreicht wurde.

Bei den Befragten sind die Männer im Vergleich zu den Frauen leicht in der Überzahl.

Abbildung 2: Verteilung der Befragten nach Geschlecht

Mann Frau

Einsatz und Nutzung

Ausgangslage und Ziele der Studie

und Kommunikationsberufen

Bei den Alterskategorien der Befragten zeigt sich eine gut ausgewogene Mischung.

Anzahl Befragte

Abbildung 3: Anzahl Befragte nach Alter

Die meisten Befragten arbeiten in privaten Unternehmen.

Privates Unternehmen

Bildungs- & Forschungseinrichtung

Agentur oder Beratung

Ö entliche Organisation

Non-Pro t-Organisation

Abbildung 4: Anzahl Befragte nach Organisationsart

Einsatz und Nutzung generativer künstlicher Intelligenz in Marketing- und Kommunikationsberufen

Ausgangslage und Ziele der Studie

Die meisten Befragten sind im Bereich Kommunikation und Marketing tätig.

Anzahl Befragte

Kommunikation und Marketing

Betriebs- und Regionalökonomie

Banking und Finanzen

Abbildung 5: Anzahl Befragte nach Themenbereich (Mehrfachnennungen möglich) 13 8 23 25

Tourismus und Mobilität

Weitere

Einsatz und Nutzung generativer künstlicher Intelligenz in Marketing- und Kommunikationsberufen

Ausgangslage und Ziele der Studie

2. GKI-Literacy

Generative Künstliche Intelligenz beeindruckt durch Fähigkeiten, die Anpassungen von Individuen und Organisationen erfordern. Nach Sætra (2023) bezeichnet GKI «maschinelle Lernlösungen», die auf grossen Datenmengen basieren und auf Benutzereingaben reagieren. Doch welche Kompetenzen und Kenntnisse braucht es nun, um sich diesen Entwicklungen zu stellen, die Anpassungen zu gestalten und generative KI sinnvoll einsetzen zu können? Antworten auf diese Fragen liefern die Ergebnisse zur individuellen und organisationalen GKI-Literacy aus der Studie.

2.1 Individuelle GKI-Literacy

In Kürze

– Befragte aus Agenturen und Beratungsunternehmen schätzen das eigene Handlungsvermögen sowie die eigenen Kompetenzen im Umgang mit generativen KI-Anwendungen am höchsten ein.

– Bei der Einschätzung der Zugangs- und Umgangskompetenzen gibt es Unterschiede zwischen Männern und Frauen. Männer schätzen ihre Kompetenzen deutlich höher ein.

– Unternehmen sollten hier den Digital Gap zwischen Frauen und Männern im Auge behalten.

Aus der Definition der individuellen GKI-Literacy wurden neun Fragen abgeleitet, anhand denen die Teilnehmenden ihre Literacy einschätzen mussten. Die Motivation wurde beispielsweise operationalisiert als «Ich bin im Bereich der generativen KI auf dem Laufenden», der technische Zugang mit «Ich habe Zugriff auf Generative-KI-Anwendungen, die ich benötige», das Fachwissen mit «Ich verstehe die grundlegenden technischen Funktionsweisen hinter generativer KI» und die Beurteilungskompetenz mit «Ich habe meist ein gutes Gespür, ob ein Text, Bild oder Video mit Hilfe generativer KI erzeugt wurde».

Die Analyse hat gezeigt, dass die unterschiedlichen Fragen in drei Kategorien eingeordnet werden können:

– Allgemeines Handlungsvermögen

– Zugang und Umsetzungskompetenz

– Beurteilungs- und Erkennungskompetenz

Zusätzlich zur Selbsteinschätzung wurde das Fachwissen der Teilnehmenden durch ein Quiz mit zehn Ja-Nein-Fragen abgefragt. Die Erstellung der Quizfragen erfolgte im Austausch mit verschiedenen Expertinnen und Experten am IKM, um sicherzustellen, dass verschiedene Wissensbereiche abgedeckt werden. Beispiele für solche Fragen sind: «OpenAI ist eine gemeinnützige Stiftung für Künstliche Intelligenz» (falsch) und «Die Ergebnisse (Outputs) von generativer KI (ChatGPT, Gemini und Co.) beruhen auf mathematisch berechneten Wahrscheinlichkeiten» (korrekt). Das Quiz bietet somit eine Möglichkeit, über eine Selbsteinschätzung hinaus das Wissen der Teilnehmenden auf eine unterhaltsame Weise zu überprüfen und mögliche Diskrepanzen zwischen Selbsteinschätzung und vorhandenem Wissen aufzuzeigen.

Insbesondere bei der Kategorie «Beurteilungs- und Erkennungskompetenz» ist zu beachten, dass es technisch schwierig bis unmöglich ist, tatsächlich zu beurteilen, ob ein Text, Bild oder Video mit Hilfe generativer KI erzeugt wurde oder nicht. Eine zu hohe Selbstgewissheit kann auch darauf hindeuten, dass man gerade nicht über eine hohe GKI-Kompetenz verfügt. Dies lässt sich prüfen, indem man untersucht, inwiefern die drei Kategorien (Selbsteinschätzung) mit dem Quiz-Score übereinstimmen. Es zeigte sich, dass die Beurteilungs- und Erkennungskompetenz, die sich Personen selbst zuschreiben, nicht mit den Quiz-Scores korrelieren. Das bedeutet: Personen, die

GKI-Literacy

sich selbst eine hohe Beurteilungs- und Erkennungskompetenz zuschreiben, erzielen keine höheren Scores beim Quiz.

Bei den anderen beiden Kategorien bestätigte sich, dass die Befragten mit einem höheren Quiz-Wert auch angaben, eine höhere GKI-Kompetenz zu haben.

Die Ergebnisse zum allgemeinen Handlungsvermögen zeigen, dass Teilnehmende, die in Agenturen oder in der Beratung tätig sind, diese bei sich selbst am höchsten einschätzen (vgl. Abbildung 6). Eine mögliche Erklärung hierfür ist, dass diese Agenturen sowie Beraterinnen und Berater an der Schnittstelle zwischen Unternehmen und generativer KI tätig sind und sich daher schneller und intensiver mit der Thematik auseinandersetzen müssen.

Bei der Einschätzung in der Kategorie «Zugang und Umgangskompetenzen» zeichnet sich das gleiche Bild ab (vgl. Abbildung 7): auch hier schätzen die Befragten aus Agenturen ihre Kompetenz im Umgang mit generativer KI am höchsten ein. Das Item «Ich habe Zugriff auf Generative-KI-Anwendungen, die ich benötige»,

wird von allen Teilnehmenden am höchsten bewertet. Das könnte im Kontext der Agenturen und Beraterinnen und Berater auch darauf hinweisen, dass der Zugriff auf generative KI-Tools einfacher ist und eventuell mit weniger Hürden verbunden ist aufgrund der Grösse der Unternehmen oder der Komplexität der Organisationen.

Bei den Ergebnissen zur Zugangs- und Umsetzungskompetenz zeigten sich signifikante Unterschiede bei der Selbsteinschätzung zwischen Männern und Frauen (vgl. Abbildung 8): So schätzen Männer ihre Kompetenz im Umgang mit generativen KI-Tools deutlich höher ein. Eine höhere Selbsteinschätzung könnte auch dazu führen, dass Männer sich schneller mit den neuen Technologien auseinandersetzen und dadurch einen Vorteil erlangen. Zusätzlich zeigte eine Studie auf, dass Männer (54 %) generative KI sowohl im Privatals auch im Berufsleben nutzen, während Frauen (35 %) die GKI viel langsamer einsetzen (vgl. Howington 2023). Die Ergebnisse einer Analyse von Goldman Sachs im März 2023 zeigen, dass acht von zehn Frauen in den USA in Berufen tätig sind, die in hohem Masse von generativer KI-Automatisierung betroffen sind.

Personen, die in Agenturen oder in der Beratung arbeiten, schätzen ihr allgemeines Handlungsvermögen im Bereich generative KI am höchsten ein.

Allgemeines Handlungsvermögen

Agentur oder Beratung

Bildungs- & Forschungseinrichtung

Privates Unternehmen

Die Selbsteinschätzung des allgemeinen Handlungsvermögens im Bereich der generativen KI wurde in der Umfrage über vier separate Items mit jeweils einer Likert-Skala (1–5) gemessen.

Abbildung 6: Selbsteinschätzung allgemeines Handlungsvermögen nach Organisationsart (Mittelwert)

Einsatz und Nutzung

Personen, die in Agenturen oder in der Beratung arbeiten, schätzen ihre Kompetenz im Umgang mit generativen KI-Tools am höchsten ein.

Zugang und Umsetzungskompetenz

Agentur oder Beratung

Bildungs- & Forschungseinrichtung

Privates Unternehmen

Die Selbsteinschätzung von Zugang und Umsetzungskompetenz im Bereich der generativen KI wurde in der Umfrage über drei separate Items mit jeweils einer Likert-Skala (1–5) gemessen.

Abbildung 7: Selbsteinschätzung Zugang und Umsetzungskompetenz nach Organisationsart (Mittelwert)

Männer schätzen ihre Kompetenz im Umgang mit generativen KI-Tools deutlich höher ein als Frauen.

Zugang und Umsetzungskompetenz

Männer

Frauen

Die Selbsteinschätzung von Zugang und Umsetzungskompetenz im Bereich der generativen KI wurde in der Umfrage über drei separate Items mit jeweils einer Likert-Skala (1–5) gemessen.

Abbildung 8: Selbsteinschätzung Zugang und Umsetzungskompetenz nach Geschlecht (Mittelwert)

2.2 Organisationale GKI-Literacy

In Kürze

– Befragte aus Agenturen und Beratungsunternehmen attestieren ihren Unternehmen eine hohe Aufgeschlossenheit gegenüber GKI-Anwendungen.

– Gleichzeitig zeigt sich genau in dieser Teilnehmendengruppe, dass sie sich mehr Upskilling, mehr Befähigung und mehr Stossrichtungen im Umgang mit generativen KI-Tools wünschen, als die Unternehmen aktuell anbieten.

– Unternehmen sollten hier zielgerichtete Massnahmen und Enabling-Programme umsetzen, um einen verantwortungsvollen und effektiven Einsatz von KI-Werkzeugen zu gewährleisten.

Aus der Definition der organisationalen GKI-Literacy wurden elf Fragen abgeleitet, anhand denen die Teilnehmenden die Literacy ihres Unternehmens einschätzen mussten. Es wurden vor allem zwei Bereiche abgefragt: zum einen die vorherrschende institutionelle Reflexivität gegenüber GKI, zum anderen die organisationalen Ressourcen. Die institutionelle Reflexivität wurde zum Beispiel über folgende Items

abgefragt: «In meiner Organisation ist man grundsätzlich aufgeschlossen, generative KI einzusetzen» oder «In meiner Organisation herrscht eine Experimentierkultur in Bezug auf generative KI». Die organisationalen Ressourcen wurden abgefragt über Items, wie: «Meine Organisation verfügt über die notwendige technische Infrastruktur, um Generative KI-Anwendungen zu nutzen» und «Meine Organisation verfügt über notwendige Lizenzen, um Generative-KI-Anwendungen zu nutzen».

Die Analyse hat gezeigt, dass die unterschiedlichen Fragen in zwei Kategorien eingeordnet werden können:

– Aufgeschlossenheit gegenüber generativer künstlicher Intelligenz

– Verfügbarkeit von Weiterbildungen, ethischen Standards und Fachkräften im Bereich der generativen KI

Bei der Kategorie «Aufgeschlossenheit» geht es insbesondere um die Offenheit und Bereitschaft der Organisation, generative KI zu nutzen und sich kontinuierlich weiterzuentwickeln. Die Ergebnisse deuten darauf hin, dass die organisationalen Kompetenzen bezüglich GKI je nach Art der Organisation variieren.

So wird insbesondere bei Agenturen oder Beratungsunternehmen die Aufgeschlossenheit des Arbeitgeber gegenüber generativer künstlicher Intelligenz als hoch

Personen, die in Agenturen oder in der Beratung arbeiten, schätzen die Aufgeschlossenheit ihrer Arbeitgeber gegenüber GKI am höchsten ein.

Aufgeschlossenheit gegenüber GKI

Agentur oder Beratung

Privates Unternehmen

Bildungs- & Forschungseinrichtung

Die Einschätzung der Aufgeschlossenheit der Organisation gegenüber GKI wurde in der Umfrage über sieben separate Items mit jeweils einer Likert-Skala (1–5) gemessen.

Abbildung 9: Einschätzung der Aufgeschlossenheit der Organisation gegenüber GKI nach Organisationsart (Mittelwert)

eingeschätzt (vgl. Abbildung 9). Dies deckt sich mit den Einschätzungen von Agenturmitarbeitenden und Beraterinnen und Beratern in Bezug auf die individuelle Literacy. So sind möglicherweise die Elemente der Kategorie «Aufgeschlossenheit» wie bspw. «In meiner Organisation herrscht eine Experimentierkultur in Bezug auf generative KI» und «In meiner Organisation werden Entwicklungen im Bereich der generativen KI aufmerksam verfolgt» in Agenturen und Beratungsunternehmen einfacher zu implementieren aufgrund der Grösse oder der benötigten Flexibilität in Bezug auf Angebote und Dienstleistungen. Die Businessmodelle und Angebotsstrukturen von Agentur- und Beratungsunternehmen im Bereich Kommunikation und Marketing sind wahrscheinlich stärker beeinflusst durch die Entwicklungen der generativen KI-Anwendungen.

Bei der Verfügbarkeit von Weiterbildungen, ethischen Standards und Fachkräften im Bereich der generativen KI zeigt sich ein anderes Bild. Agenturen und Beratungsunternehmen attestieren ihren Unternehmen eine hohe Aufgeschlossenheit, während sie die Verfügbarkeit von Weiterbildungen, ethischen Standards und Fachkräften am tiefsten einschätzen (vgl. Abbildung 10). Insbesondere die beiden Elemente «Meine Organisation hat festgelegte ethische Standards, wenn es um Generative-KI-Anwendungen geht» sowie «Meine Organisation bietet Schulungsangebote, um Mitarbeitende im Umgang mit Generativen-KI-Anwendungen weiterzubilden» zeigen tiefere Werte auf.

Die Ergebnisse zeigen, dass sich die Mitarbeitenden mehr Upskilling, mehr Befähigung und mehr Stossrichtungen im Umgang mit generativen KI-Tools wünschen, als die Unternehmen aktuell anbieten. Diese Ergebnisse decken sich mit anderen Studien. So zeigt eine Studie von Accenture (2024) dass, «94% der Menschen sagen, dass sie bereit sind, neue Fähigkeiten für die Arbeit mit der KI zu erlernen, [...] nur 5% der Unternehmen ihre Belegschaft aktiv und in grossem Umfang umbilden.» (Seite 7). Dies birgt zusätzlich das Risiko, dass Mitarbeitende ohne ausreichend Schulung und Enabling trotzdem diverse GKI-Tools nutzen und sich der Risiken nicht bewusst sind. Wenn es keine klaren Stossrichtungen und Anleitungen gibt, werden die GKI-Anwendungen von Mitarbeitenden entweder im Geheimen oder inkorrekt genutzt. Das Nutzen von GKI-Anwendungen im Geheimen nennt sich «Bring your own AI (BYOAI)». So zeigt eine Studie von Microsoft aus 2024, dass 78 % der (G)KI-Nutzerinnen und -Nutzer (weltweit) ihre eigenen Tools mit zur Arbeit bringen.

Personen, die in Agenturen oder in der Beratung arbeiten, schätzen die Verfügbarkeit von GKI-Weiterbildungen, ethischen Standards und Fachkräften am tiefsten ein.

Einschätzung Verfügbarkeit

Agentur oder Beratung

Privates Unternehmen

Bildungs- & Forschungseinrichtung

1.4

2.8

2.8

Die Einschätzung der Verfügbarkeit von Weiterbildungen, ethischen Standards und Fachkräften im Bereich der generativen KI wurde in der Umfrage über sieben separate Items mit jeweils einer Likert-Skala (1–5) gemessen.

Abbildung 10: Einschätzung der Verfügbarkeit von Weiterbildungen, ethischen Standards und Fachkräften im Bereich der generativen KI nach Organisationsart (Mittelwert)

Einsatz und Nutzung generativer künstlicher Intelligenz in Marketing- und Kommunikationsberufen GKI-Literacy

3. Nutzung generativer künstlicher Intelligenz

Analog zur ersten Studie aus dem Jahr 2023, wurde auch dieses Mal nach der Nutzung generativer künstlicher Intelligenz gefragt (vgl. Mohr et al. 2023). Dabei wurde bewusst darauf geachtet, dass die abgefragten Tätigkeiten eine Spannbreite von einfachen Routineaufgaben über kreative Tätigkeiten bis hin zu anspruchsvollen Entscheidungen abdecken.

3.1 Einsatz generativer künstlicher

Intelligenz

In Kürze

– Am häufigsten nutzen die Befragten GKI-Tools für die Erstellung und Bearbeitung von Texten.

– Dabei lassen sie sich vor allem bei der Zusammenfassung von Inhalten und der Ideengenerierung unterstützen.

– GKI-Tools werden für kreative und analytische Aufgaben genutzt und weniger für komplexe Entscheidungsfindung und Urteilsbildung.

Abbildung 11 zeigt, dass Generative-KI-Anwendungen von den befragten Fachleuten am häufigsten für das Erstellen oder Bearbeiten von Texten genutzt werden. Fast die Hälfte der Befragten verwendet KI hierfür sehr oft. Die Nutzung von KI für die Analyse von Bildern und Grafiken sowie die Auswertung von Daten liegt im mittleren Bereich, was auf eine moderate Akzeptanz hinweist. Diese Ergebnisse werden auch von der Studie der ZHAW gestützt. Auch in ihrer Studie belegte das Anwendungsgebiet «Texterstellung- und Bearbeitung» die Spitzenposition (vgl. Krämer et al. 2024). Dies kann u.a. auch mit ChatGPT als First Mover im Bereich Text und der aktuellen Marktdominanz von OpenAI begründet werden (59.4% Marktanteil weltweit, vgl. firstpagesage.com).

Generative künstliche Intelligenz wird unter den Befragten mit Abstand am häu gsten für die Texterstellung und Textbearbeitung verwendet.

Anteil der Befragten

Texterstellung & -bearbeitung

Bilderstellung & -bearbeitung

Datenanalyse & -visualisierung

Programmierung von Code

Video & Audioerstellung

Die Nutzungshäu gkeit der generativen KI-Tools nach Kategorien wude in der Umfrage über ein Item mit einer Skala für die Nutzungshäu gkeit von 1–5 (nie, selten, ab und zu, oft, sehr oft und k.A.) gemessen.

Abbildung 11: Anteil der Befragten, die generative KI-Tools nach eigenen Angaben regelmässig (d.h. oft bis sehr oft) in den jeweiligen Kategorien einsetzen (N = 132).

Einsatz und Nutzung generativer künstlicher Intelligenz in Marketing- und Kommunikationsberufen Nutzung generativer künstlicher Intelligenz

Zusätzlich wurden die Teilnehmenden befragt, bei welchen konkreten Aufgaben und Einsatzbereichen, generative KI-Tools für sie im Arbeitskontext besonders hilfreich sind. Die Ergebnisse verdeutlichen, dass GKIAnwendungen vor allem dafür genutzt werden, bestehende Inhalte zu vereinfachen und zusammenzufassen sowie neue Ideen zu generieren (vgl. Abbildung 12). Rund 80 % der Befragten geben an, GKI hilfreich für das Zusammenfassen von Informationen zu finden, während etwas mehr als zwei Drittel diese Technologie zur Entwicklung neuer Ideen einsetzen. Auch die Nutzung von GKI zur Einarbeitung in komplexe Themen sowie zur Automatisierung alltäglicher Aufgaben ist verbreitet (60 % resp. 53 %). Rund die Hälfte nutzt GKI regelmässig, um Wissen auf neue Situationen anzuwenden. Die Erkennung grundlegender Muster und Prinzipien durch GKI wird von einer kleineren Gruppe häufiger genutzt. Weniger verbreitet ist der Einsatz von GKI für fundierte Urteilsbildung und schwie-

rige Entscheidungen – nur eine sehr kleine Minderheit der Befragten greift hierauf häufig zurück. Insgesamt zeigt die Befragung: GKI wird primär für kreative und analytische Aufgaben sowie Recherche verwendet, während komplexe Entscheidungsfindungen und Urteilsbildung eher selten unterstützt werden.

Der zurückhaltende Einsatz von generativer KI für die Urteilsbildung könnte auch damit zusammenhängen, dass mittlerweile besser bekannt ist, dass generative KI-Tools Antworten basierend auf Mustern generieren, ohne den Inhalt wirklich zu verstehen, und nicht immer nachvollziehbar ist, wie ein bestimmtes Ergebnis von der Maschine generiert wurde (vgl. Cigaina, M., & Shoshan, I. 2024). So schreibt Open AI auf dem eigenen Blog »We can’t say definitively what it does and does not know, and don’t understand entirely when it does or does not express confidence in incorrect assertions” (Open AI 2024).

Generative künstliche Intelligenz unterstützt am stärksten in den Einsatzbereichen Zusammenfassung und Ideenentwicklung.

Anteil der Befragten

Zusammenfassung

Ideenentwicklung

Einarbeitung in neue Themen

Wissenstransfer Automatisierung

Mustererkennung

Urteilsbildung

Entscheidungs ndung

Die Zuordnung der generativen KI-Tools nach Einsatzgebiet wurde in der Umfrage über ein Item mit einer Skala von 1–5 (1 tri t nicht zu, 5 tri t zu und k.A.) gemessen.

Abbildung 12: Anteil der Befragten, die generativen KI-Tools attestieren, dass sie in den jeweiligen Bereichen unterstützen können.

Einsatz und Nutzung generativer künstlicher Intelligenz in Marketing- und Kommunikationsberufen Nutzung generativer künstlicher Intelligenz

Einsatz und Nutzung generativer künstlicher Intelligenz in Marketing- und Kommunikationsberufen Nutzung generativer künstlicher Intelligenz

3.2 Tools: ChatGPT und Copilot belegen die Spitzenpositionen

Einerseits wurde in der Studie abgefragt, welche generativen KI-Tools regelmässig eingesetzt werden. Andererseits diente diese Frage auch als Basis, um weitere Informationen zu Vertrauen resp. Skepsis gegenüber den Tools zu erfassen. Die Überlegung dahinter ist, dass nur diejenigen, die tatsächlich GKI-Anwendungen genutzt haben, weitere Informationen liefern können.

Die Abbildung 13 zeigt die Nutzung verschiedener generativer KI-Tools innerhalb der vergangenen vier Wochen vor der Umfrage. ChatGPT wurde am häufigsten genutzt, gefolgt von Copilot und Midjourney. Gemini

und Grammarly erreichen ebenfalls eine moderate Nutzung. Firefly wurde nicht einmal von jedem fünften Befragten genutzt, HeyGen, Synthesia und Runway haben die geringsten Nutzungsraten. Insgesamt dominiert ChatGPT die Nutzung deutlich, während andere Anwendungen erheblich seltener verwendet werden.

Die Spitzenpositionen von ChatGPT (OpenAI) und Copilot (Microsoft) lassen sich zusätzlich durch die Integration von ChatGPT in Copilot erklären. Die Ergebnisse zeigen, dass im Bildbereich zum Zeitpunkt der Umfrage Midjourney dominierte, grundsätzlich allerdings generative KI-Bild-Tools noch weniger eingesetzt werden als Text-Tools.

Zum Zeitpunkt der Umfrage war ChatGPT die mit Abstand am häu gsten verwendete Anwendung im Bereich der generativen KI.

Anteil der Befragten

Die Verwendungshäu gkeit der GKI-Anwendungen wurde in der Umfrage über ein Item mit einer binären Skala (in den letzten vier Wochen genutzt: Ja/Nein) gemessen.

Abbildung 13: Anteil der Befragten, welche die jeweiligen Tools in den letzte vier Wochen vor Ausfüllen der Umfrage genutzt haben (N = 128).

Einsatz und

und Kommunikationsberufen Nutzung generativer künstlicher Intelligenz

3.3 Vertrauen: Nützliche Tools sind auch sympathische Tools

In Kürze

– ChatGPT und Copilot werden als nützlich und sympathisch wahrgenommen.

– In Bezug auf ethische Bedenken und Integrität wird Midjourney vergleichsweise positiv bewertet, während Anwendungen wie ChatGPT und Copilot mehr Bedenken auslösen

– Die Ergebnisse zeigen spannenderweise, dass bei den GKI-Anwendungen die beiden Vertrauensdimensionen kognitiv-funktional (Expertise) und affektiv-emotional (Sympathie und Faszination) zusammenfallen. Es fasziniert und ist sympathisch, was Zeit spart und nützliche Ergebnisse liefert.

In einem weiteren Schritt wurde das Vertrauen in die gerannten GKI-Tools gemessen. Dabei wurde das Konstrukt Vertrauen über drei Dimensionen gemessen:

– Kognitiv-funktionale Dimension: Diese Dimension befasst sich mit der Frage, inwiefern GKI-Tools helfen, Aufgaben zu bewältigen (Expertise) und umfasst Befragungsitems wie «… funktioniert zuverlässig» oder «… liefert nützliche Ergebnisse».

– Affektiv-emotionale Dimension: Im Fokus stehen hier die Sympathie und Faszination gegenüber GKI-Tools. Relevante Items bei der Befragung waren u.a. «… nutze ich gerne» oder «… ist sympathisch».

– Kognitiv-soziale Dimension: Dieses Element beschreibt die Einschätzung der Integrität von GKI-Tools und wird erfasst über Items wie «… ist ethisch bedenklich» oder «… neigt zu diskriminierenden Ergebnissen».

Die Ergebnisse zeigen spannenderweise, dass bei den GKI-Anwendungen die beiden Vertrauensdimensionen kognitiv-funktional (Expertise) und affektiv-emotional (Sympathie und Faszination) zusammenfallen. Es fasziniert und ist sympathisch, was Zeit spart und nützliche Ergebnisse liefert. Das kann damit zusammenhängen, dass die Anwendungen nicht für komplexe Entscheidungsfindungen eingesetzt werden, sondern für Routinearbeiten wie Textzusammenfassungen. So sparen GKI-Tools insbesondere bei Routinearbeiten Zeit. Bereits in der ersten IMK-Befragung im Sommer 2023 bewerteten die Befragten die Einsparung von Recherchezeit und die Reduktion der Auftragsvergabe an Dritte als wichtigste Vorteile von GKI (vgl. IMK-Studie 2023). Zusätzlich steigt mit der regelmässigen Nutzung eines GKI-Tools (Expertise) auch die Vertrautheit resp. die Gewohnheit (Sympathie, «nutze ich gerne») im Umgang mit dem entsprechenden Tool.

Für die meistgenutzten Tools ChatGPT, Copilot, Midjourney und Gemini wurde eine Detailanalyse für die einzelnen Dimensionen von Vertrauen durchgeführt. ChatGPT erhielt durchweg hohe Bewertungen, insbesondere in der affektiv-emotionalen Dimension: ChatGPT fasziniert und wird gerne genutzt. Copilot und Midjourney wurden ebenfalls positiv bewertet, wobei Midjourney bei der Bewertung der Integrität (kognitiv-soziale Dimension, bspw. «ist ethisch bedenklich») etwas besser abschnitt. Dies kann auch damit erklärt werden, dass ChatGPT und Copilot stärker genutzt werden und deshalb auch mehr Erfahrungen, auch bspw. im Bereich der Halluzinationen, gesammelt wurden. Zusätzlich war die Firma OpenAI mit Negativschlagzeilen in den Medien vertreten, was eine mögliche Auswirkung auf die Integritätswahrnehmung des Tools haben kann (vgl. Langer 2024, Swiss IT Magazin 2024).

Insgesamt wird deutlich, dass ChatGPT besonders positiv wahrgenommen wird, während Copilot und Midjourney ebenfalls gute, aber etwas variablere Bewertungen erhalten. Gemini liegt hinsichtlich der Bewertungen in allen Dimensionen hinter den anderen Anwendungen zurück.

Einsatz und Nutzung generativer künstlicher Intelligenz in Marketing- und Kommunikationsberufen Risiken von generativer künstlicher Intelligenz

Einsatz und Nutzung generativer künstlicher Intelligenz in Marketing- und Kommunikationsberufen Risiken von generativer künstlicher Intelligenz

4. Risiken von generativer künstlicher Intelligenz

Die Teilnehmenden wurden auch nach einer Einschätzung diverser Risiken im Zusammenhang mit dem Einsatz generativer KI gebeten. Die Ergebnisse zeigen, dass Befragte mit einer hohen individuellen GKI-Literacy einen erhöhten Anpassungsdruck erleben. Hier zeigt sich das Spannungsfeld zwischen technologischem Fortschritt und den Auswirkungen auf die Arbeitsbelastung. Unternehmen müssen sich diesen Herausforderungen bewusst sein und mit entsprechenden Guidelines und Schulungsangeboten unterstützen.

4.1 Risikoeinschätzung

In Kürze

– Bei den Risiken wurde die Notwendigkeit beruflicher Weiterentwicklung am höchsten bewertet, gefolgt von der Sorge um die Missachtung geistigen Eigentums und der Verstärkung von Vorurteilen durch voreingenommene Daten.

– Auf der organisatorischen Ebene wurden weniger Bedenken hinsichtlich der Arbeitsplatzsicherheit geäussert.

– Die Ergebnisse deuten darauf hin, dass die Befragten sich vor allem um die persönlichen und gesellschaftlichen Auswirkungen der GKI-Nutzung sorgen.

Tredinnick und Laybats (2023) identifizieren diverse Risiken der GKI wie bspw. Desinformation, Privatsphäre und Datensicherheit, Verstärkung von Vorurteilen oder wirtschaftliche Umbrüche. Zusätzlich erwähnen sie ethische Bedenken in Bezug auf Nutzung persönlicher Daten und fehlender Transparenz bei GKI-generierten Inhalten.

In Anlehnung daran wurde die Risikowahrnehmung über diverse Fragen eingeschätzt wie bspw. «Das geistige Eigentum vieler Menschen wird missachtet», «Vorurteile werden verstärkt, die aus voreingenommenen Daten übernommen werden», «Die wirtschaftliche Ungleichheit in der Gesellschaft nimmt zu», «Meine Organisation muss Leute entlassen», «Ich muss mich beruflich weiterentwickeln», und «Von mir wird erwartet, dass ich mehr Aufgaben in weniger Zeit schaffe». Zusätzlich wurde mit Blick auf mögliche

Chancen das Item abgefragt: «Mir bleibt mehr Zeit für wichtige Aufgaben.»

Die Ergebnisse (vgl. Abbildung 14) zeigen, dass die Befragten ein differenziertes Bild davon haben, wie sie die persönlichen, organisationalen und gesellschaftlichen Risiken in Bezug auf GKI einschätzen. Bei den Risiken wurde die Notwendigkeit beruflicher Weiterentwicklung am höchsten bewertet (persönliches Risiko), gefolgt von der Sorge um die Missachtung geistigen Eigentums und der Verstärkung von Vorurteilen durch voreingenommene Daten (gesellschaftliche Risiken). Weitere Bedenken umfassen die Zunahme wirtschaftlicher Ungleichheit und die Erwartung, mehr Aufgaben in weniger Zeit zu schaffen. Die geringsten Bedenken wurden hinsichtlich der Arbeitslosigkeit und möglicher Entlassungen in der eigenen Organisation geäussert (organisationale Risiken). Dieses Ergebnis ist spannend, da Befragte in anderen Studien sich stark um die Zukunft ihres Arbeitsplatzes sorgen. So ergab eine Studie von Deloitte 2023, dass fast die Hälfte der Befragten (43%) fürchtet, ihren Job wegen des zunehmenden Einsatzes von KI-Programmen in den kommenden fünf Jahren zu verlieren (vgl. Grampp et al. 2023). Allerdings muss hier auch beachtet werden, dass die beiden Studien ein Jahr auseinanderliegen und in dieser Zeit neue Entwicklungen und mögliche andere Risiken in den Vordergrund getreten sind.

Auf der anderen Seite wurde eine grosse Chance in der Möglichkeit gesehen, mehr Zeit für wichtige Aufgaben zu haben. Diese Ergebnisse deuten darauf hin, dass die Befragten sich vor allem um die persönlichen und gesellschaftlichen Auswirkungen der GKI-Nutzung sorgen, während sie gleichzeitig Potenzial für Effizienzsteigerungen in ihrer Arbeit erkennen.

Einsatz und Nutzung generativer künstlicher Intelligenz in Marketing- und Kommunikationsberufen Risiken von generativer künstlicher Intelligenz

Bei den Risiken wurde die Notwendigkeit beru icher Weiterentwicklung am höchsten bewertet.

Beru iche Weiterentwicklung

Missachtung geistigen Eigentums

Verstärkung Vorurteile aus voreingenommenen Daten

Zunahme wirtschaftlicher Ungleichheit in der Gesellschaft

Erwartung, mehr Aufgaben in weniger Zeit zu erledigen

Steigende Arbeitslosigkeit

Entlassungen im eigenen Unternehmen

Die Risikoeinschätzung wude in der Umfrage über ein Item mit einer Skala von 1–5 (nie, selten, ab und zu, oft, sehr oft und k.A.) gemessen.

Abbildung 14: Mittelwerte der Items zur Beurteilung von Risiken (N=132).

4.2 Zusammenhang von GKI-Literacy und Risikowahrnehmung

In der vorliegenden Studie wurde zusätzlich analysiert, wie die individuelle und organisationale GKI-Literacy beeinflusst, wie die Teilnehmenden das Risiko einschätzen, sich weiterentwickeln zu müssen. Zusätzlich wurde die inhaltlich eng verwandte Frage betrachtet, dass man mehr Aufgaben in weniger Zeit schaffen muss. Die Analyse ergab, dass eine hohe individuelle Literacy mit einer höheren Risikoeinschätzung einhergeht. Je besser das allgemeine Handlungsvermögen, desto stärker wird der Anpassungsdruck wahrgenommen. Das Ergebnis deckt sich mit aktuellen Studien, die belegen, dass so genannte «Power AI User» ein höheres Risiko zu Burnout aufweisen und den gesteigerten Leistungsdruck stärker spüren (vgl. Quantum Workplace 2024). Der Anpassungsdruck und die Herausforderung mit den technologischen Anforderungen Schritt zu halten, stressen Mitarbeitende. Insbesondere, wenn sie generative KI-Tools regelmässig nutzen und sich informieren.

Einsatz und Nutzung generativer künstlicher Intelligenz in Marketing- und Kommunikationsberufen Risiken von generativer künstlicher Intelligenz

5. Fazit: Es braucht langfristige Enabling-Strategien und eine offene Unternehmenskultur

Generative Künstliche Intelligenz (GKI) ist eine Herausforderung für Individuen und Organisationen. Daher ist es wichtig, ein fundiertes Verständnis von GKILiteracy auf individueller und organisationaler Ebene zu entwickeln.

Die vorliegende Studie liefert mit dem GKI-LiteracyModell einen ersten wichtigen Schritt, indem GKI-Literacy als ein ganzheitlicher Ansatz definiert und verstanden wird, der über reine Prompting-Fähigkeiten hinausgeht und eine umfassende Handlungsfähigkeit beschreibt, die Motivation, technischen Zugang, Wissen, Fertigkeiten und ethische Werte einschliesst. Für Unternehmen bedeutet dies, dass sie sich nicht nur auf die technische Infrastruktur konzentrieren, sondern auch auf das in der Organisation vorhandene Wissen und die Organisationskultur, die es den Mitarbeitenden ermöglicht, GKI effektiv und ethisch reflektiert einzusetzen. Sowohl Individuen als auch Organisationen müssen GKI-Kompetenz entwickeln: Individuen benötigen Anwendungswissen und Reflexionsfähigkeit, die Unternehmen durch eine entsprechende Kultur und Infrastruktur fördern müssen.

Ziel der Studie war es, mehr Erkenntnisse über die GKILiteracy und die damit verbundenen Abhängigkeiten im Umgang mit generativen KI-Werkzeugen zu gewinnen. Dabei standen u.a. folgende Fragen im Fokus: Wie beeinflusst der Grad der individuellen GKI-Literacy die Einschätzung entsprechender Risiken? Welche GKIAnwendungen, wie ChatGPT oder Adobe Firefly, nutzen Beschäftigte? Welches Vertrauen haben sie in diese Anwendungen?

Die Ergebnisse zur GKI-Literacy zeigen, dass Befragte aus Agenturen und Beratungsunternehmen ihre Handlungskompetenzen und den Zugang zu GKI-Tools höher einschätzen als Befragte aus anderen Unternehmen. Gleichzeitig zeigen die Ergebnisse den Bedarf an Weiterbildung und Richtlinien in Agenturen und Beratungsunternehmen, da die Verfügbarkeit solcher Angebote als unzureichend eingeschätzt wird. Die Ergebnisse verdeutlichen den Bedarf und die Notwendigkeit gezielter Schulungsmassnahmen für den Umgang mit generativer künstlicher Intelligenz und die Stärkung des ethischen Bewusstseins. Unternehmen sind gefordert, verstärkt Schulungen anzubieten, um einen verantwortungsvollen und effektiven Einsatz von KI-Werkzeugen zu gewährleisten.

Die Nutzung von generativer künstlicher Intelligenz im beruflichen Kontext zeigt klare Trends. Kommunikations- und Marketingfachleute nutzen GKI-Werkzeuge vor allem für die Erstellung und Bearbeitung von Texten. Diese bevorzugten Anwendungsgebiete könnten unter anderem auf die führende Marktposition von OpenAI und ChatGPT zurückzuführen sein. Darüber hinaus werden GKI-Werkzeuge häufig zur Zusammenfassung von Inhalten und zur Ideengenerierung eingesetzt, was ihren Nutzen für kreative und analytische Aufgaben unterstreicht. Die Nutzung für komplexe Entscheidungsfindung und Urteilsbildung bleibt begrenzt. Dies könnte auf mangelndes Vertrauen in die Qualität der Ergebnisse hindeuten.

Die Untersuchung des Vertrauens in generative KITools zeigt, dass Vertrauen auf verschiedenen Ebenen entsteht. Insbesondere in der kognitiv-funktionalen Dimension, die die Nützlichkeit der Tools bewertet, schneiden Anwendungen wie ChatGPT und Copilot gut ab. Diese Tools werden nicht nur als effektiv bei der Bewältigung von Routineaufgaben wahrgenommen, sondern auch als sympathisch. Die Faktoren Sympathie und Faszination könnten auch mit der regelmässigen Nutzung zusammenhängen, da vertraute Tools als nützlich und angenehm empfunden werden. Im Bereich der kognitiv-sozialen Dimension, die ethische Bedenken und Integrität adressiert, gibt es Unterschiede: Während Midjourney vergleichsweise positiv bewertet wird, lösen Anwendungen wie ChatGPT und Copilot mehr Bedenken aus. Möglicherweise spielen auch hier Erfahrungen mit schlechten Ergebnissen und Halluzinationen sowie die Medienberichterstattung über die Anbieter eine Rolle bei der Bewertung.

Als Risiken wurden der Druck nach beruflicher Weiterentwicklung sowie gesellschaftliche Bedenken wie die Missachtung geistigen Eigentums und die Verstärkung von Vorurteilen genannt. Auf der organisatorischen Ebene wurden dagegen weniger Bedenken hinsichtlich der Arbeitsplatzsicherheit geäussert. Betrachtet man den Zusammenhang zwischen der individuellen GKILiteracy und den Risiken, so zeigt sich, dass Befragte

mit einer hohen individuellen GKI-Literacy einen erhöhten Anpassungsdruck erleben. Es zeigt sich ein Spannungsfeld zwischen technologischem Fortschritt und den Auswirkungen auf die Arbeitsbelastung. Entscheidend wird sein, wie Organisationen mit diesen Herausforderungen umgehen und gleichzeitig die Potenziale der generative KI-Tools nutzen können, um Effizienzgewinne zu realisieren.

Unternehmen sollten eine aufgeschlossene Kultur fördern, um sowohl die Vorteile als auch die Herausforderungen der GKI effektiv zu managen. Es braucht das Engagement von Führungspersonen, die auch die negativen Folgen wie erhöhter Leistungsdruck ernst nehmen und mit den entsprechenden Massnahmen ihre Teams und Abteilungen unterstützen und fördern.

Literaturverzeichnis

Banholzer, V.M. (2023). Technologie als Anstoss oder Antwort? Konvergenz von Marketing, Öffentlichkeitsarbeit und PR im Spiegel von Newsroom-Konzepten und KI-Lösungen. In: M. Nielsen, M. G. Ditlevsen, A. G. Julius Pedersen, A.G. (Hrsg.), Werbung und PR im digitalen Zeitalter. Europäische Kulturen in der Wirtschaftskommunikation (S. 29-56). Wiesbaden: Springer. doi.org/10.1007/978-3-658-38937-6_2

Cigaina, M. & Shoshan, I. (2024). Keys to ignite the generative business revolution. Abgerufen am 7.10.2024 von sap.com/blogs/ext-keys-to-ignite-the-generative-business-revolution firstpagesage.com, Top Generative AI Chatbots by Market Share – October 2024, abgerufen am 5.10.2024.

Grampp, M., Brandes, D., & Laude, D. (2023). Generative AI’s fast and furious entry into Switzerland. Usage and attitudes of the Swiss workforce towards Generative AI. Deloitte AG.

Howington, J. (2023). The AI Gender Gap: Exploring Variances in Workplace Adoption. Abgerufen am 10.10.2024 von flexjobs.com/blog/post/the-ai-gender-gap-exploring-variances-in-workplaceadoption/?ref=ellexx.com

Krämer, K., Niederhäuser, M. & Rosenberger, N. (2024). Kommunikation in der digitalen Transformation – Trendstudie Schweiz 2024 Mit Fokusthema: Generative Künstliche Intelligenz. Winterthur: ZHAW Zürcher Hochschule für Angewandte Wissenschaften. (Working Papers in Applied Linguistics 25). DOI: 10.21256/zhaw-2819 (doi.org/10.21256/zhaw-2819)

Langer, M-A. (2024). Manager kündigen, Hollywood-Stars klagen: Skandale erschüttern Open AI – doch das Geschäft boomt. NZZ-Artikel vom 10.06.2024.

Microsoft (2024). AI at Work Is Here. Now Comes the Hard Part. Employees want AI, leaders are looking for a path forward.

Mohr, S., Stutz, N., Griesser, S., Rast, V. & Zeder. R. (2023). Einsatz und Nutzung generativer künstlicher Intelligenz in Marketing- und Kommunikationsberufen. Eine Studie des Instituts für Kommunikation und Marketing IKM, März 2023.

OpenAI (2024). Does ChatGPT tell the truth? Abgerufen am 5.10.2024 von https://help.openai.com/en/ articles/8313428-does-chatgpt-tell-the-truth

Quantum Workplace (2024). Burnout is More Than Just Stress. Abgerufen am 12.10.2024 von quantumworkplace.com/employee-engagement-trends-report/employee-experience#ai-doesnt-reduce-burnout

Sætra, H. S. (2023). Generative AI: Here to stay, but for good? Technology in Society, 75(102372), 1–5. doi.org/10.1016/j.techsoc.2023.102372

Shook, E. & Daugherty, P. (2024). Work, Workforce, Workers. Reinvented in the age of generative AI. Accenture.

Suskind, R. & Suskind, D. (2015). The future of the professions: How technology will transform the work of human experts. Oxford: Oxford University Press.

Einsatz und Nutzung generativer künstlicher Intelligenz in Marketing- und Kommunikationsberufen Literaturverzeichnis

Swiss IT Magazin (2024). Kritik an OpenAI und Deepmind: Angestellte fordern Transparenz. Abgerufen am 10.10.2024 von itmagazine.ch/artikel/82324/Kritik_an_OpenAI_und_Deepmind_Angestellte_fordern_Transparenz.html

Tredinnick, L. & Laybats, C. (2023). The dangers of generative artificial intelligence. Business Information Review, 40(2), 46-48. doi.org/10.1177/02663821231154167

Autorinnen/Autoren

Prof. Dr. Philipp Bachmann

Dozent Digital Analytics

philipp.bachmann.01@hslu.ch

Link zum Personalprofil

Dr. Nadine Stutz

Dozentin Digital Communication nadine.stutz@hslu.ch

Link zum Personalprofil

Prof. Seraina Mohr

Leiterin Competence Center Communication Management seraina.mohr@hslu.ch

Link zum Personalprofil

Vinzenz Rast

Leiter Competence Center Business Communication vinzenz.rast@hslu.ch

Link zum Personalprofil

Raphael Zeder

Dozent Digital Analytics raphael.zeder@hslu.ch

Link zum Personalprofil

Dr. Simone Griesser Senior wissenschaftliche Mitarbeiterin simone.griesser@hslu.ch

Link zum Personalprofil

Schwerpunkte

– Kommunikationskompetenz

– Organisationskommunikation

– Strategische Kommunikation

– Krisenmanagement und Krisenkommunikation

Schwerpunkte

– Generative KI

– Digitale Kommunikation & Strategien

– Digital & GenAI Enabling

– Social Media Strategien

– Digital Change & Newsroom

Schwerpunkte

– Digitales Kommunikationsmanagement

– Content Strategien

– Aufbau und Entwicklung von Communities

– Digitale Transformation in Marketing und Kommunikation

Schwerpunkte

– Kommunikationskompetenz

– Präsentationsrhetorik

– Schreibcoaching

– Text und Bild

Schwerpunkte

– Digital Analytics

– Data Visualization & Storytelling

– User Experience

– Applied Artificial Intelligence

Forschungsschwerpunkte

– Entwickeln Sprachmuster für Marketing und Kommunikation (z.B. Markenpersönlichkeit) mit Natural Language Processing

– Marken- und Unternehmensreputation

– Markenpositionierung

– Konsumentenverhalten

Hochschule Luzern Wirtschaft Institut für Kommunikation und Marketing IKM

Zentralstrasse 9

Postfach 6002 Luzern

T +41 41 228 99 50

ikm@hslu.ch hslu.ch/ikm

Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.