Einsatz und Nutzung generativer künstlicher Intelligenz in Marketing- und Kommunikationsberufen
Einsatz und Nutzung generativer künstlicher Intelligenz in Marketing- und Kommunikationsberufen
Eine Studie des Instituts für Kommunikation und Marketing IKM
Impressum
Hochschule Luzern
Wirtschaft
Institut für Kommunikation und Marketing IKM
Zentralstrasse 9
Postfach
6002 Luzern
T +41 41 228 99 50 ikm@hslu.ch hslu.ch/ikm
Projektleitung
Prof. Dr. Philipp Bachmann, IKM
Dr. Nadine Stutz, IKM
Prof. Seraina Mohr, IKM
Vinzenz Rast, IKM
Raphael Zeder, IKM
Dr. Simone Griesser, IKM
Alle Rechte für den Nachdruck und die Vervielfältigung dieser Arbeit liegen beim Institut für Kommunikation und Marketing der Hochschule Luzern – Wirtschaft. Die Weitergabe an Dritte bleibt ausgeschlossen.
Die Studie zeigt, dass die Entwicklung eines fundierten Verständnisses von Kompetenzen zur generativen Künstlichen Intelligenz (GKI-Kompetenzen) von entscheidender Bedeutung ist. Dabei geht es nicht nur um technisches Wissen, sondern auch um ethische Überlegungen und die Fähigkeit, GKI sinnvoll und verantwortungsvoll einzusetzen. Unternehmen müssen nicht nur in die technische Infrastruktur investieren, sondern auch in die Weiterentwicklung der GKI-Kompetenzen ihrer Mitarbeiterinnen und Mitarbeiter sowie in eine offene Unternehmenskultur, die diese Entwicklung unterstützt. Für die vorliegende Studie wurde daher ein GKI-Literacy-Modell entwickelt, das den Zusammenhang zwischen individueller und organisationaler GKILiteracy aufzeigt.
Darüber hinaus wurden die Teilnehmenden zur Nutzung verschiedener Tools sowie zu den Einsatzmöglichkeiten und Risiken befragt. Die Teilnehmerinnen und Teilnehmer wurden über verschiedene Kanäle rekrutiert, unter anderem über den Newsletter und die LinkedIn-Seite des Instituts sowie über die Netzwerke der Forscherinnen und Forscher.
Die Ergebnisse der Studie zeigen, dass Befragte aus Agenturen und Beratungsunternehmen ihre individuelle GKI-Literacy am höchsten einschätzen und ihren Unternehmen eine hohe Aufgeschlossenheit gegenüber generativer künstlicher Intelligenz attestieren. Die gleiche Befragtengruppe sieht jedoch Nachholbedarf bei gezielten Schulungsmassnahmen und der Stärkung des ethischen Bewusstseins. Männer schätzen ihre Umgangskompetenzen deutlich höher ein als Frauen.
Generative KI-Tools werden vor allem zur Texterstellung und -bearbeitung sowie zur Zusammenfassung von Inhalten und zur Ideengenerierung eingesetzt. Dies unterstreicht den Nutzen von GKI-Anwendungen für kreative und analytische Aufgaben. Die Nutzung für komplexe Entscheidungs- und Urteilsbildungsprozesse bleibt dagegen gering.
Die Ergebnisse zum Vertrauen in generative KI-Tools zeigen, dass Anwendungen wie ChatGPT und Copilot in der kognitiv-funktionalen Dimension, die die Nützlichkeit und Sympathie der Tools bewertet, gut abschneiden. In der kognitiv-sozialen Dimension, die ethische Bedenken und Integrität adressiert, wird Midjourney vergleichsweise positiv bewertet, während Anwendungen wie ChatGPT und Copilot mehr Bedenken hervorrufen.
Als grösstes Risiko wurde der persönliche Druck zur beruflichen Weiterentwicklung genannt. Die Ergebnisse deuten darauf hin, dass die Befragten vor allem über die persönlichen und sozialen Auswirkungen der Nutzung von GKI-Tools besorgt sind, während sie gleichzeitig das Potenzial für Effizienzsteigerungen in ihrer Arbeit erkennen. Darüber hinaus zeigen die Ergebnisse, dass eine hohe individuelle GKI-Literacy zu einem Anpassungsdruck führt. Unternehmen müssen das Spannungsfeld zwischen technologischem Fortschritt und den Auswirkungen auf die Arbeitsbelastung ernst nehmen und gleichzeitig in der Lage sein, die Potenziale generativer KI-Werkzeuge zu nutzen.
Unternehmen sind gefordert, eine offene Unternehmenskultur zu fördern, die die Herausforderungen und Chancen von GKI berücksichtigt. Es bedarf gezielter Massnahmen und Programme, um die Mitarbeiterinnen und Mitarbeiter bei diesem Wandel zu unterstützen und zu begleiten.
Ausgangslage und Ziele der Studie
1. Einleitung
und Ziele der Studie
Generative Künstliche Intelligenz (GKI) beeindruckt mit Fähigkeiten, die sowohl Einzelpersonen als auch Organisationen herausfordern und Anpassungen erfordern. Unter GKI versteht man Software, die grosse Datenmengen verarbeitet und durch parallele Berechnungen sowie eine gezielte Reaktion auf Nutzereingaben kreative Inhalte erzeugen kann. Diese technologische Revolution ermöglicht es, komplexe Aufgaben, die einst menschlicher Intelligenz vorbehalten waren, in Sekundenschnelle zu erledigen. Anwendungen wie ChatGPT und Midjourney generieren beispielsweise Texte und Bilder in gewünschten Themen, Stilen und Stimmungen. Der gezielte Einsatz von GKI bietet somit das Potenzial, Wettbewerbsvorteile zu sichern.
1.1 Ausgangslage
Die Konsequenzen von GKI sind nicht nur positiv. Eine Sorge besteht darin, dass neue Technologien bestehende Menschen und Organisationen zwar nicht überflüssig machen, sie jedoch jene verdrängen, die technisch nicht auf der Höhe der Zeit bleiben, wie Suskind und Suskind (2015) aufzeigen.
GKI-Literacy wird zunehmend als entscheidender Faktor für die Bewältigung der Herausforderungen im Zusammenhang mit der Verbreitung von generativer KI angesehen. GKI-Literacy, d.h. die Fähigkeit, grundlegende Kenntnisse über die Funktionsweise, Möglichkeiten und Grenzen künstlicher Intelligenz zu erwerben, ermöglicht es Individuen und Organisationen, KI-Systeme effektiv und verantwortungsvoll zu nutzen. Insbesondere in einem Umfeld, das von schnellen technologischen Veränderungen geprägt ist, hilft eine fundierte GKI-Literacy dabei, technologische Entwicklungen nicht nur passiv zu konsumieren, sondern aktiv mitzugestalten. Eine GKI-Literacy kann die Risiken mindern, die mit einer uninformierten oder unsachgemässen Nutzung von KI verbunden sind. Darüber hinaus schafft sie ein besseres Verständnis für ethische Fragen und ermöglicht es, fundierte Entscheidungen im Umgang mit KI zu treffen. Organisationen, die in die Entwicklung von GKI-Kompetenzen ihrer Mitarbeitenden investieren, können sich nicht nur gegen Disruptionen wappnen, sondern auch Geschäftspotenziale freisetzen. Auch die Ergebnisse einer Studie von Accenture in der Schweiz bestätigen den positiven Zusammenhang zwischen befähigten Mitarbeitenden und zusätzlicher Wertschöpfung für das Unternehmen. Dabei spricht die Studie von einer «menschen-
zentrierten Implementierung, [...] wobei der Mensch und die Innovation im Mittelpunkt stehen» (Shook et al. 2024).
Diese vorliegende Studie adressiert dabei mehrere Forschungslücken. Es wird nicht nur die GKI-Literacy von Individuen behandelt, sondern auch jene von Organisationen sowie deren Zusammenspiel. Das dafür entwickelte Modell zeigt auf, wie sich die GKI-Literacy von Individuen und Organisationen messen lässt und liefert eine empirische Bestandsaufnahme, wie GKI-Anwendungen von Fachleuten aus Wirtschaft und Kommunikation in der Schweiz genutzt werden und wie viel Vertrauen (oder Skepsis) diesen Anwendungen entgegengebracht wird.
Einsatz und Nutzung
Ausgangslage und Ziele der Studie
1.2 Das GKI-Literacy-Modell
In Kürze
– Individuelle GKI-Literacy umfasst das allgemeine Handlungsvermögen, Zugang und Umsetzungskompetenz sowie Beurteilungsund Erkennungskompetenz.
– Organisationale GKI-Literacy beinhaltet Aufgeschlossenheit gegenüber generativer künstlicher Intelligenz sowie Verfügbarkeit von Weiterbildungen, ethischen Standards und Fachkräften im Bereich der generativen KI.
– Für die Studie wurde ein GKI-Literacy-Modell entwickelt, dass den Zusammenhang zwischen den beiden Dimensionen aufzeigt und über das reine Anwendungswissen wie Prompting hinausgeht.
Früher bezog sich der Begriff «literacy» auf die Lesefähigkeit, heute wird er häufig verwendet, um Kenntnisse oder Fähigkeiten in bestimmten Bereichen zu beschreiben. Beispiele sind «Political Literacy» (politische Bildung), «Financial Literacy» (Finanzkompetenz) oder «Media Literacy» (Medienkompetenz). Mit der Digitalisierung haben neue Varianten an Bedeutung gewonnen, wie «Digital Literacy» und neuerdings «AI Literacy». Diese Entwicklungen spiegeln die Herausforderungen der modernen Welt wider: Das Expertenwissen wächst in vielen Bereichen so schnell, dass es unmöglich ist, überall auf dem neuesten Stand zu sein. Menschen und Organisationen verlassen sich daher zunehmend auf Technologie und Fachwissen. Diese Abhängigkeit schafft sowohl Vertrauen als auch Skepsis gegenüber komplexen Systemen und Expertenwissen.
Für die vorliegende Studie wurde individuelle GKI-Literacy wie folgt definiert:
Individuelle GKI-Literacy umfasst die Handlungs- und Reflexionsfähigkeit eines Menschen, um vielfältige Probleme im Zusammenhang mit oder durch GKI zu lösen (allgemeines Handlungsvermögen). Dies beinhaltet den Zugang zu GKI-Anwendungen sowie sowohl routinemässiges Alltagsverhalten als auch die Mög-
lichkeit, in variablen Situationen reflexiv zu agieren. Dazu ist ein praktisches und diskursives Bewusstsein erforderlich, das neben Fachwissen und Fertigkeiten auch Werte und Motivation einschliesst (Zugang und Umsetzungskompetenz). Die Handlungs- und Reflexionsfähigkeit bezieht sich sowohl auf die Nutzung von GKI für eigene Zwecke als auch auf die Bewertung von GKI-Erzeugnissen anderer, beispielsweise hinsichtlich deren Qualität oder gesellschaftlicher Auswirkungen (Beurteilungskompetenz)
Für die vorliegende Studie wurde organisationale GKILiteracy wie folgt definiert:
Organisationale GKI-Literacy bezeichnet die in einer Organisation eingebetteten materiellen Ressourcen (z.B. technische Infrastruktur) und immateriellen Ressourcen (z.B. Lizenzen, Fachwissen) sowie die Organisationskultur konstituierenden Regeln, die es den Mitarbeitenden ermöglichen, vielfältige Organisationsaufgaben im Zusammenhang mit oder durch GKI zu lösen (z.B. Experimentier- und Lernkultur). Dies trägt dazu bei, dass bisherige Verfahren und Abläufe strukturell hinterfragt werden (institutionelle Reflexivität), um sie effektiver und effizienter oder ethisch reflektierter gestalten zu können.
Der Zusammenhang der beiden Ebenen ist ein wechselseitiges Verhältnis (vgl. Abbildung 1): Organisationen ermöglichen und begrenzen das Handeln der Mitarbeitenden und Stakeholder, während diese Strukturen zugleich durch deren Handlungen – sowohl die routinemässigen als auch die reflexiv gesteuerten – reproduziert und verändert werden (vgl. Banholzer 2023).
Einsatz und Nutzung generativer künstlicher Intelligenz in
Ausgangslage und Ziele der Studie
Das GKI-Literacy-Modell
s und R
E t hi sc h e S t
Materielle und immaterielle Ressourcen (z B Infrastruktur und Lizenzen)
Grad an institutioneller Re exivität (z B Experimentierund Lernkultur)
Schulungs- und Weiterbildungsmöglichkeiten
und
ing
Organisationsebene
Die GKI - Literacy einer Organisation (bzw einer Organisationseinheit) umfasst dessen Aufgeschlossenheit und Veränderungsbereitschaft in Bezug auf GKI sowie die diesbezügliche Verfügbarkeit von Weiterbildungen, ethischen Standards und Fachkräften
reproduzieren und modi zieren
ermöglichen und begrenzen
Die Strukturen einer Organisation begrenzen und ermöglichen das Verhalten und Handeln der Mitarbeitenden, während diese durch ihr Verhalten und ihre Handlungen die Organisationsstrukturen zugleich reproduzieren und verändern
K o m p e t e n z , ei g e n e G KO u t p u t s z u e r z
Anwendungswissen zu GKI (z B Prompting)
Handlungs- und Re exionsfähigkeit sowie Motivation und Werte, um Probleme mit oder durch GKI zu lösen
Fachwissen über GKI und angrenzende Themen (z B Datenschutz)
Individuelle Ebene
Die GKI - Literacy eines einzelnen Mitarbeitenden umfasst dessen allgemeines Handlungsvermögen, dessen Zugang und Umsetzungskompetenz sowie dessen Beurteilungs - und Erkennungskompetenz
Abbildung 1: Das Zusammenspiel von individueller und organisationaler GKI-Literacy
Einsatz und Nutzung
Ausgangslage und Ziele der Studie
1.3 Studiendesign
Um das Zusammenspiel der beiden GKI-Literacy-Formen im aktuellen Kontext zu untersuchen, wurden in einer Studie Organisationen und ihre Akteure untersucht. Die Studie basiert auf einer Onlinebefragung von Fachleuten im Umfeld des Departments Wirtschaft an der Hochschule Luzern (HSLU). Absender der Umfrage war das Institut für Kommunikation und Marketing (IKM). Der Erhebungszeitraum fand vom 4. April bis 18. Mai 2024 statt. Auf die Umfrage wurde über Kommunikationskanäle aufmerksam gemacht, etwa auf LinkedIn, im Alumni-Newsletter oder durch Hinweise in der Weiterbildung. Zwar ist durch dieses Vorgehen, eine genaue Grundgesamtheit nicht festlegbar, doch durch diese kontrollierte Verbreitung des Fragebogens kann gewährleistet werden, dass die Zielgruppe – Fachleute aus Wirtschaft und Kommunikation – erreicht werden.
Insgesamt haben 132 Teilnehmende den Fragebogen vollständig ausgefüllt, davon 73 Männer (55,3 Prozent) und 59 Frauen (44,7 Prozent) (vgl. Abbildung 2). Die Befragten waren zwischen 19 und 68 Jahre alt (vgl. Abbildung 3). Die meisten Befragten arbeiten bei privaten Unternehmen (39,4 Prozent) oder bei Agenturen und in der Beratung (17,4 Prozent) sowie in Bildungs- und Forschungseinrichtungen (17,4 Prozent), gefolgt von öffentlichen Organisationen (12,9 Prozent) und NGOs (4,5 Prozent) (vgl. Abbildung 4).
Von den Befragten gaben 68,2 Prozent an, dass sie im Bereich Kommunikation und Marketing tätig sind; 18,9 Prozent im Bereich Betriebs- und Regionalökonomie, 17,4 Prozent im Bereich Banking und Finanzen und 6,1 Prozent im Bereich Tourismus und Mobilität. Mehrfachnennungen waren möglich (vgl. Abbildung 5). Dieser Verteilung zeigt, dass der angestrebte Personenkreis erreicht wurde.
Bei den Befragten sind die Männer im Vergleich zu den Frauen leicht in der Überzahl.
Abbildung 2: Verteilung der Befragten nach Geschlecht
Mann Frau
Einsatz und Nutzung
Ausgangslage und Ziele der Studie
und Kommunikationsberufen
Bei den Alterskategorien der Befragten zeigt sich eine gut ausgewogene Mischung.
Anzahl Befragte
Abbildung 3: Anzahl Befragte nach Alter
Die meisten Befragten arbeiten in privaten Unternehmen.
Privates Unternehmen
Bildungs- & Forschungseinrichtung
Agentur oder Beratung
Ö entliche Organisation
Non-Pro t-Organisation
Abbildung 4: Anzahl Befragte nach Organisationsart
Einsatz und Nutzung generativer künstlicher Intelligenz in Marketing- und Kommunikationsberufen
Ausgangslage und Ziele der Studie
Die meisten Befragten sind im Bereich Kommunikation und Marketing tätig.
Einsatz und Nutzung generativer künstlicher Intelligenz in Marketing- und Kommunikationsberufen
Ausgangslage und Ziele der Studie
2. GKI-Literacy
Generative Künstliche Intelligenz beeindruckt durch Fähigkeiten, die Anpassungen von Individuen und Organisationen erfordern. Nach Sætra (2023) bezeichnet GKI «maschinelle Lernlösungen», die auf grossen Datenmengen basieren und auf Benutzereingaben reagieren. Doch welche Kompetenzen und Kenntnisse braucht es nun, um sich diesen Entwicklungen zu stellen, die Anpassungen zu gestalten und generative KI sinnvoll einsetzen zu können? Antworten auf diese Fragen liefern die Ergebnisse zur individuellen und organisationalen GKI-Literacy aus der Studie.
2.1 Individuelle GKI-Literacy
In Kürze
– Befragte aus Agenturen und Beratungsunternehmen schätzen das eigene Handlungsvermögen sowie die eigenen Kompetenzen im Umgang mit generativen KI-Anwendungen am höchsten ein.
– Bei der Einschätzung der Zugangs- und Umgangskompetenzen gibt es Unterschiede zwischen Männern und Frauen. Männer schätzen ihre Kompetenzen deutlich höher ein.
– Unternehmen sollten hier den Digital Gap zwischen Frauen und Männern im Auge behalten.
Aus der Definition der individuellen GKI-Literacy wurden neun Fragen abgeleitet, anhand denen die Teilnehmenden ihre Literacy einschätzen mussten. Die Motivation wurde beispielsweise operationalisiert als «Ich bin im Bereich der generativen KI auf dem Laufenden», der technische Zugang mit «Ich habe Zugriff auf Generative-KI-Anwendungen, die ich benötige», das Fachwissen mit «Ich verstehe die grundlegenden technischen Funktionsweisen hinter generativer KI» und die Beurteilungskompetenz mit «Ich habe meist ein gutes Gespür, ob ein Text, Bild oder Video mit Hilfe generativer KI erzeugt wurde».
Die Analyse hat gezeigt, dass die unterschiedlichen Fragen in drei Kategorien eingeordnet werden können:
– Allgemeines Handlungsvermögen
– Zugang und Umsetzungskompetenz
– Beurteilungs- und Erkennungskompetenz
Zusätzlich zur Selbsteinschätzung wurde das Fachwissen der Teilnehmenden durch ein Quiz mit zehn Ja-Nein-Fragen abgefragt. Die Erstellung der Quizfragen erfolgte im Austausch mit verschiedenen Expertinnen und Experten am IKM, um sicherzustellen, dass verschiedene Wissensbereiche abgedeckt werden. Beispiele für solche Fragen sind: «OpenAI ist eine gemeinnützige Stiftung für Künstliche Intelligenz» (falsch) und «Die Ergebnisse (Outputs) von generativer KI (ChatGPT, Gemini und Co.) beruhen auf mathematisch berechneten Wahrscheinlichkeiten» (korrekt). Das Quiz bietet somit eine Möglichkeit, über eine Selbsteinschätzung hinaus das Wissen der Teilnehmenden auf eine unterhaltsame Weise zu überprüfen und mögliche Diskrepanzen zwischen Selbsteinschätzung und vorhandenem Wissen aufzuzeigen.
Insbesondere bei der Kategorie «Beurteilungs- und Erkennungskompetenz» ist zu beachten, dass es technisch schwierig bis unmöglich ist, tatsächlich zu beurteilen, ob ein Text, Bild oder Video mit Hilfe generativer KI erzeugt wurde oder nicht. Eine zu hohe Selbstgewissheit kann auch darauf hindeuten, dass man gerade nicht über eine hohe GKI-Kompetenz verfügt. Dies lässt sich prüfen, indem man untersucht, inwiefern die drei Kategorien (Selbsteinschätzung) mit dem Quiz-Score übereinstimmen. Es zeigte sich, dass die Beurteilungs- und Erkennungskompetenz, die sich Personen selbst zuschreiben, nicht mit den Quiz-Scores korrelieren. Das bedeutet: Personen, die
GKI-Literacy
sich selbst eine hohe Beurteilungs- und Erkennungskompetenz zuschreiben, erzielen keine höheren Scores beim Quiz.
Bei den anderen beiden Kategorien bestätigte sich, dass die Befragten mit einem höheren Quiz-Wert auch angaben, eine höhere GKI-Kompetenz zu haben.
Die Ergebnisse zum allgemeinen Handlungsvermögen zeigen, dass Teilnehmende, die in Agenturen oder in der Beratung tätig sind, diese bei sich selbst am höchsten einschätzen (vgl. Abbildung 6). Eine mögliche Erklärung hierfür ist, dass diese Agenturen sowie Beraterinnen und Berater an der Schnittstelle zwischen Unternehmen und generativer KI tätig sind und sich daher schneller und intensiver mit der Thematik auseinandersetzen müssen.
Bei der Einschätzung in der Kategorie «Zugang und Umgangskompetenzen» zeichnet sich das gleiche Bild ab (vgl. Abbildung 7): auch hier schätzen die Befragten aus Agenturen ihre Kompetenz im Umgang mit generativer KI am höchsten ein. Das Item «Ich habe Zugriff auf Generative-KI-Anwendungen, die ich benötige»,
wird von allen Teilnehmenden am höchsten bewertet. Das könnte im Kontext der Agenturen und Beraterinnen und Berater auch darauf hinweisen, dass der Zugriff auf generative KI-Tools einfacher ist und eventuell mit weniger Hürden verbunden ist aufgrund der Grösse der Unternehmen oder der Komplexität der Organisationen.
Bei den Ergebnissen zur Zugangs- und Umsetzungskompetenz zeigten sich signifikante Unterschiede bei der Selbsteinschätzung zwischen Männern und Frauen (vgl. Abbildung 8): So schätzen Männer ihre Kompetenz im Umgang mit generativen KI-Tools deutlich höher ein. Eine höhere Selbsteinschätzung könnte auch dazu führen, dass Männer sich schneller mit den neuen Technologien auseinandersetzen und dadurch einen Vorteil erlangen. Zusätzlich zeigte eine Studie auf, dass Männer (54 %) generative KI sowohl im Privatals auch im Berufsleben nutzen, während Frauen (35 %) die GKI viel langsamer einsetzen (vgl. Howington 2023). Die Ergebnisse einer Analyse von Goldman Sachs im März 2023 zeigen, dass acht von zehn Frauen in den USA in Berufen tätig sind, die in hohem Masse von generativer KI-Automatisierung betroffen sind.
Personen, die in Agenturen oder in der Beratung arbeiten, schätzen ihr allgemeines Handlungsvermögen im Bereich generative KI am höchsten ein.
Allgemeines Handlungsvermögen
Agentur oder Beratung
Bildungs- & Forschungseinrichtung
Privates Unternehmen
Die Selbsteinschätzung des allgemeinen Handlungsvermögens im Bereich der generativen KI wurde in der Umfrage über vier separate Items mit jeweils einer Likert-Skala (1–5) gemessen.
Abbildung 6: Selbsteinschätzung allgemeines Handlungsvermögen nach Organisationsart (Mittelwert)
Einsatz und Nutzung
Personen, die in Agenturen oder in der Beratung arbeiten, schätzen ihre Kompetenz im Umgang mit generativen KI-Tools am höchsten ein.
Zugang und Umsetzungskompetenz
Agentur oder Beratung
Bildungs- & Forschungseinrichtung
Privates Unternehmen
Die Selbsteinschätzung von Zugang und Umsetzungskompetenz im Bereich der generativen KI wurde in der Umfrage über drei separate Items mit jeweils einer Likert-Skala (1–5) gemessen.
Abbildung 7: Selbsteinschätzung Zugang und Umsetzungskompetenz nach Organisationsart (Mittelwert)
Männer schätzen ihre Kompetenz im Umgang mit generativen KI-Tools deutlich höher ein als Frauen.
Zugang und Umsetzungskompetenz
Männer
Frauen
Die Selbsteinschätzung von Zugang und Umsetzungskompetenz im Bereich der generativen KI wurde in der Umfrage über drei separate Items mit jeweils einer Likert-Skala (1–5) gemessen.
Abbildung 8: Selbsteinschätzung Zugang und Umsetzungskompetenz nach Geschlecht (Mittelwert)
2.2 Organisationale GKI-Literacy
In Kürze
– Befragte aus Agenturen und Beratungsunternehmen attestieren ihren Unternehmen eine hohe Aufgeschlossenheit gegenüber GKI-Anwendungen.
– Gleichzeitig zeigt sich genau in dieser Teilnehmendengruppe, dass sie sich mehr Upskilling, mehr Befähigung und mehr Stossrichtungen im Umgang mit generativen KI-Tools wünschen, als die Unternehmen aktuell anbieten.
– Unternehmen sollten hier zielgerichtete Massnahmen und Enabling-Programme umsetzen, um einen verantwortungsvollen und effektiven Einsatz von KI-Werkzeugen zu gewährleisten.
Aus der Definition der organisationalen GKI-Literacy wurden elf Fragen abgeleitet, anhand denen die Teilnehmenden die Literacy ihres Unternehmens einschätzen mussten. Es wurden vor allem zwei Bereiche abgefragt: zum einen die vorherrschende institutionelle Reflexivität gegenüber GKI, zum anderen die organisationalen Ressourcen. Die institutionelle Reflexivität wurde zum Beispiel über folgende Items
abgefragt: «In meiner Organisation ist man grundsätzlich aufgeschlossen, generative KI einzusetzen» oder «In meiner Organisation herrscht eine Experimentierkultur in Bezug auf generative KI». Die organisationalen Ressourcen wurden abgefragt über Items, wie: «Meine Organisation verfügt über die notwendige technische Infrastruktur, um Generative KI-Anwendungen zu nutzen» und «Meine Organisation verfügt über notwendige Lizenzen, um Generative-KI-Anwendungen zu nutzen».
Die Analyse hat gezeigt, dass die unterschiedlichen Fragen in zwei Kategorien eingeordnet werden können:
– Aufgeschlossenheit gegenüber generativer künstlicher Intelligenz
– Verfügbarkeit von Weiterbildungen, ethischen Standards und Fachkräften im Bereich der generativen KI
Bei der Kategorie «Aufgeschlossenheit» geht es insbesondere um die Offenheit und Bereitschaft der Organisation, generative KI zu nutzen und sich kontinuierlich weiterzuentwickeln. Die Ergebnisse deuten darauf hin, dass die organisationalen Kompetenzen bezüglich GKI je nach Art der Organisation variieren.
So wird insbesondere bei Agenturen oder Beratungsunternehmen die Aufgeschlossenheit des Arbeitgeber gegenüber generativer künstlicher Intelligenz als hoch
Personen, die in Agenturen oder in der Beratung arbeiten, schätzen die Aufgeschlossenheit ihrer Arbeitgeber gegenüber GKI am höchsten ein.
Aufgeschlossenheit gegenüber GKI
Agentur oder Beratung
Privates Unternehmen
Bildungs- & Forschungseinrichtung
Die Einschätzung der Aufgeschlossenheit der Organisation gegenüber GKI wurde in der Umfrage über sieben separate Items mit jeweils einer Likert-Skala (1–5) gemessen.
Abbildung 9: Einschätzung der Aufgeschlossenheit der Organisation gegenüber GKI nach Organisationsart (Mittelwert)
eingeschätzt (vgl. Abbildung 9). Dies deckt sich mit den Einschätzungen von Agenturmitarbeitenden und Beraterinnen und Beratern in Bezug auf die individuelle Literacy. So sind möglicherweise die Elemente der Kategorie «Aufgeschlossenheit» wie bspw. «In meiner Organisation herrscht eine Experimentierkultur in Bezug auf generative KI» und «In meiner Organisation werden Entwicklungen im Bereich der generativen KI aufmerksam verfolgt» in Agenturen und Beratungsunternehmen einfacher zu implementieren aufgrund der Grösse oder der benötigten Flexibilität in Bezug auf Angebote und Dienstleistungen. Die Businessmodelle und Angebotsstrukturen von Agentur- und Beratungsunternehmen im Bereich Kommunikation und Marketing sind wahrscheinlich stärker beeinflusst durch die Entwicklungen der generativen KI-Anwendungen.
Bei der Verfügbarkeit von Weiterbildungen, ethischen Standards und Fachkräften im Bereich der generativen KI zeigt sich ein anderes Bild. Agenturen und Beratungsunternehmen attestieren ihren Unternehmen eine hohe Aufgeschlossenheit, während sie die Verfügbarkeit von Weiterbildungen, ethischen Standards und Fachkräften am tiefsten einschätzen (vgl. Abbildung 10). Insbesondere die beiden Elemente «Meine Organisation hat festgelegte ethische Standards, wenn es um Generative-KI-Anwendungen geht» sowie «Meine Organisation bietet Schulungsangebote, um Mitarbeitende im Umgang mit Generativen-KI-Anwendungen weiterzubilden» zeigen tiefere Werte auf.
Die Ergebnisse zeigen, dass sich die Mitarbeitenden mehr Upskilling, mehr Befähigung und mehr Stossrichtungen im Umgang mit generativen KI-Tools wünschen, als die Unternehmen aktuell anbieten. Diese Ergebnisse decken sich mit anderen Studien. So zeigt eine Studie von Accenture (2024) dass, «94% der Menschen sagen, dass sie bereit sind, neue Fähigkeiten für die Arbeit mit der KI zu erlernen, [...] nur 5% der Unternehmen ihre Belegschaft aktiv und in grossem Umfang umbilden.» (Seite 7). Dies birgt zusätzlich das Risiko, dass Mitarbeitende ohne ausreichend Schulung und Enabling trotzdem diverse GKI-Tools nutzen und sich der Risiken nicht bewusst sind. Wenn es keine klaren Stossrichtungen und Anleitungen gibt, werden die GKI-Anwendungen von Mitarbeitenden entweder im Geheimen oder inkorrekt genutzt. Das Nutzen von GKI-Anwendungen im Geheimen nennt sich «Bring your own AI (BYOAI)». So zeigt eine Studie von Microsoft aus 2024, dass 78 % der (G)KI-Nutzerinnen und -Nutzer (weltweit) ihre eigenen Tools mit zur Arbeit bringen.
Personen, die in Agenturen oder in der Beratung arbeiten, schätzen die Verfügbarkeit von GKI-Weiterbildungen, ethischen Standards und Fachkräften am tiefsten ein.
Einschätzung Verfügbarkeit
Agentur oder Beratung
Privates Unternehmen
Bildungs- & Forschungseinrichtung
1.4
2.8
2.8
Die Einschätzung der Verfügbarkeit von Weiterbildungen, ethischen Standards und Fachkräften im Bereich der generativen KI wurde in der Umfrage über sieben separate Items mit jeweils einer Likert-Skala (1–5) gemessen.
Abbildung 10: Einschätzung der Verfügbarkeit von Weiterbildungen, ethischen Standards und Fachkräften im Bereich der generativen KI nach Organisationsart (Mittelwert)
Einsatz und Nutzung generativer künstlicher Intelligenz in Marketing- und Kommunikationsberufen GKI-Literacy
3. Nutzung generativer künstlicher Intelligenz
Analog zur ersten Studie aus dem Jahr 2023, wurde auch dieses Mal nach der Nutzung generativer künstlicher Intelligenz gefragt (vgl. Mohr et al. 2023). Dabei wurde bewusst darauf geachtet, dass die abgefragten Tätigkeiten eine Spannbreite von einfachen Routineaufgaben über kreative Tätigkeiten bis hin zu anspruchsvollen Entscheidungen abdecken.
3.1 Einsatz generativer künstlicher
Intelligenz
In Kürze
– Am häufigsten nutzen die Befragten GKI-Tools für die Erstellung und Bearbeitung von Texten.
– Dabei lassen sie sich vor allem bei der Zusammenfassung von Inhalten und der Ideengenerierung unterstützen.
– GKI-Tools werden für kreative und analytische Aufgaben genutzt und weniger für komplexe Entscheidungsfindung und Urteilsbildung.
Abbildung 11 zeigt, dass Generative-KI-Anwendungen von den befragten Fachleuten am häufigsten für das Erstellen oder Bearbeiten von Texten genutzt werden. Fast die Hälfte der Befragten verwendet KI hierfür sehr oft. Die Nutzung von KI für die Analyse von Bildern und Grafiken sowie die Auswertung von Daten liegt im mittleren Bereich, was auf eine moderate Akzeptanz hinweist. Diese Ergebnisse werden auch von der Studie der ZHAW gestützt. Auch in ihrer Studie belegte das Anwendungsgebiet «Texterstellung- und Bearbeitung» die Spitzenposition (vgl. Krämer et al. 2024). Dies kann u.a. auch mit ChatGPT als First Mover im Bereich Text und der aktuellen Marktdominanz von OpenAI begründet werden (59.4% Marktanteil weltweit, vgl. firstpagesage.com).
Generative künstliche Intelligenz wird unter den Befragten mit Abstand am häu gsten für die Texterstellung und Textbearbeitung verwendet.
Anteil der Befragten
Texterstellung & -bearbeitung
Bilderstellung & -bearbeitung
Datenanalyse & -visualisierung
Programmierung von Code
Video & Audioerstellung
Die Nutzungshäu gkeit der generativen KI-Tools nach Kategorien wude in der Umfrage über ein Item mit einer Skala für die Nutzungshäu gkeit von 1–5 (nie, selten, ab und zu, oft, sehr oft und k.A.) gemessen.
Abbildung 11: Anteil der Befragten, die generative KI-Tools nach eigenen Angaben regelmässig (d.h. oft bis sehr oft) in den jeweiligen Kategorien einsetzen (N = 132).
Einsatz und Nutzung generativer künstlicher Intelligenz in Marketing- und Kommunikationsberufen Nutzung generativer künstlicher Intelligenz
Zusätzlich wurden die Teilnehmenden befragt, bei welchen konkreten Aufgaben und Einsatzbereichen, generative KI-Tools für sie im Arbeitskontext besonders hilfreich sind. Die Ergebnisse verdeutlichen, dass GKIAnwendungen vor allem dafür genutzt werden, bestehende Inhalte zu vereinfachen und zusammenzufassen sowie neue Ideen zu generieren (vgl. Abbildung 12). Rund 80 % der Befragten geben an, GKI hilfreich für das Zusammenfassen von Informationen zu finden, während etwas mehr als zwei Drittel diese Technologie zur Entwicklung neuer Ideen einsetzen. Auch die Nutzung von GKI zur Einarbeitung in komplexe Themen sowie zur Automatisierung alltäglicher Aufgaben ist verbreitet (60 % resp. 53 %). Rund die Hälfte nutzt GKI regelmässig, um Wissen auf neue Situationen anzuwenden. Die Erkennung grundlegender Muster und Prinzipien durch GKI wird von einer kleineren Gruppe häufiger genutzt. Weniger verbreitet ist der Einsatz von GKI für fundierte Urteilsbildung und schwie-
rige Entscheidungen – nur eine sehr kleine Minderheit der Befragten greift hierauf häufig zurück. Insgesamt zeigt die Befragung: GKI wird primär für kreative und analytische Aufgaben sowie Recherche verwendet, während komplexe Entscheidungsfindungen und Urteilsbildung eher selten unterstützt werden.
Der zurückhaltende Einsatz von generativer KI für die Urteilsbildung könnte auch damit zusammenhängen, dass mittlerweile besser bekannt ist, dass generative KI-Tools Antworten basierend auf Mustern generieren, ohne den Inhalt wirklich zu verstehen, und nicht immer nachvollziehbar ist, wie ein bestimmtes Ergebnis von der Maschine generiert wurde (vgl. Cigaina, M., & Shoshan, I. 2024). So schreibt Open AI auf dem eigenen Blog »We can’t say definitively what it does and does not know, and don’t understand entirely when it does or does not express confidence in incorrect assertions” (Open AI 2024).
Generative künstliche Intelligenz unterstützt am stärksten in den Einsatzbereichen Zusammenfassung und Ideenentwicklung.
Anteil der Befragten
Zusammenfassung
Ideenentwicklung
Einarbeitung in neue Themen
Wissenstransfer Automatisierung
Mustererkennung
Urteilsbildung
Entscheidungs ndung
Die Zuordnung der generativen KI-Tools nach Einsatzgebiet wurde in der Umfrage über ein Item mit einer Skala von 1–5 (1 tri t nicht zu, 5 tri t zu und k.A.) gemessen.
Abbildung 12: Anteil der Befragten, die generativen KI-Tools attestieren, dass sie in den jeweiligen Bereichen unterstützen können.
Einsatz und Nutzung generativer künstlicher Intelligenz in Marketing- und Kommunikationsberufen Nutzung generativer künstlicher Intelligenz
Einsatz und Nutzung generativer künstlicher Intelligenz in Marketing- und Kommunikationsberufen Nutzung generativer künstlicher Intelligenz
3.2 Tools: ChatGPT und Copilot belegen die Spitzenpositionen
Einerseits wurde in der Studie abgefragt, welche generativen KI-Tools regelmässig eingesetzt werden. Andererseits diente diese Frage auch als Basis, um weitere Informationen zu Vertrauen resp. Skepsis gegenüber den Tools zu erfassen. Die Überlegung dahinter ist, dass nur diejenigen, die tatsächlich GKI-Anwendungen genutzt haben, weitere Informationen liefern können.
Die Abbildung 13 zeigt die Nutzung verschiedener generativer KI-Tools innerhalb der vergangenen vier Wochen vor der Umfrage. ChatGPT wurde am häufigsten genutzt, gefolgt von Copilot und Midjourney. Gemini
und Grammarly erreichen ebenfalls eine moderate Nutzung. Firefly wurde nicht einmal von jedem fünften Befragten genutzt, HeyGen, Synthesia und Runway haben die geringsten Nutzungsraten. Insgesamt dominiert ChatGPT die Nutzung deutlich, während andere Anwendungen erheblich seltener verwendet werden.
Die Spitzenpositionen von ChatGPT (OpenAI) und Copilot (Microsoft) lassen sich zusätzlich durch die Integration von ChatGPT in Copilot erklären. Die Ergebnisse zeigen, dass im Bildbereich zum Zeitpunkt der Umfrage Midjourney dominierte, grundsätzlich allerdings generative KI-Bild-Tools noch weniger eingesetzt werden als Text-Tools.
Zum Zeitpunkt der Umfrage war ChatGPT die mit Abstand am häu gsten verwendete Anwendung im Bereich der generativen KI.
Anteil der Befragten
Die Verwendungshäu gkeit der GKI-Anwendungen wurde in der Umfrage über ein Item mit einer binären Skala (in den letzten vier Wochen genutzt: Ja/Nein) gemessen.
Abbildung 13: Anteil der Befragten, welche die jeweiligen Tools in den letzte vier Wochen vor Ausfüllen der Umfrage genutzt haben (N = 128).
Einsatz und
und Kommunikationsberufen Nutzung generativer künstlicher Intelligenz
3.3 Vertrauen: Nützliche Tools sind auch sympathische Tools
In Kürze
– ChatGPT und Copilot werden als nützlich und sympathisch wahrgenommen.
– In Bezug auf ethische Bedenken und Integrität wird Midjourney vergleichsweise positiv bewertet, während Anwendungen wie ChatGPT und Copilot mehr Bedenken auslösen
– Die Ergebnisse zeigen spannenderweise, dass bei den GKI-Anwendungen die beiden Vertrauensdimensionen kognitiv-funktional (Expertise) und affektiv-emotional (Sympathie und Faszination) zusammenfallen. Es fasziniert und ist sympathisch, was Zeit spart und nützliche Ergebnisse liefert.
In einem weiteren Schritt wurde das Vertrauen in die gerannten GKI-Tools gemessen. Dabei wurde das Konstrukt Vertrauen über drei Dimensionen gemessen:
– Kognitiv-funktionale Dimension: Diese Dimension befasst sich mit der Frage, inwiefern GKI-Tools helfen, Aufgaben zu bewältigen (Expertise) und umfasst Befragungsitems wie «… funktioniert zuverlässig» oder «… liefert nützliche Ergebnisse».
– Affektiv-emotionale Dimension: Im Fokus stehen hier die Sympathie und Faszination gegenüber GKI-Tools. Relevante Items bei der Befragung waren u.a. «… nutze ich gerne» oder «… ist sympathisch».
– Kognitiv-soziale Dimension: Dieses Element beschreibt die Einschätzung der Integrität von GKI-Tools und wird erfasst über Items wie «… ist ethisch bedenklich» oder «… neigt zu diskriminierenden Ergebnissen».
Die Ergebnisse zeigen spannenderweise, dass bei den GKI-Anwendungen die beiden Vertrauensdimensionen kognitiv-funktional (Expertise) und affektiv-emotional (Sympathie und Faszination) zusammenfallen. Es fasziniert und ist sympathisch, was Zeit spart und nützliche Ergebnisse liefert. Das kann damit zusammenhängen, dass die Anwendungen nicht für komplexe Entscheidungsfindungen eingesetzt werden, sondern für Routinearbeiten wie Textzusammenfassungen. So sparen GKI-Tools insbesondere bei Routinearbeiten Zeit. Bereits in der ersten IMK-Befragung im Sommer 2023 bewerteten die Befragten die Einsparung von Recherchezeit und die Reduktion der Auftragsvergabe an Dritte als wichtigste Vorteile von GKI (vgl. IMK-Studie 2023). Zusätzlich steigt mit der regelmässigen Nutzung eines GKI-Tools (Expertise) auch die Vertrautheit resp. die Gewohnheit (Sympathie, «nutze ich gerne») im Umgang mit dem entsprechenden Tool.
Für die meistgenutzten Tools ChatGPT, Copilot, Midjourney und Gemini wurde eine Detailanalyse für die einzelnen Dimensionen von Vertrauen durchgeführt. ChatGPT erhielt durchweg hohe Bewertungen, insbesondere in der affektiv-emotionalen Dimension: ChatGPT fasziniert und wird gerne genutzt. Copilot und Midjourney wurden ebenfalls positiv bewertet, wobei Midjourney bei der Bewertung der Integrität (kognitiv-soziale Dimension, bspw. «ist ethisch bedenklich») etwas besser abschnitt. Dies kann auch damit erklärt werden, dass ChatGPT und Copilot stärker genutzt werden und deshalb auch mehr Erfahrungen, auch bspw. im Bereich der Halluzinationen, gesammelt wurden. Zusätzlich war die Firma OpenAI mit Negativschlagzeilen in den Medien vertreten, was eine mögliche Auswirkung auf die Integritätswahrnehmung des Tools haben kann (vgl. Langer 2024, Swiss IT Magazin 2024).
Insgesamt wird deutlich, dass ChatGPT besonders positiv wahrgenommen wird, während Copilot und Midjourney ebenfalls gute, aber etwas variablere Bewertungen erhalten. Gemini liegt hinsichtlich der Bewertungen in allen Dimensionen hinter den anderen Anwendungen zurück.
Einsatz und Nutzung generativer künstlicher Intelligenz in Marketing- und Kommunikationsberufen Risiken von generativer künstlicher Intelligenz
Einsatz und Nutzung generativer künstlicher Intelligenz in Marketing- und Kommunikationsberufen Risiken von generativer künstlicher Intelligenz
4. Risiken von generativer künstlicher Intelligenz
Die Teilnehmenden wurden auch nach einer Einschätzung diverser Risiken im Zusammenhang mit dem Einsatz generativer KI gebeten. Die Ergebnisse zeigen, dass Befragte mit einer hohen individuellen GKI-Literacy einen erhöhten Anpassungsdruck erleben. Hier zeigt sich das Spannungsfeld zwischen technologischem Fortschritt und den Auswirkungen auf die Arbeitsbelastung. Unternehmen müssen sich diesen Herausforderungen bewusst sein und mit entsprechenden Guidelines und Schulungsangeboten unterstützen.
4.1 Risikoeinschätzung
In Kürze
– Bei den Risiken wurde die Notwendigkeit beruflicher Weiterentwicklung am höchsten bewertet, gefolgt von der Sorge um die Missachtung geistigen Eigentums und der Verstärkung von Vorurteilen durch voreingenommene Daten.
– Auf der organisatorischen Ebene wurden weniger Bedenken hinsichtlich der Arbeitsplatzsicherheit geäussert.
– Die Ergebnisse deuten darauf hin, dass die Befragten sich vor allem um die persönlichen und gesellschaftlichen Auswirkungen der GKI-Nutzung sorgen.
Tredinnick und Laybats (2023) identifizieren diverse Risiken der GKI wie bspw. Desinformation, Privatsphäre und Datensicherheit, Verstärkung von Vorurteilen oder wirtschaftliche Umbrüche. Zusätzlich erwähnen sie ethische Bedenken in Bezug auf Nutzung persönlicher Daten und fehlender Transparenz bei GKI-generierten Inhalten.
In Anlehnung daran wurde die Risikowahrnehmung über diverse Fragen eingeschätzt wie bspw. «Das geistige Eigentum vieler Menschen wird missachtet», «Vorurteile werden verstärkt, die aus voreingenommenen Daten übernommen werden», «Die wirtschaftliche Ungleichheit in der Gesellschaft nimmt zu», «Meine Organisation muss Leute entlassen», «Ich muss mich beruflich weiterentwickeln», und «Von mir wird erwartet, dass ich mehr Aufgaben in weniger Zeit schaffe». Zusätzlich wurde mit Blick auf mögliche
Chancen das Item abgefragt: «Mir bleibt mehr Zeit für wichtige Aufgaben.»
Die Ergebnisse (vgl. Abbildung 14) zeigen, dass die Befragten ein differenziertes Bild davon haben, wie sie die persönlichen, organisationalen und gesellschaftlichen Risiken in Bezug auf GKI einschätzen. Bei den Risiken wurde die Notwendigkeit beruflicher Weiterentwicklung am höchsten bewertet (persönliches Risiko), gefolgt von der Sorge um die Missachtung geistigen Eigentums und der Verstärkung von Vorurteilen durch voreingenommene Daten (gesellschaftliche Risiken). Weitere Bedenken umfassen die Zunahme wirtschaftlicher Ungleichheit und die Erwartung, mehr Aufgaben in weniger Zeit zu schaffen. Die geringsten Bedenken wurden hinsichtlich der Arbeitslosigkeit und möglicher Entlassungen in der eigenen Organisation geäussert (organisationale Risiken). Dieses Ergebnis ist spannend, da Befragte in anderen Studien sich stark um die Zukunft ihres Arbeitsplatzes sorgen. So ergab eine Studie von Deloitte 2023, dass fast die Hälfte der Befragten (43%) fürchtet, ihren Job wegen des zunehmenden Einsatzes von KI-Programmen in den kommenden fünf Jahren zu verlieren (vgl. Grampp et al. 2023). Allerdings muss hier auch beachtet werden, dass die beiden Studien ein Jahr auseinanderliegen und in dieser Zeit neue Entwicklungen und mögliche andere Risiken in den Vordergrund getreten sind.
Auf der anderen Seite wurde eine grosse Chance in der Möglichkeit gesehen, mehr Zeit für wichtige Aufgaben zu haben. Diese Ergebnisse deuten darauf hin, dass die Befragten sich vor allem um die persönlichen und gesellschaftlichen Auswirkungen der GKI-Nutzung sorgen, während sie gleichzeitig Potenzial für Effizienzsteigerungen in ihrer Arbeit erkennen.
Einsatz und Nutzung generativer künstlicher Intelligenz in Marketing- und Kommunikationsberufen Risiken von generativer künstlicher Intelligenz
Bei den Risiken wurde die Notwendigkeit beru icher Weiterentwicklung am höchsten bewertet.
Beru iche Weiterentwicklung
Missachtung geistigen Eigentums
Verstärkung Vorurteile aus voreingenommenen Daten
Zunahme wirtschaftlicher Ungleichheit in der Gesellschaft
Erwartung, mehr Aufgaben in weniger Zeit zu erledigen
Steigende Arbeitslosigkeit
Entlassungen im eigenen Unternehmen
Die Risikoeinschätzung wude in der Umfrage über ein Item mit einer Skala von 1–5 (nie, selten, ab und zu, oft, sehr oft und k.A.) gemessen.
Abbildung 14: Mittelwerte der Items zur Beurteilung von Risiken (N=132).
4.2 Zusammenhang von GKI-Literacy und Risikowahrnehmung
In der vorliegenden Studie wurde zusätzlich analysiert, wie die individuelle und organisationale GKI-Literacy beeinflusst, wie die Teilnehmenden das Risiko einschätzen, sich weiterentwickeln zu müssen. Zusätzlich wurde die inhaltlich eng verwandte Frage betrachtet, dass man mehr Aufgaben in weniger Zeit schaffen muss. Die Analyse ergab, dass eine hohe individuelle Literacy mit einer höheren Risikoeinschätzung einhergeht. Je besser das allgemeine Handlungsvermögen, desto stärker wird der Anpassungsdruck wahrgenommen. Das Ergebnis deckt sich mit aktuellen Studien, die belegen, dass so genannte «Power AI User» ein höheres Risiko zu Burnout aufweisen und den gesteigerten Leistungsdruck stärker spüren (vgl. Quantum Workplace 2024). Der Anpassungsdruck und die Herausforderung mit den technologischen Anforderungen Schritt zu halten, stressen Mitarbeitende. Insbesondere, wenn sie generative KI-Tools regelmässig nutzen und sich informieren.
Einsatz und Nutzung generativer künstlicher Intelligenz in Marketing- und Kommunikationsberufen Risiken von generativer künstlicher Intelligenz
5. Fazit: Es braucht langfristige Enabling-Strategien und eine offene Unternehmenskultur
Generative Künstliche Intelligenz (GKI) ist eine Herausforderung für Individuen und Organisationen. Daher ist es wichtig, ein fundiertes Verständnis von GKILiteracy auf individueller und organisationaler Ebene zu entwickeln.
Die vorliegende Studie liefert mit dem GKI-LiteracyModell einen ersten wichtigen Schritt, indem GKI-Literacy als ein ganzheitlicher Ansatz definiert und verstanden wird, der über reine Prompting-Fähigkeiten hinausgeht und eine umfassende Handlungsfähigkeit beschreibt, die Motivation, technischen Zugang, Wissen, Fertigkeiten und ethische Werte einschliesst. Für Unternehmen bedeutet dies, dass sie sich nicht nur auf die technische Infrastruktur konzentrieren, sondern auch auf das in der Organisation vorhandene Wissen und die Organisationskultur, die es den Mitarbeitenden ermöglicht, GKI effektiv und ethisch reflektiert einzusetzen. Sowohl Individuen als auch Organisationen müssen GKI-Kompetenz entwickeln: Individuen benötigen Anwendungswissen und Reflexionsfähigkeit, die Unternehmen durch eine entsprechende Kultur und Infrastruktur fördern müssen.
Ziel der Studie war es, mehr Erkenntnisse über die GKILiteracy und die damit verbundenen Abhängigkeiten im Umgang mit generativen KI-Werkzeugen zu gewinnen. Dabei standen u.a. folgende Fragen im Fokus: Wie beeinflusst der Grad der individuellen GKI-Literacy die Einschätzung entsprechender Risiken? Welche GKIAnwendungen, wie ChatGPT oder Adobe Firefly, nutzen Beschäftigte? Welches Vertrauen haben sie in diese Anwendungen?
Die Ergebnisse zur GKI-Literacy zeigen, dass Befragte aus Agenturen und Beratungsunternehmen ihre Handlungskompetenzen und den Zugang zu GKI-Tools höher einschätzen als Befragte aus anderen Unternehmen. Gleichzeitig zeigen die Ergebnisse den Bedarf an Weiterbildung und Richtlinien in Agenturen und Beratungsunternehmen, da die Verfügbarkeit solcher Angebote als unzureichend eingeschätzt wird. Die Ergebnisse verdeutlichen den Bedarf und die Notwendigkeit gezielter Schulungsmassnahmen für den Umgang mit generativer künstlicher Intelligenz und die Stärkung des ethischen Bewusstseins. Unternehmen sind gefordert, verstärkt Schulungen anzubieten, um einen verantwortungsvollen und effektiven Einsatz von KI-Werkzeugen zu gewährleisten.
Die Nutzung von generativer künstlicher Intelligenz im beruflichen Kontext zeigt klare Trends. Kommunikations- und Marketingfachleute nutzen GKI-Werkzeuge vor allem für die Erstellung und Bearbeitung von Texten. Diese bevorzugten Anwendungsgebiete könnten unter anderem auf die führende Marktposition von OpenAI und ChatGPT zurückzuführen sein. Darüber hinaus werden GKI-Werkzeuge häufig zur Zusammenfassung von Inhalten und zur Ideengenerierung eingesetzt, was ihren Nutzen für kreative und analytische Aufgaben unterstreicht. Die Nutzung für komplexe Entscheidungsfindung und Urteilsbildung bleibt begrenzt. Dies könnte auf mangelndes Vertrauen in die Qualität der Ergebnisse hindeuten.
Die Untersuchung des Vertrauens in generative KITools zeigt, dass Vertrauen auf verschiedenen Ebenen entsteht. Insbesondere in der kognitiv-funktionalen Dimension, die die Nützlichkeit der Tools bewertet, schneiden Anwendungen wie ChatGPT und Copilot gut ab. Diese Tools werden nicht nur als effektiv bei der Bewältigung von Routineaufgaben wahrgenommen, sondern auch als sympathisch. Die Faktoren Sympathie und Faszination könnten auch mit der regelmässigen Nutzung zusammenhängen, da vertraute Tools als nützlich und angenehm empfunden werden. Im Bereich der kognitiv-sozialen Dimension, die ethische Bedenken und Integrität adressiert, gibt es Unterschiede: Während Midjourney vergleichsweise positiv bewertet wird, lösen Anwendungen wie ChatGPT und Copilot mehr Bedenken aus. Möglicherweise spielen auch hier Erfahrungen mit schlechten Ergebnissen und Halluzinationen sowie die Medienberichterstattung über die Anbieter eine Rolle bei der Bewertung.
Als Risiken wurden der Druck nach beruflicher Weiterentwicklung sowie gesellschaftliche Bedenken wie die Missachtung geistigen Eigentums und die Verstärkung von Vorurteilen genannt. Auf der organisatorischen Ebene wurden dagegen weniger Bedenken hinsichtlich der Arbeitsplatzsicherheit geäussert. Betrachtet man den Zusammenhang zwischen der individuellen GKILiteracy und den Risiken, so zeigt sich, dass Befragte
mit einer hohen individuellen GKI-Literacy einen erhöhten Anpassungsdruck erleben. Es zeigt sich ein Spannungsfeld zwischen technologischem Fortschritt und den Auswirkungen auf die Arbeitsbelastung. Entscheidend wird sein, wie Organisationen mit diesen Herausforderungen umgehen und gleichzeitig die Potenziale der generative KI-Tools nutzen können, um Effizienzgewinne zu realisieren.
Unternehmen sollten eine aufgeschlossene Kultur fördern, um sowohl die Vorteile als auch die Herausforderungen der GKI effektiv zu managen. Es braucht das Engagement von Führungspersonen, die auch die negativen Folgen wie erhöhter Leistungsdruck ernst nehmen und mit den entsprechenden Massnahmen ihre Teams und Abteilungen unterstützen und fördern.
Literaturverzeichnis
Banholzer, V.M. (2023). Technologie als Anstoss oder Antwort? Konvergenz von Marketing, Öffentlichkeitsarbeit und PR im Spiegel von Newsroom-Konzepten und KI-Lösungen. In: M. Nielsen, M. G. Ditlevsen, A. G. Julius Pedersen, A.G. (Hrsg.), Werbung und PR im digitalen Zeitalter. Europäische Kulturen in der Wirtschaftskommunikation (S. 29-56). Wiesbaden: Springer. doi.org/10.1007/978-3-658-38937-6_2
Cigaina, M. & Shoshan, I. (2024). Keys to ignite the generative business revolution. Abgerufen am 7.10.2024 von sap.com/blogs/ext-keys-to-ignite-the-generative-business-revolution firstpagesage.com, Top Generative AI Chatbots by Market Share – October 2024, abgerufen am 5.10.2024.
Grampp, M., Brandes, D., & Laude, D. (2023). Generative AI’s fast and furious entry into Switzerland. Usage and attitudes of the Swiss workforce towards Generative AI. Deloitte AG.
Howington, J. (2023). The AI Gender Gap: Exploring Variances in Workplace Adoption. Abgerufen am 10.10.2024 von flexjobs.com/blog/post/the-ai-gender-gap-exploring-variances-in-workplaceadoption/?ref=ellexx.com
Krämer, K., Niederhäuser, M. & Rosenberger, N. (2024). Kommunikation in der digitalen Transformation – Trendstudie Schweiz 2024 Mit Fokusthema: Generative Künstliche Intelligenz. Winterthur: ZHAW Zürcher Hochschule für Angewandte Wissenschaften. (Working Papers in Applied Linguistics 25). DOI: 10.21256/zhaw-2819 (doi.org/10.21256/zhaw-2819)
Langer, M-A. (2024). Manager kündigen, Hollywood-Stars klagen: Skandale erschüttern Open AI – doch das Geschäft boomt. NZZ-Artikel vom 10.06.2024.
Microsoft (2024). AI at Work Is Here. Now Comes the Hard Part. Employees want AI, leaders are looking for a path forward.
Mohr, S., Stutz, N., Griesser, S., Rast, V. & Zeder. R. (2023). Einsatz und Nutzung generativer künstlicher Intelligenz in Marketing- und Kommunikationsberufen. Eine Studie des Instituts für Kommunikation und Marketing IKM, März 2023.
OpenAI (2024). Does ChatGPT tell the truth? Abgerufen am 5.10.2024 von https://help.openai.com/en/ articles/8313428-does-chatgpt-tell-the-truth
Quantum Workplace (2024). Burnout is More Than Just Stress. Abgerufen am 12.10.2024 von quantumworkplace.com/employee-engagement-trends-report/employee-experience#ai-doesnt-reduce-burnout
Sætra, H. S. (2023). Generative AI: Here to stay, but for good? Technology in Society, 75(102372), 1–5. doi.org/10.1016/j.techsoc.2023.102372
Shook, E. & Daugherty, P. (2024). Work, Workforce, Workers. Reinvented in the age of generative AI. Accenture.
Suskind, R. & Suskind, D. (2015). The future of the professions: How technology will transform the work of human experts. Oxford: Oxford University Press.
Einsatz und Nutzung generativer künstlicher Intelligenz in Marketing- und Kommunikationsberufen Literaturverzeichnis
Swiss IT Magazin (2024). Kritik an OpenAI und Deepmind: Angestellte fordern Transparenz. Abgerufen am 10.10.2024 von itmagazine.ch/artikel/82324/Kritik_an_OpenAI_und_Deepmind_Angestellte_fordern_Transparenz.html
Tredinnick, L. & Laybats, C. (2023). The dangers of generative artificial intelligence. Business Information Review, 40(2), 46-48. doi.org/10.1177/02663821231154167
Autorinnen/Autoren
Prof. Dr. Philipp Bachmann
Dozent Digital Analytics
philipp.bachmann.01@hslu.ch
Link zum Personalprofil
Dr. Nadine Stutz
Dozentin Digital Communication nadine.stutz@hslu.ch
Link zum Personalprofil
Prof. Seraina Mohr
Leiterin Competence Center Communication Management seraina.mohr@hslu.ch
Link zum Personalprofil
Vinzenz Rast
Leiter Competence Center Business Communication vinzenz.rast@hslu.ch
Link zum Personalprofil
Raphael Zeder
Dozent Digital Analytics raphael.zeder@hslu.ch
Link zum Personalprofil
Dr. Simone Griesser Senior wissenschaftliche Mitarbeiterin simone.griesser@hslu.ch
Link zum Personalprofil
Schwerpunkte
– Kommunikationskompetenz
– Organisationskommunikation
– Strategische Kommunikation
– Krisenmanagement und Krisenkommunikation
Schwerpunkte
– Generative KI
– Digitale Kommunikation & Strategien
– Digital & GenAI Enabling
– Social Media Strategien
– Digital Change & Newsroom
Schwerpunkte
– Digitales Kommunikationsmanagement
– Content Strategien
– Aufbau und Entwicklung von Communities
– Digitale Transformation in Marketing und Kommunikation
Schwerpunkte
– Kommunikationskompetenz
– Präsentationsrhetorik
– Schreibcoaching
– Text und Bild
Schwerpunkte
– Digital Analytics
– Data Visualization & Storytelling
– User Experience
– Applied Artificial Intelligence
Forschungsschwerpunkte
– Entwickeln Sprachmuster für Marketing und Kommunikation (z.B. Markenpersönlichkeit) mit Natural Language Processing
– Marken- und Unternehmensreputation
– Markenpositionierung
– Konsumentenverhalten
Hochschule Luzern Wirtschaft Institut für Kommunikation und Marketing IKM