Wir bloggen über alles, was uns bewegt. Von Fußnoten bis Fußball, von Kant bis Rant.


ChatGPT und die Sache mit der Ethik

, 15.12.2023,

Was soll ich sagen: Ich liebe ChatGPT! Seitdem die KI auf dem Markt ist, wachsen wir täglich enger zusammen. Innerhalb kürzester Zeit ist ChatGPT zu meinem besten Zuarbeitenden und meiner größten Inspirationsquelle geworden. Ich habe deutlich seltener Nervenzusammenbrüche aufgrund von näherrückenden Deadlines oder gar riesigen Bergen an Informationen, die irgendwie in eine gewisse Zeichenzahl gequetscht werden müssen – im besten Fall in einer sinnvollen Struktur.

Aber wie bei jeder innigen Beziehung gibt es auch hier Momente, in denen man sich fragt: Ist das eigentlich alles richtig so? Ethik ist hier das Stichwort. Ein komplexes Thema, das nicht nur mich in der PR, sondern so ziemlich jeden betrifft, der gerade damit anfängt, mit KI zu experimentieren. Die Studie „Bias and Fairness in Large Language Models: A Survey“ zeigt, dass große Sprachmodelle wie ChatGPT unbeabsichtigt soziale Verzerrungen lernen, verstärken und verbreiten können.

 

  • Hey ChatGPT, was sind soziale Verzerrungen?

„Soziale Verzerrungen in KI-Systemen beziehen sich auf die ungleiche und oft ungerechte Darstellung oder Behandlung bestimmter sozialer Gruppen. Diese Verzerrungen entstehen typischerweise durch Vorurteile in den Trainingsdaten, die verwendet werden, um die KI zu trainieren. Beispielsweise könnte ein KI-Modell, das mit historischen Daten trainiert wurde, die geschlechtsspezifischen oder rassistischen Vorurteile der Vergangenheit widerspiegeln. Dies kann dazu führen, dass die KI bestimmte Gruppen von Menschen in einer Weise darstellt oder auf sie reagiert, die diskriminierend oder stereotyp ist. Die Herausforderung besteht darin, solche Verzerrungen zu erkennen und zu minimieren, um sicherzustellen, dass KI-Systeme fair und unparteiisch sind.“

  • Ah ja, danke.

 

Eine weitere Studie, die tendenziell für meine PR-Arbeit wichtiger ist, wurde von der Public Relations Society of America (PRSA) vorgestellt. Sie behandelt ethische Bedenken, die mit der wachsenden Verwendung von KI in der PR-Praxis einhergehen. Hierbei geht es um Herausforderungen wie Faktenfehler, Fehlinformationen, Verzerrungen, Transparenz, Datenschutzprobleme und negative soziale Konsequenzen. Die Studie betont zwar, dass KI die Arbeit in der PR-Branche effizienter gestalten kann, Transparenz und Offenlegung bei der Verwendung von KI in der PR jedoch essenziell sind, um Vertrauen aufzubauen, ethische Praktiken zu verstärken und den Ruf der Berufsgruppe zu schützen. Kurzum: KI ist klasse, die Antworten sollten jedoch immer noch einmal kritisch hinterfragt werden.

 

Kreativität und Authentizität

Kreativität und Authentizität sind unser tägliches Brot in der PR. Natürlich kann ChatGPT großartige Texte schreiben, aber die Frage ist doch, wo die Grenzen zwischen menschlicher Kreativität und maschinell generiertem Inhalt liegen? Wie viel von dem, was ChatGPT produziert, kann als „mein“ Werk angesehen werden? Möchte man ganz emotional werden, könnte man sagen, dass das die Kernaspekte unserer Identität als Kommunikationsprofis betrifft.

Für meinen Teil gilt: Ich sehe KI als eine wertvolle Unterstützung im Arbeitsalltag. Mir ermöglicht sie, Ideen zu generieren, Entwürfe zu erstellen und schlichtweg meinen Berg an recherchierten Informationen zu sortieren. Natürlich übernehme ich auch hier und da mal einen Satz, der von der KI generiert wurde, in meine Beiträge. Aber ob ich ihn nun aus einem Harry-Potter-Roman klaue, weil ich ihn so großartig finde, oder eben von ChatGPT übernehme – um ehrlich zu sein, ich sehe da keine Probleme. Wie Dumbledore zu sagen pflegte: „Es sind nicht unsere Fähigkeiten, die zeigen, wer wir wirklich sind, sondern unsere Entscheidungen.“

Die weitaus größere Herausforderung sehe ich darin sicherzustellen, dass die von ChatGPT generierten Inhalte nicht nur technisch korrekt, sondern auch authentisch und repräsentativ für die Marke oder die Person sind, die sie vertritt. Jede einzelne Botschaft wird geprüft: Stimmt der generierte Inhalt mit dem überein, was ich vorab an Informationen geliefert habe? Stimmen die von ChatGPT recherchierten Informationen? Gibt es nachvollziehbare Quellen?

 

Der Spagat zwischen Effizienz und ethischer Verantwortung

Stichwort Quellen: Ja, ChatGPT kann mittlerweile echte Quellen finden. Nur leider muss man auch hier genau hinschauen. Manchmal handelt es sich dabei um sogenannte „fiktive Quellen“, die einfach nur als schöner Platzhalter dienen. Quellen zu prüfen, bleibt natürlich unumgänglich, egal, mit welchen Hilfsmitteln man arbeitet. Man darf jedoch nicht in die Falle tappen und sich von der Schnelligkeit von KI-Tools mitreißen lassen und den „quick check“ einfach mal quick auslassen.

Am Ende des Tages bleibt die Frage: Wie balancieren wir die Möglichkeiten, die KI bietet, mit den ethischen Überlegungen, die ihre Verwendung mit sich bringt, aus? Vielleicht gibt es aktuell schlichtweg keine eindeutige Lösung. Aber es ist eine Diskussion, die geführt werden muss – nicht nur in der PR, sondern in jeder Branche.

 



Über Julia Beniashvili

Julia wollte ursprünglich Journalistin werden – fand dann aber während ihres Studiums die Liebe zur PR. In der Pressearbeit konnte sie bereits Erfahrung in Unternehmen aus den Bereichen Event, Tourismus und FinTech sammeln. Nach getaner Arbeit findet man die studierte Modejournalistin zwischen Stroh und Pferdemist auf dem Reiterhof.


Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert