Der aktuelle Nahostkonflikt hat zu einem enormen Anstieg im Angebot von KI-generiertem Bildmaterial geführt, das sich auf diese Ereignisse bezieht. Diese mutmaßlichen Kriegsbilder sind in vielen Fällen weder für Fachleute noch mit technischen Systemen zur Erkennung von KI-Bildern von authentischen Fotos zu unterscheiden.
Unter dem Schlagwort „Gaza“ findet man beispielsweise auf der Plattform von Adobe Stock, einer der führenden Bilddatenbanken, KI-generierte fotorealistische Bilder von zerstörten Städten, hoch emotionale Bilder von Kindern in Trümmerlandschaften oder Portraits von bärtigen Bewaffneten, die in der Bildbeschreibung als „Hamas-Krieger“ bezeichnet werden. Die Bilder werden gleichrangig mit echtem Fotomaterial angeboten, identisch verschlagwortet und in vielen Fällen inhaltlich ähnlich beschrieben. Die Gefahr ist hoch, dass beim Erwerb solcher Bilder, trotz KI-Hinweis beim Anbieter, Kennzeichen der künstlichen Generierung in den weiteren Redaktions-Prozessen
bis zur Veröffentlichung übersehen oder gar ignoriert werden. Wenn KI-Bilder gemeinsam mit Fotos im gleichen Umfeld veröffentlicht werden, suggeriert es Authentizität der synthetischen Bilder und schwächt die Glaubwürdigkeit der realen Fotos.
Allein der Verdacht auf irreführende KI-Bilder im Journalismus löst bei MediennutzerInnen einen unumkehrbaren Vertrauensverlust aus. Der Deutsche Fotorat hat bereits im April mit seinem Positionspapier zu KI auf die Gefahren für den gesellschaftlichen Diskurs hingewiesen. Im Licht der aktuellen Situation
präzisiert er seine Forderungen:
Verantwortungsvolles Handeln von Bildanbietern
Auch wenn es legitime Gründe geben kann, allgemeingültige Symbolbilder von Konflikten oder Kampfhandlungen mithilfe von KI-Bildgeneratoren zu erzeugen und anzubieten, müssen es Bildanbieter unterlassen, solche fiktiven Bilder durch Verschlagwortung oder Bildbeschriftung konkreten realen Geschehnissen zuzuordnen. Es ist irreführend und stiftet zu Missbrauch an, beispielsweise KI-Bilder von zerstörten Städten als „Stadt im Gaza-Streifen“ oder synthetische Bilder von Bewaffneten als „Hamas Rebellen“ zu betiteln. Die bloße Kennzeichnung von KI-Bildern beim Vertrieb von Bildrechten reicht nicht aus, wenn sonstige Bildinformationen nicht von denen realer Fotos zu unterscheiden sind.
Ein klares Nein zur Verwendung von KI-Bildern in der Berichterstattung
Journalistisch arbeitende Medien müssen sich klare Richtlinien geben, die den Einsatz von KI-Bildern in irgendeinem Zusammenhang mit der Berichterstattung über Ereignisse des Tagesgeschehens prinzipiell ausschließen. Bildmaterial muss vor der Veröffentlichung auf seine Authentizität überprüft werden. Die Richtlinien der Redaktionen müssen transparent für MediennutzerInnen kommuniziert werden. Es darf nicht die Pflicht der MediennutzerInnen sein, sich der Authentizität jeder Abbildung anhand von etwaigen Kennzeichnungen in Bildunterzeilen zu vergewissern. Der Fotorat regt an, den Kodex des
Deutschen Presserats zum Einsatz von Symbolbildern hinsichtlich KI-generierter Bilder zu präzisieren.
Verantwortungsvoller Einsatz von KI-Bildern im politischen Diskurs
Auch bei der Nutzung von KI-Bildern in Veröffentlichungen von öffentlichen Stellen, NGOs oder Parteien ist besondere Verantwortung geboten, da NutzerInnen diesen Quellen besonderes Vertrauen entgegenbringen. Hier müssen Symbolbilder, insbesondere mit KI generierte fotorealistische Bilder, deutlich als solche gekennzeichnet werden. Der Deutsche Fotorat fordert Verantwortliche auf, in jedem Einzelfall zu erwägen, ob ein möglicherweise besonders wirksames KI-Bild wirklich eine sinnvolle Funktion hat, oder der Einsatz nicht eher aus Bequemlichkeit oder Kostendruck geschieht. Im Zweifel ist ein authentisches Bild vorzuziehen.