Dt. Fotorat warnt vor KI-Bildern in der Berichterstattung

  • Räte, gleich welcher Couleur, sehen ihre Aufgabe gerne darin, zu warnen und zu mahnen. Und seit wir einen Deutschen Fotorat haben, haben wir auch einen Mahner mehr.

    Der Fotorat hatte bereits früher mit einem Positionspapier zur KI auf Gefahren für den gesellschaftlichen Diskurs hingewiesen. Nunmehr erneuert er seine Forderungen und appelliert für ein verantwortungsvolles Handeln von Bildanbietern, ein klares Nein zur Verwendung von KI-Bildern in der Berichterstattung und einen verantwortungsvollen Einsatz im politischen Raum.

    Zugegeben, es ist ein bisschen Arbeit, alles zu lesen. Trotzdem hier die Forderungen im O-Ton:


    "Der aktuelle Nahostkonflikt hat zu einem enormen Anstieg im Angebot von KI-generiertem Bildmaterial geführt, das sich auf diese Ereignisse bezieht. Diese mutmaßlichen Kriegsbilder sind in vielen Fällen weder für Fachleute noch mit technischen Systemen zur Erkennung von KI-Bildern von authentischen Fotos zu unterscheiden.

    Unter dem Schlagwort „Gaza“ findet man beispielsweise auf der Plattform von Adobe Stock, einer der führenden Bilddatenbanken, KI-generierte fotorealistische Bilder von zerstörten Städten, hoch emotionale Bilder von Kindern in Trümmerlandschaften oder Portraits von bärtigen Bewaffneten, die in der Bildbeschreibung als „Hamas-Krieger“ bezeichnet werden.

    Die Bilder werden gleichrangig mit echtem Fotomaterial angeboten, identisch verschlagwortet und in vielen Fällen inhaltlich ähnlich beschrieben. Die Gefahr ist hoch, dass beim Erwerb solcher Bilder, trotz KI-Hinweis beim Anbieter, Kennzeichen der künstlichen Generierung in den weiteren Redaktions-Prozessen bis zur Veröffentlichung übersehen oder gar ignoriert werden. Wenn KI-Bilder gemeinsam mit Fotos im gleichen Umfeld veröffentlicht werden, suggeriert es Authentizität der synthetischen Bilder und schwächt die Glaubwürdigkeit der realen Fotos. Allein der Verdacht auf irreführende KI-Bilder im Journalismus löst bei MediennutzerInnen einen unumkehrbaren Vertrauensverlust aus. (...)



    Verantwortungsvolles Handeln von Bildanbietern

    Auch wenn es legitime Gründe geben kann, allgemeingültige Symbolbilder von Konflikten oder Kampfhandlungen mithilfe von KI-Bildgeneratoren zu erzeugen und anzubieten, müssen es Bildanbieter unterlassen, solche fiktiven Bilder durch Verschlagwortung oder Bildbeschriftung konkreten realen Geschehnissen zuzuordnen. Es ist irreführend und stiftet zu Missbrauch an, beispielsweise KI-Bilder von zerstörten Städten als „Stadt im Gaza-Streifen“ oder synthetische Bilder von Bewaffneten als „Hamas Rebellen“ zu betiteln. Die bloße Kennzeichnung von KI-Bildern beim Vertrieb von Bildrechten reicht nicht aus, wenn sonstige Bildinformationen nicht von denen realer Fotos zu unterscheiden sind.

    Ein klares Nein zur Verwendung von KI-Bildern in der Berichterstattung

    Journalistisch arbeitende Medien müssen sich klare Richtlinien geben, die den Einsatz von KI-Bildern in irgendeinem Zusammenhang mit der Berichterstattung über Ereignisse des Tagesgeschehens prinzipiell ausschließen. Bildmaterial muss vor der Veröffentlichung auf seine Authentizität überprüft werden.

    Die Richtlinien der Redaktionen müssen transparent für MediennutzerInnen kommuniziert werden. Es darf nicht die Pflicht der MediennutzerInnen sein, sich der Authentizität jeder Abbildung anhand von etwaigen Kennzeichnungen in Bildunterzeilen zu vergewissern. Der Fotorat regt an, den Kodex des Deutschen Presserats zum Einsatz von Symbolbildern hinsichtlich KI-generierter Bilder zu präzisieren.


    Verantwortungsvoller Einsatz von KI-Bildern im politischen Diskurs

    Auch bei der Nutzung von KI-Bildern in Veröffentlichungen von öffentlichen Stellen, NGOs oder Parteien ist besondere Verantwortung geboten, da NutzerInnen diesen Quellen besonderes Vertrauen entgegenbringen. Hier müssen Symbolbilder, insbesondere mit KI generierte fotorealistische Bilder, deutlich als solche gekennzeichnet werden. Der Deutsche Fotorat fordert Verantwortliche auf, in jedem Einzelfall zu erwägen, ob ein möglicherweise besonders wirksames KI-Bild wirklich eine sinnvolle Funktion hat, oder der Einsatz nicht eher aus Bequemlichkeit oder Kostendruck geschieht. Im Zweifel ist ein authentisches Bild vorzuziehen."


    Zum letzten Satz der Stellungnahme eine persönliche Bemerkung: Kriegs- und Krisenfotografie ist ein sehr heikles "Geschäft", das oftmals mit klaren Gefahren für den Fotografen verknüpft ist. Deshalb die Frage: Ist das hundertste authentische Bild einer beliebigen Bombenruine wirklich die Gesundheit, gar das Leben, eines Bildjournalisten wert?

    10.863 mal gelesen