KI-Leitfaden/KI-Leitlinien: Chancen und Risiken von KI im Tourismus

Reiter

Verantwortung und Datenkontrolle

Um einen verantwortungsvollen Umgang mit dem Einsatz von KI zu gewährleisten, verantwortet bei der RPT immer der Mensch den Einsatz generativer KI-Tools. Das bedeutet: Wir nutzen Tools, die sich künstlicher Intelligenz bedienen, als hilfreiches Werkzeug im Berufsalltag, kontrollieren aber alle Ergebnisse, die durch den Einsatz von KI entstanden sind, genau auf ihren Wahrheitsgehalt und ihre Qualität.

Details zu dieser Leitlinie

Es ist gemeinhin bekannt, dass generative Sprachmodelle (bspw. ChatGPT von OpenAI oder Gemini von Google) Fehler machen können und dass Texte, die durch eine generative KI erstellt worden sind, fehlerhafte Informationen enthalten können. Auf fachfremde Nutzer können diese Texte dennoch überzeugend wirken, da die Unwahrheiten von der KI oft präzise formuliert, in zahlreiche wahre Informationen eingebettet sind und somit auch falsche oder fehlerhafte Informationen mitunter schlichtweg logisch klingen.

Solche Fehler in KI-Texten entstehen durch sogenannte „Halluzinationen“. Das bedeutet: Dort, wo ein Sprachmodell an seine „Wissensgrenzen“ stößt, generiert es Informationen, die nicht auf Fakten basieren. Selbst konkret auf diese Fehler „angesprochen“, sind künstliche Intelligenzen zum aktuellen Zeitpunkt nicht in der Lage, ihre Fehler von allein zu erkennen und vollständig zu korrigieren.

Um zu verhindern, dass Falschinformationen entstehen und sich verbreiten, hat ein gründlicher Faktencheck bei der RPT höchste Priorität: Wir veröffentlichen keine durch KI erstellten Inhalte, ehe sie nicht von einem Menschen (mit Sach- und Fachverstand) auf ihre Richtigkeit geprüft worden sind. Diese menschliche Kontrolle ist, so unsere tiefe Überzeugung, unerlässlich für Vertrauenswürdigkeit, hohe Qualität und die Einhaltung ethischer Standards.

Ganz konkret bedeutet das:

Textinhalte, die mithilfe einer generativen KI erstellt worden sind, werden vor ihrer Veröffentlichung auf ihren Wahrheitsgehalt geprüft. Dafür werden mindestens zwei unabhängige Quellen herangezogen, um die Richtigkeit von Fakten zu überprüfen (Zwei-Quellen-Prinzip), wobei generative KI selbst nicht als Quelle zählt.

Diese Richtlinie schließt auch das sogenannte Kreuzverhör aus, bei dem zwei unterschiedliche Sprachmodelle als Prüfling und Prüfer eingesetzt werden, um mögliche Widersprüche oder Unwahrheiten aufzudecken.

Alle Texte, die durch eine generative KI entstanden sind, unterliegen überdies den bestehenden Qualitätsrichtlinien (z.B. Content Manual und Zielgruppen-Definition) der RPT. Derjenige Mitarbeiter/diejenige Mitarbeiterin, der/die den Content erstellt hat, steht auch in der Verantwortung, den generierten Inhalt auf diese Qualitätsrichtlinien hin zu prüfen. 

Zuletzt geändert: 10. Sep 2024, 13:37, [Malte.Dick]