Nach der anfänglichen Begeisterung ist das erste Gefühl, das die ChatGPT-Experimentatoren überkommt, … Ernüchterung angesichts der Masse an falschen Informationen, die man ihn mit völliger Souveränität vortragen sieht, um sein Gegenüber zufrieden zu stellen (https://www.numerama.com/tech/1251982-ne-faites-pas-confiance-a-chatgpt-il-ment-tout-le-temps.html). Erinnert sei auch an das kostspielige Fiasko von Googles Bard-Demo über das angeblich erste Foto eines Exoplaneten durch das James-Webb-Teleskop … das nicht von ihm stammt (https://www.bbc.com/news/business-64576225).

Den von KI-Algorithmen erzeugten, unbeabsichtigten Falschmeldungen könnte man die weitaus beunruhigenderen Horden von Deepfakes (https://fr.wikipedia.org/wiki/Deepfake) gegenüberstellen, die die Gefahr bergen, dass „Fake News“ von kleineren Ärgernissen zu Waffen der Massenvernichtung werden; man denke nur an das bekannte Beispiel von Barak Obama, der Beleidigungen gegen Donald Trump deklamiert.

Was Twitter betrifft, so trägt das Scheitern des „blauen Abzeichens“, das es jedem ermöglicht, eine falsche Identität anzunehmen, weil es nicht verifiziert wird, zum langen Niedergang der Plattform bei (https://www.slate.fr/story/241904/service-premium-twitter-blue-elon-musk-echec-abonnement-payant-badge-bleu-certification-reseau-social).

Welche Gemeinsamkeit kann man bei diesen Problemen hervorheben? Das Vertrauen in die Quelle. Im Fall der falschen Aussagen von ChatGPT wird der Sender der Information nicht identifiziert. Im Fall der Deepfakes wird versucht, die Identität dieses Senders zu übernehmen. Bei Twitter wird der Anschein erweckt, dass die Identität garantiert ist, ohne dass eine tatsächliche Überprüfung stattfindet.

Ein Mittel zu haben, um die Quelle einer Information oder eines digitalen Inhalts zuverlässig und sicher zu authentifizieren, ist ein schwieriges Thema, das Archivaren seit langem bekannt ist und insbesondere in der eIDAS-Verordnung (https://www.ssi.gouv.fr/administration/reglementation/confiance-numerique/le-reglement-eidas/#:~:text=Le%20r%C3%A8glement%20eIDAS%20s’applique,march%C3%A9%20de%20la%20confiance%20num%C3%A9rique) behandelt wird. Dies geht von einer einfachen Feststellung aus: Elektronische Dokumente zu archivieren ist gut, sie während der Archivierung elektronisch zu signieren ist besser, aber ihre Authentizität vor der Archivierung zu überprüfen, ist noch besser! Hier kommt der komplexe Prozess der Überprüfung elektronischer Signaturen ins Spiel, der beispielsweise auch die Prüfung auf nicht widerrufene Zertifikate umfasst, die vor der Archivierung eines Dokuments praktiziert werden muss.

Dieses Thema ist jedoch voller Paradoxien. Ich möchte diesen Absatz aus der Studie „Intégrité, signature et processus d’archivage“ von Françoise Banat-Berger und Anne Canteaut (https://www.rocq.inria.fr/secret/Anne.Canteaut/Publications/BaCa07.pdf) zitieren, der mich besonders beeindruckt hat:

„Verlangt man heute von einem Archivar, die handschriftlichen Unterschriften auf den Dokumenten, die er erhält, zu überprüfen? Was man vom Archivar verlangt, ist, den Archivierungsprozess zu garantieren, paradoxerweise auch für Dokumente, die angeblich gefälscht sind: Der Archivar muss beweisen können, dass er perfekt gefälschte Dokumente aufbewahrt hat!“

Um auf unsere Parallele zu ChatGPT oder Deep Fakes zurückzukommen: Es würde darum gehen, fälschungssicher zu beweisen, dass die gegebenen Informationen tatsächlich von der NASA stammen oder dass das Video von Barak Obama den tatsächlichen Präsidenten der USA zeigt (hier sei auf den Artikel „Protecting World Leaders Against Deep Fakes“ verwiesen, in dem eine Erkennungslösung auf der Grundlage einer biometrischen Signatur von Personen erwähnt wird :https://openaccess.thecvf.com/content_CVPRW_2019/papers/Media%20Forensics/Agarwal_Protecting_World_Leaders_Against_Deep_Fakes_CVPRW_2019_paper.pdf). Der Zertifikatskettenmechanismus der elektronischen Signatur könnte sehr wohl eine Inspirationsquelle sein!

Nehmen wir an, dass wir das Problem der Authentizität gelöst haben. Genau wie bei Archiven bedeutet die Authentifizierung einer Quelle nicht, dass diese Quelle wahrheitsgemäße Aussagen gemacht hat. Die Grenzen des „Autoritätsarguments“ sind bekannt. So gibt es so viele Nobelpreisträger, die in haarsträubende Theorien oder Pseudowissenschaften „abrutschten“, dass sie unter dem Begriff „Nobelkrankheit“ zusammengefasst wurden (https://www.lalibre.be/planete/sciences-espace/2022/02/10/la-maladie-du-nobel-quand-les-scientifiques-deraillent-UZ32J66SORBJ5MSWMXYKKISPJI/).

Es geht also darum, diesen Nachweis der Authentizität, dessen Mechanismus noch aufgebaut werden müsste, durch einen Nachweis der Wahrhaftigkeit zu ergänzen. Das „fact checking“ wäre ein Baustein dazu. Allerdings muss man sich bewusst sein, dass die Wissenschaft des „veracity assessment“ noch in den Kinderschuhen steckt (wie in der Veröffentlichung https://www.sciencedirect.com/science/article/pii/S0167923619301617 betont wird). Im Gegensatz zur elektronischen Signatur ist dies kein Aspekt, der die Produzenten digitaler Archive noch zu beschäftigen scheint. Aber wie lange noch?

Ein weiterer möglicher Ansatzpunkt ist die menschliche Kontrolle bei der Vorlage des Archivs. Hier könnte das Konzept des Input-Workflows eine Rolle spielen, der den Eintritt in das Archivierungssystem nur dann erlaubt, wenn ein menschlicher Validator das Archiv explizit akzeptiert hat.

Es ist ein Traum, dass sich im Bereich der digitalen Informationen allmählich eine fruchtbare Synergie zum Thema Vertrauen entwickelt. Vielleicht ist dies sogar die Voraussetzung für das Überleben des Sektors!