Wer weiterhin alles von mir im Newsletter lesen möchte, der zahle bitte 8,88 Euro im Monat oder 88 Euro im Jahr. Wer nicht zahlt, erhält nur die kostenfreien Newsletter und muss auf mindestens einen Beitrag im Monat von mir verzichten.
Das ist teuer? Stimmt. Andererseits haben einige Posts in den vergangenen sechs Monaten eine erstaunliche Kraft entwickelt – und zwar bei einem Teil meiner Kundschaft, Medienunternehmen. Der eine und der andere wollte an meinem erworbenen Wissen teilhaben, kaufte aufgrund meiner Posts meine redaktionelle Leistung für eigene Veröffentlichungen ein. Auch in der Beratung tat sich für mich einiges: Was sollte wohl jetzt ein Verlag im Zuge der künstlichen Intelligenz, die an allen Orten aufkommt, unternehmen? Wie ändert sich unser Arbeiten? Unser Geschäftsmodell? Ich danke der neuen gefundenen Kundschaft – und insbesondere jenem Kollegen, der freiwillig für ein Jahresabo von mir zahlen wollte.
Die Erscheinungsweise meines Newsletters bleibt bei „dann und wann“. Ich will nicht in den Clickbaitmodus verfallen, auf Biegen und Brechen regelmäßig Inhalte liefern zu müssen. Stattdessen schreibe ich weiterhin aus Lust und Laune, wenn ich meine, etwas Großem auf der Spur zu sein.
Das große Thema wird eine Weile lang Künstliche Intelligenz sein. Aber beschränken will ich mich im Newsletter auf tatsächlich bemerkenswerte Entwicklungen. Manche Beiträge bleiben dann der zahlenden Kundschaft vorbehalten. So wie der folgende Text hier unterhalb dieser Linie – zu sehen bekommen ihn nur Abonnentinnen und Abonnenten. Titel: Das Ende der Wikipedia, wie wir sie kennen.
Bleiben Sie mir gewogen.
Marcus Schwarze
P.S.: Bei der Preisbildung 8,88 Euro im Monat beziehungsweise 88 Euro im Jahr hat mir übrigens ChatGPT‑4 geholfen – aus psychologischen Gründen sei dies ein besserer Preis als 9,99 beziehungsweise 99,99 Euro.
P.P.S: Ich bitte um Entschuldigung wegen des Mixes aus Englisch und Deutsch bei manchen Funktionalitäten meines Newsletters. Der Dienst Substack, den ich hier nutze, hat mir noch keine Übersetzungsmöglichkeit gezeigt.
Das Ende der Wikipedia, wie wir sie kennen
Alexander Caedmon Karp hat vor einem Monat einen bemerkenswerten, fürchterlichen Gedanken über künstliche Intelligenz (KI) veröffentlicht:
Es ist klar, dass die Raffinesse und Komplexität dieser neuesten Systeme nur weiter zunehmen wird. Die Herausforderung wird darin bestehen, sicherzustellen, dass solche Technologien unserem kollektiven Willen unterworfen bleiben. Wir müssen der von uns erstellten Software unsere Werte auferlegen, sonst kann sie uns einen aufstrebenden und uneingeschränkten Satz von Werten auferlegen.
Diese Übersetzung seines englischen Textes gab mir Siri, die KI von Apple. Karp wirbt in seinem Beitrag eigentlich für AIP, eine Artificial intelligence Platform, die in Kürze herauskommt.
Alexander Karp ist nicht irgendjemand. Er ist Milliardär und CEO von Palantir. Der gebürtige New Yorker promovierte an der Goethe-Universität in Frankfurt am Main. 2003 gründete er in Kalifornien zusammen mit Peter Thiel Palantir. Das inzwischen milliardenschwere Unternehmen erstellte eine Datenanalyse-Software, die insbesondere US-Geheimdienste verwenden. Sie ist in der Lage, aus großen Datenmengen Zusammenhänge und Folgerungen zu erkennen. Auch das bayerische Landeskriminalamt und das hessische Innenministerium wollen die Programme neuerdings einsetzen. Wäre da nur nicht das Bundesverfassungsgericht: Es hat Regelungen als verfassungswidrig untersagt, auf deren Grundlage die Polizei gespeicherte personenbezogene Daten in einer automatisierten Datenauswertung für die vorbeugende Bekämpfung von Straftaten weiter verarbeitet. Genau das, was die Palantir-Programme ermöglichen. Auch Airbus, BMW und Merck nutzen die Software.
Seit zwei Jahrzehnten forscht und verkauft Palantir diese Vorläufer von künstlicher Intelligenz an Behörden, Militärs und andere. Nun kommt die neue Fassung auf den Markt, verknüpft sie mit den sogenannten „Large Language Moduls“ (LLMs) – und ermöglicht dann Antworten auf Fragen wie:
Welche unserer Spezialeinheiten sind den feindlichen Panzerpositionen am nächsten und verfügen über ausreichende Vorräte an Javelin-Raketen, um eine Offensive zu starten? Und welche spezifischen Panzer sind auf dem Schlachtfeld am anfälligsten für Angriffe?
„Für Momente wie diesen ist unser Unternehmen und unsere Software gemacht“, beschreibt Karp in bestem amerikanischen Werbesprech die riesige Bedeutung der runderneuerten Software. Und doch warnt ausgerechnet der heimliche Marktführer, wie ich vermute, in seinem prominenten Statement davor, dass die Software „uns ihre Werte“ auferlegen könnte – und zwar uneingeschränkt. Die Warnung vor den Gefahren wirkt fast wichtiger als die Werbung für das Produkt: „Künstliche Intelligenz unserem kollektiven Willen unterwerfen“ lautet die Überschrift.
Was hat das alles mit Wikipedia zu tun?
Das in der Wikipedia gesammelte einzigartige Weltwissen ist besonders anfällig für künstliche Intelligenzen.
Bereits jetzt haben sich die Wikipedianer einige Regeln auferlegt, wie die Large Language Models benutzt und nicht benutzt werden dürfen. Die Kurzfassung: KI darf beim Texten assistieren, aber sämtliche Aussagen und Quellen müssen überprüft werden. Zudem müssen entsprechend von Maschinen hergestellte Texte gekennzeichnet werden. Und: Automatisierte Textverbesserungen sind untersagt.
Letzteres allerdings dürfte sich kaum aufhalten lassen.
Das hat auch die Wikimedia-Stiftung erkannt, die hinter der Wikipedia steht:
Die Fähigkeit, unsere Projekte zu stören, erfordert sehr wenig technisches Know-how – der Hauptschutz davor war in der Vergangenheit der Mangel an Willen. Historisch gesehen war die Störung meist leicht zu erkennen. LLMs könnten die Fähigkeit beseitigen, groß angelegten Missbrauch zu identifizieren, insbesondere wenn er produziert und automatisiert ist.
Wie das geht, haben einige KI-Enthusiasten mithilfe der frei verfügbaren Software AutoGPT demonstriert: Diese Weiterentwicklung von ChatGPT versucht, bestimmte Aufgaben zu lösen. Der KI-Agent könnte beispielsweise angewiesen werden, eine Pizza zu bestellen, dann selbständig herausfinden, an welche Adresse sie geliefert werden soll und welcher Lieferdienst in der Nähe dazu in der Lage ist. Als letzten Schritt schließt die Maschine die Bestellung eigenständig ab. Soweit die Theorie.
In der Praxis ist die Software nicht leicht in Gang zu setzen, fragt bei Arbeitsschritten nach (was sich ausschalten lässt) und löscht schon mal bei allzu viel eingeräumten Rechten ungewünscht Dateien. Der Automatismus holpert noch.
Das Grunddilemma ist damit jedoch bewiesen. Es ist nur eine Frage der Zeit, bis irgendjemand in der weltweiten Wikipedia-Gemeinde den ersten AutoGPT-Kumpel auf Wikipedia-Artikel ansetzt. Und dabei „vergisst“, die womöglich sinnvolle Änderung durch den KI-Bot zu kennzeichnen. Noch ist das nach meiner Kenntnis nicht passiert, aber wie wollte man dem bei täglich Tausenden und Zehntausenden von Textänderungen auf die Schliche kommen?
Oder wie John Nosta formulierte: Die Zahnpasta ist aus der Tube und lässt sich nicht wieder zurückpressen. „Die größte Gefahr ist, dass verwendete Quellen durch künstliche Intelligenz generiert sein könnten und entsprechende Medienberichte darauf basieren könnten“, sagte Fotograf Martin Kraft bei einem Treffen von deutschen Wikipedianern kürzlich, wie Ziko van Dijk anschließend aufschrieb. Andere tun dagegen die Möglichkeiten des großflächigen Einsatzes von künstlicher Intelligenz eher als Vandalismus ab. Und der könne ebenso unterbunden werden wie bisherige Vandalentaten – mithilfe von Automatismen (sic!). Sie würde den Geist ja gerne zurück in die Flasche stecken, aber das sei eben nicht möglich, sagte Amy Bruckmann, Professorin und Autorin des Buchs „Should You Believe Wikipedia?“. So bleibe die einzige Lösung, wie bisher jegliche Änderungen durch die Wikipedia-Gemeinde überprüfen zu lassen.
Wer schon mal eine Löschdiskussion auf Wikipedia miterlebt hat, weiß um die Deutungshoheit von Wikipedia-Admins. An ihren PCs hocken da Menschen, vorwiegend Männer, die mit großem Ernst und oft wenig Empathie über Meinungen anderer urteilen. „Relevanzkriterien“ greifen häufig, ob ein Begriff überhaupt einen Wert hat, in die heilige Wikipedia aufgenommen zu werden.
Da wird dann einer „Bundesgartenschau“ eines bestimmten Jahres schon mal von einigen Wikipedianern die Relevanz abgesprochen, obwohl sie längst beschlossen und mit einem millionenschweren Etat ausgestattet ist. (Gerade so eben konnte ich damals die Löschung des Eintrags verhindern, als ich ein bisschen digitale Öffentlichkeitsarbeit für das Projekt übernahm.) Jede Baureihe der Deutschen Bahn erfährt mehr Würdigung, nehmen wir nur mal die DB-Baureihe 605: „Spurweite 1435“ mm, „Anzahl: 20“, „Ausmusterung: bis 2017“, „Achsformel: 2’Bo’+Bo’2’+2’Bo’+Bo’2’“. Zitat aus dem ellenlangen Artikel: „Während der Fußball-WM 2006 wurde ein Teil der Züge im Charterverkehr für ausländische Fußballfan-Gruppen eingesetzt. Unter anderem beförderten die zunächst neun reaktivierten Züge Fußballfans aus Brasilien und Mexiko.[49]“ Da schnalzt der Wikipedianer vor Wonne mit der Zunge, und der Laie wundert sich. Wie relevant ist das denn?
Künstliche Intelligenz ist in der Lage, die Artikel nach gewissen Regeln zu überarbeiten. Sie könnte im positiven Sinne auch das gelegentlich gestörte Verhältnis mancher freiwilliger Macher der Wikipedia zu Fragen der Relevanz zurechtstutzen. Ein bisschen kürzere Eisenbahnspielerei hier, ausführlichere Thematisierung „wirklich relevanter“ Themen.
Fragt man allerdings die KI von Bing nach den zehn relevantesten und signifikanten Themen unserer Zeit, folgt diese Liste:
- Statistische Signifikanz (?)
- Nachhaltigkeit
- Klimawandel
- Digitalisierung
- Demokratie
- Migration
- Gesundheit
- Kunst
- Bildung
- Sport
„Statistische Signifikanz“ scheint mir ja eher ein Gesprächsthema für AI-Bots untereinander zu sein, aber was weiß ich schon.
Und bei der Frage, welches Thema die Maschine „selbst“ am meisten interessiert, nennt sie: die Digitalisierung. Nicht etwa den Klimawandel. Welche der beiden Entwicklungen ist wohl gefährlicher für den Menschen?
Oder wie es Palantir-Chef Karp formulierte:
Die Risiken dieser aufkommenden Fähigkeiten der künstlichen Intelligenz für die individuellen Rechte und vielleicht sogar für unsere eigene physische Sicherheit sind für die meisten erheblich und offensichtlich. Es kann sein, dass ein Bewusstsein oder eine Eigenwahrnehmung nicht das Ergebnis einer diskreten oder spezifischen Reihe von Beziehungen innerhalb eines Netzwerks von Verbindungen darstellt, wie dem menschlichen Gehirn, sondern lediglich eine aufkommende Eigenschaft eines ausreichend komplexen Systems.
- Teile dieses Beitrags wurden mit Hilfe der künstlichen Intelligenzen von Siri, ChatGPT‑4, Bing, dem LanguageTool und Midjourney erstellt oder verbessert.