Schlagwort: Wikipedia

  • Das Ende des Gewohnten, wie wir es kennen

    Das Ende des Gewohnten, wie wir es kennen

    Der Prompt für die­ses Bild bestand nur aus einem Wort: „Wiki­pe­dia“. (illus­tra­ti­on: Mar­cus Schwarze/Midjourney, KI-generiert)

    Wer wei­ter­hin alles von mir im News­let­ter lesen möch­te, der zah­le bit­te 8,88 Euro im Monat oder 88 Euro im Jahr. Wer nicht zahlt, erhält nur die kos­ten­frei­en News­let­ter und muss auf min­des­tens einen Bei­trag im Monat von mir verzichten.

    Das ist teu­er? Stimmt. Ande­rer­seits haben eini­ge Posts in den ver­gan­ge­nen sechs Mona­ten eine erstaun­li­che Kraft ent­wi­ckelt – und zwar bei einem Teil mei­ner Kund­schaft, Medi­en­un­ter­neh­men. Der eine und der ande­re woll­te an mei­nem erwor­be­nen Wis­sen teil­ha­ben, kauf­te auf­grund mei­ner Posts mei­ne redak­tio­nel­le Leis­tung für eige­ne Ver­öf­fent­li­chun­gen ein. Auch in der Bera­tung tat sich für mich eini­ges: Was soll­te wohl jetzt ein Ver­lag im Zuge der künst­li­chen Intel­li­genz, die an allen Orten auf­kommt, unter­neh­men? Wie ändert sich unser Arbei­ten? Unser Geschäfts­mo­dell? Ich dan­ke der neu­en gefun­de­nen Kund­schaft – und ins­be­son­de­re jenem Kol­le­gen, der frei­wil­lig für ein Jah­res­abo von mir zah­len wollte.

    Die Erschei­nungs­wei­se mei­nes News­let­ters bleibt bei „dann und wann“. Ich will nicht in den Click­bait­mo­dus ver­fal­len, auf Bie­gen und Bre­chen regel­mä­ßig Inhal­te lie­fern zu müs­sen. Statt­des­sen schrei­be ich wei­ter­hin aus Lust und Lau­ne, wenn ich mei­ne, etwas Gro­ßem auf der Spur zu sein.

    Das gro­ße The­ma wird eine Wei­le lang Künst­li­che Intel­li­genz sein. Aber beschrän­ken will ich mich im News­let­ter auf tat­säch­lich bemer­kens­wer­te Ent­wick­lun­gen. Man­che Bei­trä­ge blei­ben dann der zah­len­den Kund­schaft vor­be­hal­ten. So wie der fol­gen­de Text hier unter­halb die­ser Linie – zu sehen bekom­men ihn nur Abon­nen­tin­nen und Abon­nen­ten. Titel: Das Ende der Wiki­pe­dia, wie wir sie kennen.

    Blei­ben Sie mir gewogen.

    Mar­cus Schwarze

    P.S.: Bei der Preis­bil­dung 8,88 Euro im Monat bezie­hungs­wei­se 88 Euro im Jahr hat mir übri­gens ChatGPT‑4 gehol­fen – aus psy­cho­lo­gi­schen Grün­den sei dies ein bes­se­rer Preis als 9,99 bezie­hungs­wei­se 99,99 Euro.

    P.P.S: Ich bit­te um Ent­schul­di­gung wegen des Mixes aus Eng­lisch und Deutsch bei man­chen Funk­tio­na­li­tä­ten mei­nes News­let­ters. Der Dienst Sub­stack, den ich hier nut­ze, hat mir noch kei­ne Über­set­zungs­mög­lich­keit gezeigt.

    Illus­tra­ti­on: Midjourney/Schwarze, KI-gene­riert. Prompt: „Wiki­pe­dia“.

    Das Ende der Wikipedia, wie wir sie kennen

    Alex­an­der Cae­d­mon Karp hat vor einem Monat einen bemer­kens­wer­ten, fürch­ter­li­chen Gedan­ken über künst­li­che Intel­li­genz (KI) veröffentlicht:

    Es ist klar, dass die Raf­fi­nes­se und Kom­ple­xi­tät die­ser neu­es­ten Sys­te­me nur wei­ter zuneh­men wird. Die Her­aus­for­de­rung wird dar­in bestehen, sicher­zu­stel­len, dass sol­che Tech­no­lo­gien unse­rem kol­lek­ti­ven Wil­len unter­wor­fen blei­ben. Wir müs­sen der von uns erstell­ten Soft­ware unse­re Wer­te auf­er­le­gen, sonst kann sie uns einen auf­stre­ben­den und unein­ge­schränk­ten Satz von Wer­ten auferlegen.

    Die­se Über­set­zung sei­nes eng­li­schen Tex­tes gab mir Siri, die KI von Apple. Karp wirbt in sei­nem Bei­trag eigent­lich für AIP, eine Arti­fi­ci­al intel­li­gence Plat­form, die in Kür­ze herauskommt.

    Alex­an­der Karp ist nicht irgend­je­mand. Er ist Mil­li­ar­där und CEO von Palan­tir. Der gebür­ti­ge New Yor­ker pro­mo­vier­te an der Goe­the-Uni­ver­si­tät in Frank­furt am Main. 2003 grün­de­te er in Kali­for­ni­en zusam­men mit Peter Thiel Palan­tir. Das inzwi­schen mil­li­ar­den­schwe­re Unter­neh­men erstell­te eine Daten­ana­ly­se-Soft­ware, die ins­be­son­de­re US-Geheim­diens­te ver­wen­den. Sie ist in der Lage, aus gro­ßen Daten­men­gen Zusam­men­hän­ge und Fol­ge­run­gen zu erken­nen. Auch das baye­ri­sche Lan­des­kri­mi­nal­amt und das hes­si­sche Innen­mi­nis­te­ri­um wol­len die Pro­gram­me neu­er­dings ein­set­zen. Wäre da nur nicht das Bun­des­ver­fas­sungs­ge­richt: Es hat Rege­lun­gen als ver­fas­sungs­wid­rig unter­sagt, auf deren Grund­la­ge die Poli­zei gespei­cher­te per­so­nen­be­zo­ge­ne Daten in einer auto­ma­ti­sier­ten Daten­aus­wer­tung für die vor­beu­gen­de Bekämp­fung von Straf­ta­ten wei­ter ver­ar­bei­tet. Genau das, was die Palan­tir-Pro­gram­me ermög­li­chen. Auch Air­bus, BMW und Merck nut­zen die Software.

    Seit zwei Jahr­zehn­ten forscht und ver­kauft Palan­tir die­se Vor­läu­fer von künst­li­cher Intel­li­genz an Behör­den, Mili­tärs und ande­re. Nun kommt die neue Fas­sung auf den Markt, ver­knüpft sie mit den soge­nann­ten „Lar­ge Lan­guage Moduls“ (LLMs) – und ermög­licht dann Ant­wor­ten auf Fra­gen wie:

    Wel­che unse­rer Spe­zi­al­ein­hei­ten sind den feind­li­chen Pan­zer­po­si­tio­nen am nächs­ten und ver­fü­gen über aus­rei­chen­de Vor­rä­te an Jave­lin-Rake­ten, um eine Offen­si­ve zu star­ten? Und wel­che spe­zi­fi­schen Pan­zer sind auf dem Schlacht­feld am anfäl­ligs­ten für Angriffe?

    „Für Momen­te wie die­sen ist unser Unter­neh­men und unse­re Soft­ware gemacht“, beschreibt Karp in bes­tem ame­ri­ka­ni­schen Wer­be­sprech die rie­si­ge Bedeu­tung der rund­erneu­er­ten Soft­ware. Und doch warnt aus­ge­rech­net der heim­li­che Markt­füh­rer, wie ich ver­mu­te, in sei­nem pro­mi­nen­ten State­ment davor, dass die Soft­ware „uns ihre Wer­te“ auf­er­le­gen könn­te – und zwar unein­ge­schränkt. Die War­nung vor den Gefah­ren wirkt fast wich­ti­ger als die Wer­bung für das Pro­dukt: „Künst­li­che Intel­li­genz unse­rem kol­lek­ti­ven Wil­len unter­wer­fen“ lau­tet die Überschrift.

    (Illus­tra­ti­on: Midjourney/Schwarze)

    Was hat das alles mit Wiki­pe­dia zu tun?

    Das in der Wiki­pe­dia gesam­mel­te ein­zig­ar­ti­ge Welt­wis­sen ist beson­ders anfäl­lig für künst­li­che Intelligenzen.

    Bereits jetzt haben sich die Wiki­pe­dia­ner eini­ge Regeln auf­er­legt, wie die Lar­ge Lan­guage Models benutzt und nicht benutzt wer­den dür­fen. Die Kurz­fas­sung: KI darf beim Tex­ten assis­tie­ren, aber sämt­li­che Aus­sa­gen und Quel­len müs­sen über­prüft wer­den. Zudem müs­sen ent­spre­chend von Maschi­nen her­ge­stell­te Tex­te gekenn­zeich­net wer­den. Und: Auto­ma­ti­sier­te Text­ver­bes­se­run­gen sind untersagt.

    Letz­te­res aller­dings dürf­te sich kaum auf­hal­ten lassen.

    Das hat auch die Wiki­me­dia-Stif­tung erkannt, die hin­ter der Wiki­pe­dia steht:

    Die Fähig­keit, unse­re Pro­jek­te zu stö­ren, erfor­dert sehr wenig tech­ni­sches Know-how – der Haupt­schutz davor war in der Ver­gan­gen­heit der Man­gel an Wil­len. His­to­risch gese­hen war die Stö­rung meist leicht zu erken­nen. LLMs könn­ten die Fähig­keit besei­ti­gen, groß ange­leg­ten Miss­brauch zu iden­ti­fi­zie­ren, ins­be­son­de­re wenn er pro­du­ziert und auto­ma­ti­siert ist.

    Wie das geht, haben eini­ge KI-Enthu­si­as­ten mit­hil­fe der frei ver­füg­ba­ren Soft­ware AutoGPT demons­triert: Die­se Wei­ter­ent­wick­lung von ChatGPT ver­sucht, bestimm­te Auf­ga­ben zu lösen. Der KI-Agent könn­te bei­spiels­wei­se ange­wie­sen wer­den, eine Piz­za zu bestel­len, dann selb­stän­dig her­aus­fin­den, an wel­che Adres­se sie gelie­fert wer­den soll und wel­cher Lie­fer­dienst in der Nähe dazu in der Lage ist. Als letz­ten Schritt schließt die Maschi­ne die Bestel­lung eigen­stän­dig ab. Soweit die Theorie.

    In der Pra­xis ist die Soft­ware nicht leicht in Gang zu set­zen, fragt bei Arbeits­schrit­ten nach (was sich aus­schal­ten lässt) und löscht schon mal bei all­zu viel ein­ge­räum­ten Rech­ten unge­wünscht Datei­en. Der Auto­ma­tis­mus hol­pert noch.

    Das Grund­di­lem­ma ist damit jedoch bewie­sen. Es ist nur eine Fra­ge der Zeit, bis irgend­je­mand in der welt­wei­ten Wiki­pe­dia-Gemein­de den ers­ten AutoGPT-Kum­pel auf Wiki­pe­dia-Arti­kel ansetzt. Und dabei „ver­gisst“, die womög­lich sinn­vol­le Ände­rung durch den KI-Bot zu kenn­zeich­nen. Noch ist das nach mei­ner Kennt­nis nicht pas­siert, aber wie woll­te man dem bei täg­lich Tau­sen­den und Zehn­tau­sen­den von Text­än­de­run­gen auf die Schli­che kommen?

    Oder wie John Nos­ta for­mu­lier­te: Die Zahn­pas­ta ist aus der Tube und lässt sich nicht wie­der zurück­pres­sen. „Die größ­te Gefahr ist, dass ver­wen­de­te Quel­len durch künst­li­che Intel­li­genz gene­riert sein könn­ten und ent­spre­chen­de Medi­en­be­rich­te dar­auf basie­ren könn­ten“, sag­te Foto­graf Mar­tin Kraft bei einem Tref­fen von deut­schen Wiki­pe­dia­nern kürz­lich, wie Ziko van Dijk anschlie­ßend auf­schrieb. Ande­re tun dage­gen die Mög­lich­kei­ten des groß­flä­chi­gen Ein­sat­zes von künst­li­cher Intel­li­genz eher als Van­da­lis­mus ab. Und der kön­ne eben­so unter­bun­den wer­den wie bis­he­ri­ge Van­da­len­ta­ten – mit­hil­fe von Auto­ma­tis­men (sic!). Sie wür­de den Geist ja ger­ne zurück in die Fla­sche ste­cken, aber das sei eben nicht mög­lich, sag­te Amy Bruck­mann, Pro­fes­so­rin und Autorin des Buchs „Should You Belie­ve Wiki­pe­dia?“. So blei­be die ein­zi­ge Lösung, wie bis­her jeg­li­che Ände­run­gen durch die Wiki­pe­dia-Gemein­de über­prü­fen zu lassen.

    (Illus­tra­ti­on: Midjourney/Schwarze)

    Wer schon mal eine Lösch­dis­kus­si­on auf Wiki­pe­dia mit­er­lebt hat, weiß um die Deu­tungs­ho­heit von Wiki­pe­dia-Admins. An ihren PCs hocken da Men­schen, vor­wie­gend Män­ner, die mit gro­ßem Ernst und oft wenig Empa­thie über Mei­nun­gen ande­rer urtei­len. „Rele­vanz­kri­te­ri­en“ grei­fen häu­fig, ob ein Begriff über­haupt einen Wert hat, in die hei­li­ge Wiki­pe­dia auf­ge­nom­men zu werden.

    Da wird dann einer „Bun­des­gar­ten­schau“ eines bestimm­ten Jah­res schon mal von eini­gen Wiki­pe­dia­nern die Rele­vanz abge­spro­chen, obwohl sie längst beschlos­sen und mit einem mil­lio­nen­schwe­ren Etat aus­ge­stat­tet ist. (Gera­de so eben konn­te ich damals die Löschung des Ein­trags ver­hin­dern, als ich ein biss­chen digi­ta­le Öffent­lich­keits­ar­beit für das Pro­jekt über­nahm.) Jede Bau­rei­he der Deut­schen Bahn erfährt mehr Wür­di­gung, neh­men wir nur mal die DB-Bau­rei­he 605: „Spur­wei­te 1435“ mm, „Anzahl: 20“, „Aus­mus­te­rung: bis 2017“, „Achs­for­mel: 2’Bo’+Bo’2’+2’Bo’+Bo’2’“. Zitat aus dem ellen­lan­gen Arti­kel: „Wäh­rend der Fuß­ball-WM 2006 wur­de ein Teil der Züge im Char­ter­ver­kehr für aus­län­di­sche Fuß­ball­fan-Grup­pen ein­ge­setzt. Unter ande­rem beför­der­ten die zunächst neun reak­ti­vier­ten Züge Fuß­ball­fans aus Bra­si­li­en und Mexiko.[49]“ Da schnalzt der Wiki­pe­dia­ner vor Won­ne mit der Zun­ge, und der Laie wun­dert sich. Wie rele­vant ist das denn?

    Künst­li­che Intel­li­genz ist in der Lage, die Arti­kel nach gewis­sen Regeln zu über­ar­bei­ten. Sie könn­te im posi­ti­ven Sin­ne auch das gele­gent­lich gestör­te Ver­hält­nis man­cher frei­wil­li­ger Macher der Wiki­pe­dia zu Fra­gen der Rele­vanz zurecht­stut­zen. Ein biss­chen kür­ze­re Eisen­bahn­spie­le­rei hier, aus­führ­li­che­re The­ma­ti­sie­rung „wirk­lich rele­van­ter“ Themen.

    Fragt man aller­dings die KI von Bing nach den zehn rele­van­tes­ten und signi­fi­kan­ten The­men unse­rer Zeit, folgt die­se Liste:

    • Sta­tis­ti­sche Signifikanz (?)
    • Nach­hal­tig­keit
    • Kli­ma­wan­del
    • Digi­ta­li­sie­rung
    • Demo­kra­tie
    • Migra­ti­on
    • Gesund­heit
    • Kunst
    • Bil­dung
    • Sport

    „Sta­tis­ti­sche Signi­fi­kanz“ scheint mir ja eher ein Gesprächs­the­ma für AI-Bots unter­ein­an­der zu sein, aber was weiß ich schon.

    Und bei der Fra­ge, wel­ches The­ma die Maschi­ne „selbst“ am meis­ten inter­es­siert, nennt sie: die Digi­ta­li­sie­rung. Nicht etwa den Kli­ma­wan­del. Wel­che der bei­den Ent­wick­lun­gen ist wohl gefähr­li­cher für den Menschen?

    Oder wie es Palan­tir-Chef Karp formulierte:

    Die Risi­ken die­ser auf­kom­men­den Fähig­kei­ten der künst­li­chen Intel­li­genz für die indi­vi­du­el­len Rech­te und viel­leicht sogar für unse­re eige­ne phy­si­sche Sicher­heit sind für die meis­ten erheb­lich und offen­sicht­lich. Es kann sein, dass ein Bewusst­sein oder eine Eigen­wahr­neh­mung nicht das Ergeb­nis einer dis­kre­ten oder spe­zi­fi­schen Rei­he von Bezie­hun­gen inner­halb eines Netz­werks von Ver­bin­dun­gen dar­stellt, wie dem mensch­li­chen Gehirn, son­dern ledig­lich eine auf­kom­men­de Eigen­schaft eines aus­rei­chend kom­ple­xen Systems.

    • Tei­le die­ses Bei­trags wur­den mit Hil­fe der künst­li­chen Intel­li­gen­zen von Siri, ChatGPT‑4, Bing, dem Lan­guage­Tool und Mid­jour­ney erstellt oder verbessert.