Der iPhone-Moment der KI? Nein, es ist der Wikipedia-Moment

Avatar von Marcus Schwarze

Anders als manche Fachleute halte ich den Erfolg des neuen GPT Stores zum Verkauf spezialisierter KI-Apps nicht für ausgemacht. Stattdessen erleben wir den Beginn einer anderen Welle: Open-Source-KIs.

Das ist für mich eher der Wiki­pe­dia-Moment: Welt­wei­tes Wis­sen wird lokal und trans­pa­rent zugäng­lich, und das geschieht nun auch bei den Inter­pre­ta­tio­nen der Künst­li­chen Intel­li­genz (KI).

Doch pas­siert das nicht allein durch ver­meint­li­che Zau­be­rei bei den geschlos­se­nen, unein­seh­ba­ren Model­len wie ChatGPT, Clau­de oder Goog­le Gemi­ni. Son­dern künf­tig mehr und mehr bei down­load­ba­ren Open-Source-Model­len wie LlaMA vom Face­book-Kon­zern Meta, Fal­con von TII aus den Ver­ei­nig­ten Ara­bi­schen Emi­ra­ten oder Yi von 01​.AI aus China.

Hin­ter­grund ist ein Leis­tungs­ver­gleich meh­re­rer Sprach­mo­del­le. Dem­nach holen die frei zugäng­li­chen bei der Kor­rekt­heit ihrer Ant­wor­ten gegen­über den geschlos­se­nen Model­len auf. Die grü­ne Trend­li­nie in der Gra­fik dürf­te bald auf die blaue Trend­li­nie tref­fen. Grün sind die Open-Source-Model­le, blau die Clo­sed-Source-Ver­sio­nen. Die Leis­tungs­fä­hig­keit wird hier bei der soge­nann­ten MMLU-Per­for­mance gemes­sen. MMLU steht für „Mas­si­ve Mul­ti­tas­king Lan­guage Under­stan­ding“ und beinhal­tet einen Test für 57 The­men. Dem­nach gilt GPT‑4 wei­ter­hin als das „bes­te“ Sprach­mo­dell unter jenen, die kei­ne extra Trai­nings­da­ten ent­hal­ten. Das neue­re Modell Gemi­ni Ultra von Goog­le ran­giert bei die­sem Ver­gleich zwar ober­halb von GPT‑4, doch ent­hält es extra Trai­nings­da­ten, die spe­zi­ell auf die Test­fra­gen abge­stimmt sein könnten.

In der Pra­xis kann man sich heu­te bereits eine eige­ne KI zusam­men­stöp­seln. Basis­soft­ware ist zum Bei­spiel GPT4All, das für Win­dows, macOS und Linux erhält­lich ist. Aus der Soft­ware her­aus las­sen sich bereits diver­se Sprach­mo­del­le her­un­ter­la­den, die Namen tra­gen wie Mis­tral OpenOr­ca oder GPT4All Fal­con. Auch Metas Llama 2 lässt sich dazu instal­lie­ren, vor­aus­ge­setzt, man akzep­tiert deren etwas eigen­wil­li­ge Open-Source-Lizenz. Die erlaubt auch die kom­mer­zi­el­le Nut­zung des Sprach­mo­dells, außer man kommt auf mehr als 700 Mil­lio­nen monat­lich akti­ve Nut­zer. Zudem ist für den Down­load und den Ein­bau bei GPT4All neu­er­dings ein Sprach­mo­dell im soge­nann­ten .gguf-For­mat not­wen­dig, älte­re .bin-Datei­en funk­tio­nie­ren nicht mehr.

Vor­bo­te einer per­so­na­li­sier­ten KI: GPT4All. (Screen­shot: Schwarze)

Das zunächst nerdig erschei­nen­de The­ma hat auf der Platt­form Hug­ging Face einen welt­wei­ten Markt­platz gefun­den. Hier sam­melt die KI-Com­mu­ni­ty Open-Source-Biblio­the­ken und Sprach­mo­del­le. Mehr als 50.000 Orga­ni­sa­tio­nen nut­zen die Res­sour­cen von Hug­ging Face. So kön­nen etwa maschi­nel­le Lern­pro­jek­te direkt aus­pro­biert wer­den. GPT4All ist dabei nur einer von vie­len Prot­ago­nis­ten der Sze­ne. Auch Micro­soft hat hier Model­le ver­öf­fent­licht, etwa Phi‑2 als beson­ders klei­nes, aber beson­ders hoch­wer­ti­ges Modell.

Inter­es­sant wird GPT4All als ver­gleichs­wei­se ein­fa­che Anwen­dung, die auf dem eige­nen Rech­ner genutzt wer­den kann, aus zwei­er­lei Grün­den: Zum einen kön­nen pri­va­te Daten fürs soge­nann­te Fine­tu­ning hin­ter­legt wer­den. So habe ich etwa mei­ne eige­nen Arti­kel von GPT4All inde­xie­ren las­sen. Und kann der per­sön­li­chen KI Fra­gen stel­len zu The­men, die ich bereits vor Jah­ren oder Jahr­zehn­ten beschrie­ben habe.

Zum zwei­ten kön­nen die gewon­ne­nen Daten in einem soge­nann­ten Open Source Data­la­ke beim Unter­neh­men Nomic aus New York ein­ge­speist wer­den. Nomic hat die Anwen­dung GPT4All bereit­ge­stellt. Hier gilt es frei­lich, genau zu wis­sen, was man tut. Die Daten wer­den unter atlas​.nomic​.ai öffent­lich. Des­we­gen sind per­so­nen­be­zo­ge­ne Daten aus­zu­schlie­ßen und Geschäfts­un­ter­la­gen geson­dert zu schützen.

Punkt­wol­ke aus meh­re­ren Mil­lio­nen Tweets: Bei Atlas von Nomic las­sen sich Mil­lio­nen Daten­punk­te hoch­la­den und spä­ter als Basis für eige­ne Sprach­mo­del­le nut­zen. (Screen­shot: Schwarze)

Nomic gene­riert dar­aus zunächst Punkt­wol­ken, bei­spiels­wei­se aus Mil­lio­nen von ein­ge­speis­ten öffent­li­chen Tweets oder aus Wiki­pe­dia-Bei­trä­gen. Und so schließt sich der Kreis: Die Daten kön­nen von Nomic, aber auch von ande­ren dazu ver­wen­det wer­den, neue Sprach­mo­del­le zu trai­nie­ren. Und es las­sen sich sowohl öffent­li­che als auch pri­va­te Daten­punk­te fest­le­gen – letz­te­re für Infor­ma­tio­nen, die nicht für ande­re zugäng­lich sein sol­len. Dar­aus wird letzt­lich Nomics Geschäfts­mo­dell. Wer Geschäfts­un­ter­la­gen vor der KI pri­vat hal­ten möch­te, muss dafür bei Nomic zahlen.