So basteln sich Firmen ihre Unternehmens-KI

Avatar von Marcus Schwarze

Die Drogeriemarktkette dm und die Technologiefirma Bosch entwickeln eigene künstliche Intelligenz (KI). „dmGPT“ ist bereits intern im Einsatz, „BoschGPT“ bis Jahresende. Sie sind nicht allein.

Unter­des­sen bekom­men KI- und Cloud-Gigan­ten wie Micro­soft, Ama­zon, Goog­le, Ali­baba und IBM einen wei­te­ren, womög­lich mäch­ti­gen Kon­kur­ren­ten. Dazu am Ende die­ses heu­te aus­führ­li­chen News­let­ters mehr.

Illus­tra­ti­on: KI-gene­rier­t/­Mid­jour­ney­/­Schwar­ze. Prompt: Design a clear dia­gram that com­pa­res dif­fe­rent AI ser­vices, pos­si­bly with sym­bols or logos for each ser­vice –s 750 –ar 16:9

Integration von KI in Unternehmensprozesse

Es geht um nicht weni­ger als den hei­li­gen Gral der KI-Model­le: bequem auf­find­ba­res Unter­neh­mens­wis­sen, das das Unter­neh­men garan­tiert nicht ver­lässt. „Wel­cher unse­rer Stand­or­te hat im Ver­hält­nis zu der Anzahl der Mit­ar­bei­ter den gerings­ten Umsatz erzielt?“ Das wäre eine denk­ba­re Fra­ge, die frü­her mit­hil­fe von Excel und einem funk­tio­nie­ren­den Con­trol­ling beant­wor­tet wer­den konn­te und künf­tig von einem inter­nen ChatGPT in mensch­li­cher Spra­che abge­fragt wer­den könnte.

KI-gene­rier­t/­Mid­jour­ney­/­Schwar­ze. Prompt: /imagine A modern drug store office show­ca­sing AI tech­no­lo­gy on mul­ti­ple screens aiding in data ana­ly­sis, peo­p­le sit­ting in front of it, Medi­um: digi­tal pho­to­gra­phy, Style: futu­ristic and clean, Light­ing: bright day­light with soft shadows, Colors: cool blue tones and neu­tral grays, Com­po­si­ti­on: Nikon D850 DSLR came­ra, 24–70mm f/2.8 lens, Reso­lu­ti­on 45.7 mega­pi­xels, ISO sen­si­ti­vi­ty: 64, Shut­ter speed 1200 second –ar 16:9 –v 5.1 –style raw –s 750 –no sci­ence fiction

Microsofts Beitrag zur KI-Technologie

Die­se Ver­knüp­fung von KI mit inter­nen Unter­neh­mens­da­ten ist ver­mut­lich eine der Schlüs­sel­tech­no­lo­gien der kom­men­den Mona­te und Jahre.

Micro­soft als Geld­ge­ber hin­ter dem KI-Platz­hir­schen Ope­nAI mit ChatGPT hat die KI-Tech­nik vor Kur­zem in sei­ne Azu­re-Cloud-Soft­ware ein­ge­baut und jetzt zum all­ge­mei­nen Auf­set­zen eige­ner Anwen­dun­gen für IT-Abtei­lun­gen frei­ge­schal­tet. Das hilft Unter­neh­men, inter­ne Unter­la­gen und Geschäfts­ge­heim­nis­se im eige­nen Haus zu behal­ten – was regel­mä­ßig schief­ge­hen könn­te, wenn Mit­ar­bei­te­rin­nen und Mit­ar­bei­ter beim her­kömm­li­chen ChatGPT mit künst­li­cher Intel­li­genz quat­schen. Ein kom­mer­zi­el­les KI-Ange­bot von Micro­soft an die Unter­neh­men belässt zudem ergän­zen­de inter­ne und wahr­schein­lich ver­trau­li­che Daten auf den von Unter­neh­men ange­mie­te­ten Ser­vern – wahl­wei­se auch auf Ser­vern in Deutschland.

Begrenzungen und Möglichkeiten der Bots

Nicht zu ver­wech­seln ist Micro­softs Azu­re-KI mit den soge­nann­ten Power Vir­tu­al Agents von Micro­soft – einem wei­te­ren Pro­dukt, das das US-Unter­neh­men nun anbie­tet. Das sind Bots, die Micro­soft-Kun­den zum Bei­spiel für ihre Kun­den­be­treu­ung über ihre Web­site erstel­len kön­nen. Die Maschi­ne ver­wen­det dann die öffent­lich zugäng­li­chen Infor­ma­tio­nen der Web­site. Sie beant­wor­tet etwa Fra­gen wie „Was sind Ihre Öff­nungs­zei­ten?“ Erst, wenn zusätz­li­che eige­ne inter­ne Quel­len ver­wen­det wer­den sol­len, kommt die Azu­re-Cloud-Soft­ware ins Spiel. Bis­lang sind die Power Vir­tu­al Agents auf die US-Regi­on und die eng­li­sche Spra­che begrenzt.

Illus­tra­ti­on: KI-gene­rier­t/­Mid­jour­ney­/­Schwar­ze. Prompt: a dia­gram­ma­tic dra­wing of a chat­bot by Micro­soft, on white ground and with a white back­ground –s 750

Irrtümer über das Lernen der KI

Ein all­ge­mei­ner Irr­tum ist, dass die KI auto­ma­tisch aus allen Prompt­ein­ga­ben, aus hoch­ge­la­de­nen Geschäfts­plä­nen in Excel-Datei­en oder auch nur aus kor­ri­gie­ren­den Prompts dau­er­haft lernt. Die Maschi­ne lernt „nur“ für die Dau­er einer Sit­zung aus vor­an­ge­gan­ge­nen Ein­ga­ben des jewei­li­gen Nut­zers und nur für die­se Per­son. Star­tet man eine neue Sit­zung, ist das in der ver­gan­ge­nen Sit­zung erlern­te Wis­sen futsch.

Es wäre aller­dings auch ein star­kes Stück, wür­de das Sprach­mo­dell feh­ler­haf­te oder bös­ar­tig ein­ge­bau­te Feh­ler aus der Nut­zer­schaft für bare Mün­ze nehmen.

Trainingsdaten und Zuverlässigkeit

Statt­des­sen grei­fen die Model­le auf rie­si­ge Sät­ze von geprüf­ten Trai­nings­da­ten zurück. Die kön­nen zwar auch feh­ler­haf­te Daten ent­hal­ten, etwa aus der Wiki­pe­dia, doch haben die KI-Her­stel­ler Metho­den ent­wi­ckelt, über­wie­gend glaub­haf­te Quel­len fürs Trai­ning zu nut­zen. Dazu gehö­ren Patent­an­mel­dun­gen, kate­go­ri­sier­te und für hoch­wer­tig ange­se­he­ne Web­sites von Zei­tun­gen und Online-Diens­ten, aber auch scribd​.com, das Net­flix für Bücher. Dies gilt zumin­dest für die KI von Goog­le, Bard. Die popu­lä­re­re Ope­nAI-Anwen­dung ChatGPT hat sei­ne Trai­nings­da­ten geheim gehalten.

KI-gene­rier­t/­Mid­jour­ney­/­Schwar­ze. Prompt: /imagine A man in a suit picking through a haystack to find some hid­den need­les. Light­ing: bright day­light with soft shadows, Colors: cool blue tones and neu­tral grays, Com­po­si­ti­on: Canon R3 came­ra, 24–70mm f/2.8 lens, Reso­lu­ti­on 45.7 mega­pi­xels, ISO sen­si­ti­vi­ty: 64, Shut­ter speed 1200 second –ar 16:9 –v 5.1 –style raw –s 750 –no sci­ence fiction

Anforderungen an KI im Unternehmenskontext

Für Unter­neh­men und Behör­den rei­chen die bis­her ent­stan­de­nen KIs und ihre Ant­wort­qua­li­tät in den all­ge­mein zugäng­li­chen Diens­ten wie ChatGPT oft nicht aus.

Für eine schnel­le Zusam­men­fas­sung ein­ge­reich­ter Tex­te, für Über­schrif­ten­vor­schlä­ge und Social-Media-Bei­trä­ge mag die Tech­nik neue Effi­zi­enz schaf­fen. Und auch das schnel­le Mar­ke­ting­kon­zept oder durch­aus klu­ge Ideen­skiz­zen las­sen sich durch KI gene­rie­ren. Das letz­te Wort muss bei gegen­wär­ti­gen Stand stets der Mensch haben.

Separate Prüfung und Fine-Tuning

Geht es hart um belast­ba­re Daten, ist eine sepa­ra­te Prü­fung erfor­der­lich. Mal ergän­zen die Maschi­nen sich wider­spre­chen­des Wis­sen aus unter­schied­li­chen Quel­len. Mal hal­lu­zi­nie­ren sie Sach­ver­hal­te hin­zu, weil sie eine gewis­se Wahr­schein­lich­keit ver­mu­ten. Und auch eine Viel­zahl von Diens­ten wie Mott­le­Bot, AskAI, Dan­te und vie­len ande­ren Chat­bots haben es noch nicht geschafft, aus selbst hoch­ge­la­de­nen Daten zuver­läs­sig „die rich­ti­gen“ Ant­wor­ten zu generieren.

Nötig ist des­halb ein soge­nann­tes Fine-Tuning: Dabei wer­den eige­ne Doku­men­te und Daten­ban­ken in der KI zusätz­lich zu den Trai­nings­da­ten vom Her­stel­ler hin­ter­legt. Das geben Mott­le­Bot, AskAI und Co. zwar vor, doch man­gelt es oft an der rich­ti­gen Auf­be­rei­tung die­ser zusätz­li­chen Traings­da­ten. In der Fol­ge kom­men die­se Modell durcheinander.

Anforderungen und Validierung

Wer dies schon ein­mal getes­tet hat, wird mit gewis­sen Anfor­de­run­gen an die selbst ergänz­ten Daten kon­fron­tiert. Nötig ist oft ein spe­zi­el­les Datei­for­mat, zum Bei­spiel .json. Und eine Klas­si­fi­ka­ti­on gege­be­ner Ant­wor­ten im Sin­ne von „Die Maschi­ne hat­te leich­tes Spiel, hier­zu eine Ant­wort zu fin­den, denn in den Fine-Tuning-Daten fand sich eine fast gleich­lau­ten­de Information“.

Hier­aus wie­der­um müss­te die frisch­ge­ba­cke­ne KI-Abtei­lung eines Unter­neh­mens eine Vali­die­rung vor­neh­men, sprich: Von den 100 gege­be­nen Ant­wor­ten auf 100 Test­fra­gen waren x falsch beant­wor­tet – also erstel­len wir zusätz­li­che Fine-Tuning-Daten, die die Feh­ler adres­sie­ren und die Maschi­ne anwei­sen, bestimm­te Ant­wor­ten neu zu formulieren.

KI-gene­rier­t/­Mid­jour­ney­/­Schwar­ze, Prompt: /imagine a magni­fy­ing glass over an Excel sheet full of data, sym­bo­li­zing the search for data impu­ri­ties, cor­po­ra­te, Com­po­si­ti­on: Canon R3 came­ra, 24–70mm f/2.8 lens, Reso­lu­ti­on 45.7 mega­pi­xels, ISO sen­si­ti­vi­ty: 64, Shut­ter speed 1200 second –ar 16:9 –v 5.1 –style raw –s 750 –no sci­ence fiction

Parameter und Kreativität in KI

Auch die­se Arbeit stellt noch nicht 100-pro­zen­tig feh­ler­freie Ant­wor­ten von KI-Diens­ten sicher. Aber auf dem Weg dahin ist man.

Zusätz­lich kom­men bei den bestehen­den KIs bestimm­te Para­me­ter ins Spiel. So kann man bei Ope­nAI eine „tem­pe­ra­tu­re“ von „0.1“ ein­for­dern – im Grun­de mög­lichst wenig Hit­ze­wal­lun­gen: Die Maschi­ne soll nichts erfin­den, sich nur an die wahr­schein­lichs­ten Fak­ten hal­ten. Möch­te dage­gen jemand eine mög­lichst phan­ta­sie­vol­le Ant­wort von der KI, etwa den nächs­ten unge­ahn­ten Schwenk in der Geschich­te für eine Roman­fi­gur, käme eine „tem­pe­ra­tu­re“ von „0.9“ in Betracht. Das heißt: Es darf jetzt auch absei­tig, absurd oder phan­ta­sie­voll werden.

Möglichkeiten fürs Aufsetzen einer eigenen KI

Fürs Auf­set­zen einer eige­nen KI gibt es meh­re­re Mög­lich­kei­ten. Denk­bar sind unter ande­rem fol­gen­de drei Varianten:

  • Nut­zung von Ope­nAI (oder einem ande­ren Modell) per Ver­knüp­fung mit­tels API-Tech­nik im Hintergrund
  • Nut­zung eines lokal her­un­ter­ge­la­de­nen Lar­ge-Lan­guage-Models ohne Ver­knüp­fung mit einem kom­mer­zi­el­len Dienst
  • Nut­zung von ChatGPT über die neue Azu­re-Ser­ver-Umge­bung von Microsoft.

Erste Variante: Implementierung und Kosten

Die ein­fachs­te ers­te Vari­an­te bestün­de in einer inter­nen Web­sei­te, die ähn­li­chen wie ChatGPT ein Chat­for­mu­lar ent­hält und im Hin­ter­grund über einen API-Schlüs­sel den US-Dienst Ope­nAI befragt – und im klei­nen Rah­men gewis­se Vor­ga­ben macht wie „Ant­wor­te stets auf deutsch.“ So ein Schlüs­sel kos­tet ein paar hun­derts­tel US-Cent für jede Anfra­ge, je nach Län­ge der Fra­ge und der Antwort.

Die zwei­te Mög­lich­keit für eine eige­ne KI wäre eine eige­ne GPT-Ver­si­on auf einem eige­nen Ser­ver. Die ist womög­lich ein­fa­cher umge­setzt, als man denkt. Ein eige­ner Ser­ver schreckt Sie ab? Ver­ständ­lich. Doch hat eine freie Soft­ware mitt­ler­wei­le der­art an Qua­li­tät zuge­legt, dass sie auch vom Otto-Nor­mal-Ver­brau­cher zumin­dest im Haus­netz oder auch nur auf dem eige­nen Win­dows-PC, dem Mac oder dem Linux-Rech­ner ein­ge­rich­tet wer­den kann.

Illus­tra­ti­on: KI-gene­rier­t/­Mid­jour­ney­/­Schwar­ze. Prompt: /imagine Design a clear dia­gram that com­pa­res dif­fe­rent AI ser­vices, pos­si­bly with sym­bols or logos for each ser­vice. –s 750

Zweite Variante: Open-Source-Alternativen

Dazu muss man wis­sen, dass Ope­nAI die grund­le­gen­den Daten sei­nes Sprach­mo­dells (Lar­ge-Lan­guage-Model, LLM) nicht als Open-Source anbie­tet. Nötig ist statt­des­sen der besag­te API-Key, damit der loka­le Ser­ver oder Rech­ner dann bei jeder Abfra­ge die Schatz­kam­mer von Ope­nAI in den USA öff­net – und dafür Geld verlangt.

Eine Alter­na­ti­ve sind ande­re LLMs, die als Open Source zur Ver­fü­gung ste­hen. Damit kann man dann eine eige­ne KI auf­set­zen und sie mit zusätz­li­chen eige­nen Datei­en bekannt­ma­chen. Wer sich da umse­hen möch­te: Die freie Soft­ware GPT4ALL ermög­licht die loka­le Instal­la­ti­on eines Chat­bots – und anschlie­ßend die Aus­wahl diver­ser frei­er LLMs, ohne dass die Maschi­ne in die USA tele­fo­niert. Ope­nAI, Micro­soft und Goog­le blei­ben außen vor.

Aufstieg alternativer Chat-Modelle

Die­se Model­le tra­gen dann Namen wie Snoo­zy (Open-Source), Vicu­na (Open-Source) oder Llama‑2–7B Chat. Letz­te­res stammt von Face­book-Anbie­ter Meta, ist auch kom­mer­zi­ell nutz­bar und funk­tio­niert ohne Nach-Hau­se-Tele­fo­nie­ren zu Face­book. Die Open-Source-Model­le und das von Face­book ant­wor­ten qua­li­ta­tiv noch nicht so gut wie ChatGPT. Aber sie holen ste­tig auf. Das erkennt offen­bar auch Goog­le an: „Wir brau­chen die mehr als sie uns“, heißt es in einem gele­ak­ten Doku­ment über die Open-Source-Gemein­de in Sachen KI.

Die Pro­gram­mie­rung der frei­en Soft­ware GPT4ALL hat bin­nen zwei Mona­ten so gute Fort­schrit­te gemacht, dass sich die eige­ne KI bin­nen einer hal­ben Stun­de zusam­men­kli­cken lässt.

Schaffung eines Ökosystems für LLMs und KIs

Im Grun­de ent­steht hier gera­de ein Öko­sys­tem für LLMs und KIs, das wie wei­land die Wiki­pe­dia eine Gefahr für die gro­ßen Inter­net-Play­er her­auf­be­schwö­ren könn­te. Wäh­rend Ope­nAI, Micro­soft und Goog­le für viel Geld Trai­nings­da­ten erstel­len, ste­hen über Open-Source die ers­ten pri­vat zusam­men­ge­stell­ten Trai­nings­da­ten bereit. Und zwar sol­che, die sich ohne kryp­ti­sche Befeh­le auf der Kon­so­le, statt des­sen über eini­ger­ma­ßen ver­ständ­li­che Fens­ter zusam­men­stel­len lassen.

Wer möch­te aus­schlie­ßen, dass hier als nächs­tes Enthu­si­as­ten ein ver­teil­tes Modell fürs Gene­rie­ren von Trai­nings­da­ten erfin­den? Ver­teilt auf vie­le ein­zel­ne Bei­tra­gen­de, die pri­va­te Rechen­zei­ten zur Ver­fü­gung stel­len? Es scheint ange­sichts der gewon­ne­nen Qua­li­tät der Nut­zer­ober­flä­che von GPT4ALL, als ent­stün­de dort gera­de eine Art KIpe­dia. Jetzt müss­ten nur noch mög­lichst vie­le die mög­lichst vie­len Inhal­te für die Trai­nings­da­ten beitragen.

Mit GPT4All kann mann sei­ne eige­ne KI zusam­men­kli­cken. Die Soft­ware erlaubt den Down­load und die Instal­la­ti­on eines Lar­ge-Lan­guage-Modells, wie hier eines von Face­book. Die Ergeb­nis­se haben noch Luft nach oben, für ers­te Vor­schlä­ge taugt das Modell durch­aus – und ist manch­mal unfrei­wil­lig komisch. (Screen­shot: Schwarze)

Open Source Datalake sammelt Trainingsdaten

Die sind bereits in der Mache. Ein „Open Source Data­la­ke“ sam­melt frei ver­füg­ba­re Trai­nings­da­ten. Die kann jeder­mann in GPT4ALL mit der Netz­ge­mein­de tei­len. Mit­samt einem Like oder Dis­li­ke dazu, wie gut die Ant­wort war. In der Vor­ein­stel­lung des Pro­gramms ist die­se Funk­ti­on ausgeschaltet.

Ent­steht hier eine Art KIpe­dia? GPT4All, eine auf Open Source basie­ren­de Soft­ware, sam­melt Trai­nings­da­ten sei­ner Nut­zer. Kon­ver­sa­tio­nen lan­den auf Wunsch in einem „Data­la­ke“ – und kön­nen für neue Model­le her­an­ge­zo­gen wer­den. (Screen­shot: Schwarze)

Hin­ter GPT4ALL steckt übri­gens nicht nur eine Trup­pe von Nerds aus der Open-Source-Sze­ne welt­weit, son­dern unter ande­rem Nomic AI. Das ist ein Unter­neh­men aus New York, 2022 gegrün­det. Einer der Inves­to­ren ist Amjad Masad, Grün­der von Diens­ten wie der Pro­gram­mier­hil­fe Replit und ehe­mals Ange­stell­ter bei Yahoo, nun­mehr auch Inves­tor bei viel­ver­spre­chen­den KI-Diens­ten wie Per­ple­xi­ty, Run­way (Video) und Blues­ky (Social Media).

Dritte Variante: Microsofts Azure-Serverdienste

Die drit­te Vari­an­te für Unter­neh­men oder Leu­te, die eine eige­ne KI ein­rich­ten möch­ten, ist die von Micro­soft über deren Azu­re-Ser­ver­diens­te. Das wäre ein Unter­fan­gen für die hei­mi­sche IT- (Par­don:) KI-Abtei­lung. Abge­se­hen vom Auf­wand fürs Instal­lie­ren kom­men dann monat­li­che Lizenz­kos­ten ins Spiel, die sich nach der Anzahl der Nut­ze­rin­nen und Nut­zer bemes­sen. Und fürs Trai­nie­ren mit eige­nen Unter­neh­mens­da­ten ent­ste­hen wei­te­re Auf­wän­de und Kosten.

So sind die Dro­ge­rie­markt­ket­te dm und Bosch nur jüngs­te Bei­spie­le einer Ent­wick­lung, die die KI in vie­le Unter­neh­men brin­gen dürf­te. Nach einer Gra­fik im News­let­ter „Digi­ta­le Trans­for­ma­ti­on“ von Netz​oeko​nom​.de ist bei 30,2 Pro­zent der deut­schen Indus­trie der Ein­satz von KI Rea­li­tät oder geplant. Bei wei­te­ren 38,7 Pro­zent wird der Ein­satz diskutiert.

dm-Vorstoß wird stark diskutiert

Wie stark die Dis­kus­si­on ist, zei­gen die vie­len Fra­gen und Ant­wor­ten von dm auf ihren Lin­ke­dIn-Bei­trag zu dmGPT: „Effi­zi­enz­ge­winn ist nicht unser Fokus. Viel­mehr möch­ten wir unse­ren Mit­ar­bei­te­rin­nen und Mit­ar­bei­tern das Arbeits­le­ben erleich­tern, sie im Umgang mit neu­en Tech­no­lo­gien befä­hi­gen und die gesam­te Arbeits­ge­mein­schaft in den Umgang mit künst­li­cher Intel­li­genz ein­be­zie­hen“, schrieb dort dm. „Den typi­schen Ein­satz­zweck gibt es (noch) nicht. Alle dür­fen die Anwen­dung nun im Kon­text ihrer Auf­ga­ben aus­pro­bie­ren und her­aus­fin­den, wo der Ein­satz Sinn macht und wo eher nicht.“