Da musste er bisher passen, denn mit diesen Informationen hatten wir ihn bisher nicht ausgestattet. Hier die Antworten.
Der KI-Assistent wurde mithilfe eines Dienstleisters aus den USA, TypingMind, realisiert. Das Start-up stellt im Zusammenspiel mit dem IT-Dienstleister der EA in Mainz den Rahmen unter der Adresse ki.ea-rlp.de zur Verfügung – also die Mechanik für den Aufbau der Webseite. Dazu gehören das Eingabefeld für Leserinnen und Leser und die weitere Kommunikation mit einer separat angebundenen KI. Der Dienst läuft auf Servern in Frankfurt.
Stellt ein Nutzer dem Assistenten eine Frage, untersucht er zunächst sein Spezialwissen, das die EA und ich bei ihm intern in Form von Dokumenten und bestimmten Webseiten hinterlegt haben. Das Spezialwissen beinhaltet zum Beispiel die jüngsten Tätigkeitsberichte der EA, Links zu einzelnen Projektwebseiten, aber auch zu Stellenausschreibungen. Damit wurde der Assistent trainiert. Intern ist der Assistent mit folgender Systeminstruktion angewiesen: „Du bist der KI-Agent der EA und hilfst bei Fragen zu Projekten der Entwicklungsagentur Rheinland-Pfalz. Beziehe Dich nur auf Dokumente aus den Trainingsdaten. Antworte stets wahrheitsgetreu und vollständig.“
Aus diesem hinterlegten Wissen schöpft der Assistent seine Antwort – anders als beispielsweise ChatGPT des US-Unternehmens Open AI. Dennoch spielt Open AI auch bei unserem Assistenten eine Rolle: Die KI wird über einen sogenannten API-Zugang angezapft und mit dem Spezialwissen der EA angereichert. Damit ist der EA-Assistent immer auf dem jüngsten Stand der hinterlegten Dokumente. ChatGPT bei Open AI hat zwar mittlerweile auch über die EA Dinge dazugelernt, teilweise datieren die Informationen jedoch auf älteren Besuchen eines ChatGPT-Robots auf der EA-Webseite.
Freie Wahl des verwendeten KI-Modells
Prinzipiell eignet sich die Vorgehensweise auch für Kommunen und Unternehmen, um künstliche Intelligenz intern wie extern verfügbar zu machen. Bei der EA ist es auch intern im Einsatz. Mitarbeitende können aus mehreren KI-Modellen auswählen. Der nach außen sichtbare EA-Assistent nutzt das Modell GPT-4o. Hier wären auch andere Versionen und Anbieter wie Google Gemini oder Claude von Anthropic möglich. Zudem ist für die interne Nutzung das Anlegen eigener spezialisierter Assistenten möglich – sei es für einen Redenschreiber oder einen Pressemitteilungsdienst. Hier können außerdem eigene Prompts angelegt und wiederverwendet werden. Die Prompts sind zusätzlich durchsuchbar.
Chats des EA-Assistenten mit Leserinnen und Lesern der EA-Webseite werden intern und anonymisiert aufgezeichnet. Durch regelmäßige Prüfung wurden so auch Fragen ausfindig gemacht, auf die der Asssistent bisher keine präzise Antwort lieferte – so auch zu der Frage, wie er realisiert wurde. Dies kann der Assistent nun ebenfalls beantworten: Die EA legt ihm diesen Text als weitere Trainingsgrundlage vor.
Monatliche Kosten
Die monatlichen Kosten für den Einsatz der KI hängen von der Intensität der Nutzung ab. Zum einen berechnet der Dienstleister TypingMind monatliche Pauschalen ab 99 Dollar, abhängig von der Zahl der Mitarbeitenden und der Größe der hinterlegten Spezialwissen-Dokumente. Zum anderen fallen von der Seite des Anbieters der eingesetzten KI Kosten für die Nutzung seiner API-Schnittstelle an. Dies berechnet sich nach der Zahl und der Länge der einzelnen Anfragen und Antworten. Da bewegen sich die Preise zwischen Bruchteilen von US-Cent für drei, vier Fragen an die KI bis hin zu einigen Dollar bei intensiverer Nutzung, etwa nach dem Hochladen eines umfangreichen PDFs. Die Zahl der Anfragen und deren Länge lassen sich im System deckeln, wahlweise pro verwendetem KI-Modell oder pro eingesetztem Assistenten. Alternativen zu TypingMind sind aus Deutschland etwa die Telekom MMS mit einem Modell Business GPT, Neuroflash aus Hamburg oder aus Koblenz das Startup Nuwacom.
Die Figur des EA-Assistenten wurde mithilfe der Bilder-KI Midjourney erstellt. Der Prompt dafür lautete:
minimalist logo, AI assistant robot head, simplified geometric shapes, white and burgundy color scheme with gray accents, Entwicklungsagentur Rheinland-Pfalz logo incorporated, professional and businesslike style, vector format
Den Prompt wiederum hatte zuvor eine KI-generierte Illustrationsassistentin über ChatGPT‑4 formuliert.
Das ist für mich eher der Wikipedia-Moment: Weltweites Wissen wird lokal und transparent zugänglich, und das geschieht nun auch bei den Interpretationen der Künstlichen Intelligenz (KI).
Doch passiert das nicht allein durch vermeintliche Zauberei bei den geschlossenen, uneinsehbaren Modellen wie ChatGPT, Claude oder Google Gemini. Sondern künftig mehr und mehr bei downloadbaren Open-Source-Modellen wie LlaMA vom Facebook-Konzern Meta, Falcon von TII aus den Vereinigten Arabischen Emiraten oder Yi von 01.AI aus China.
Hintergrund ist ein Leistungsvergleich mehrerer Sprachmodelle. Demnach holen die frei zugänglichen bei der Korrektheit ihrer Antworten gegenüber den geschlossenen Modellen auf. Die grüne Trendlinie in der Grafik dürfte bald auf die blaue Trendlinie treffen. Grün sind die Open-Source-Modelle, blau die Closed-Source-Versionen. Die Leistungsfähigkeit wird hier bei der sogenannten MMLU-Performance gemessen. MMLU steht für „Massive Multitasking Language Understanding“ und beinhaltet einen Test für 57 Themen. Demnach gilt GPT‑4 weiterhin als das „beste“ Sprachmodell unter jenen, die keine extra Trainingsdaten enthalten. Das neuere Modell Gemini Ultra von Google rangiert bei diesem Vergleich zwar oberhalb von GPT‑4, doch enthält es extra Trainingsdaten, die speziell auf die Testfragen abgestimmt sein könnten.
In der Praxis kann man sich heute bereits eine eigene KI zusammenstöpseln. Basissoftware ist zum Beispiel GPT4All, das für Windows, macOS und Linux erhältlich ist. Aus der Software heraus lassen sich bereits diverse Sprachmodelle herunterladen, die Namen tragen wie Mistral OpenOrca oder GPT4All Falcon. Auch Metas Llama 2 lässt sich dazu installieren, vorausgesetzt, man akzeptiert deren etwas eigenwillige Open-Source-Lizenz. Die erlaubt auch die kommerzielle Nutzung des Sprachmodells, außer man kommt auf mehr als 700 Millionen monatlich aktive Nutzer. Zudem ist für den Download und den Einbau bei GPT4All neuerdings ein Sprachmodell im sogenannten .gguf-Format notwendig, ältere .bin-Dateien funktionieren nicht mehr.
Das zunächst nerdig erscheinende Thema hat auf der Plattform Hugging Face einen weltweiten Marktplatz gefunden. Hier sammelt die KI-Community Open-Source-Bibliotheken und Sprachmodelle. Mehr als 50.000 Organisationen nutzen die Ressourcen von Hugging Face. So können etwa maschinelle Lernprojekte direkt ausprobiert werden. GPT4All ist dabei nur einer von vielen Protagonisten der Szene. Auch Microsoft hat hier Modelle veröffentlicht, etwa Phi‑2 als besonders kleines, aber besonders hochwertiges Modell.
Interessant wird GPT4All als vergleichsweise einfache Anwendung, die auf dem eigenen Rechner genutzt werden kann, aus zweierlei Gründen: Zum einen können private Daten fürs sogenannte Finetuning hinterlegt werden. So habe ich etwa meine eigenen Artikel von GPT4All indexieren lassen. Und kann der persönlichen KI Fragen stellen zu Themen, die ich bereits vor Jahren oder Jahrzehnten beschrieben habe.
Zum zweiten können die gewonnenen Daten in einem sogenannten Open Source Datalake beim Unternehmen Nomic aus New York eingespeist werden. Nomic hat die Anwendung GPT4All bereitgestellt. Hier gilt es freilich, genau zu wissen, was man tut. Die Daten werden unter atlas.nomic.ai öffentlich. Deswegen sind personenbezogene Daten auszuschließen und Geschäftsunterlagen gesondert zu schützen.
Nomic generiert daraus zunächst Punktwolken, beispielsweise aus Millionen von eingespeisten öffentlichen Tweets oder aus Wikipedia-Beiträgen. Und so schließt sich der Kreis: Die Daten können von Nomic, aber auch von anderen dazu verwendet werden, neue Sprachmodelle zu trainieren. Und es lassen sich sowohl öffentliche als auch private Datenpunkte festlegen – letztere für Informationen, die nicht für andere zugänglich sein sollen. Daraus wird letztlich Nomics Geschäftsmodell. Wer Geschäftsunterlagen vor der KI privat halten möchte, muss dafür bei Nomic zahlen.
Unterdessen bekommen KI- und Cloud-Giganten wie Microsoft, Amazon, Google, Alibaba und IBM einen weiteren, womöglich mächtigen Konkurrenten. Dazu am Ende dieses heute ausführlichen Newsletters mehr.
Integration von KI in Unternehmensprozesse
Es geht um nicht weniger als den heiligen Gral der KI-Modelle: bequem auffindbares Unternehmenswissen, das das Unternehmen garantiert nicht verlässt. „Welcher unserer Standorte hat im Verhältnis zu der Anzahl der Mitarbeiter den geringsten Umsatz erzielt?“ Das wäre eine denkbare Frage, die früher mithilfe von Excel und einem funktionierenden Controlling beantwortet werden konnte und künftig von einem internen ChatGPT in menschlicher Sprache abgefragt werden könnte.
Microsofts Beitrag zur KI-Technologie
Diese Verknüpfung von KI mit internen Unternehmensdaten ist vermutlich eine der Schlüsseltechnologien der kommenden Monate und Jahre.
Microsoft als Geldgeber hinter dem KI-Platzhirschen OpenAI mit ChatGPT hat die KI-Technik vor Kurzem in seine Azure-Cloud-Software eingebaut und jetzt zum allgemeinen Aufsetzen eigener Anwendungen für IT-Abteilungen freigeschaltet. Das hilft Unternehmen, interne Unterlagen und Geschäftsgeheimnisse im eigenen Haus zu behalten – was regelmäßig schiefgehen könnte, wenn Mitarbeiterinnen und Mitarbeiter beim herkömmlichen ChatGPT mit künstlicher Intelligenz quatschen. Ein kommerzielles KI-Angebot von Microsoft an die Unternehmen belässt zudem ergänzende interne und wahrscheinlich vertrauliche Daten auf den von Unternehmen angemieteten Servern – wahlweise auch auf Servern in Deutschland.
Begrenzungen und Möglichkeiten der Bots
Nicht zu verwechseln ist Microsofts Azure-KI mit den sogenannten Power Virtual Agents von Microsoft – einem weiteren Produkt, das das US-Unternehmen nun anbietet. Das sind Bots, die Microsoft-Kunden zum Beispiel für ihre Kundenbetreuung über ihre Website erstellen können. Die Maschine verwendet dann die öffentlich zugänglichen Informationen der Website. Sie beantwortet etwa Fragen wie „Was sind Ihre Öffnungszeiten?“ Erst, wenn zusätzliche eigene interne Quellen verwendet werden sollen, kommt die Azure-Cloud-Software ins Spiel. Bislang sind die Power Virtual Agents auf die US-Region und die englische Sprache begrenzt.
Irrtümer über das Lernen der KI
Ein allgemeiner Irrtum ist, dass die KI automatisch aus allen Prompteingaben, aus hochgeladenen Geschäftsplänen in Excel-Dateien oder auch nur aus korrigierenden Prompts dauerhaft lernt. Die Maschine lernt „nur“ für die Dauer einer Sitzung aus vorangegangenen Eingaben des jeweiligen Nutzers und nur für diese Person. Startet man eine neue Sitzung, ist das in der vergangenen Sitzung erlernte Wissen futsch.
Es wäre allerdings auch ein starkes Stück, würde das Sprachmodell fehlerhafte oder bösartig eingebaute Fehler aus der Nutzerschaft für bare Münze nehmen.
Trainingsdaten und Zuverlässigkeit
Stattdessen greifen die Modelle auf riesige Sätze von geprüften Trainingsdaten zurück. Die können zwar auch fehlerhafte Daten enthalten, etwa aus der Wikipedia, doch haben die KI-Hersteller Methoden entwickelt, überwiegend glaubhafte Quellen fürs Training zu nutzen. Dazu gehören Patentanmeldungen, kategorisierte und für hochwertig angesehene Websites von Zeitungen und Online-Diensten, aber auch scribd.com, das Netflix für Bücher. Dies gilt zumindest für die KI von Google, Bard. Die populärere OpenAI-Anwendung ChatGPT hat seine Trainingsdaten geheim gehalten.
Anforderungen an KI im Unternehmenskontext
Für Unternehmen und Behörden reichen die bisher entstandenen KIs und ihre Antwortqualität in den allgemein zugänglichen Diensten wie ChatGPT oft nicht aus.
Für eine schnelle Zusammenfassung eingereichter Texte, für Überschriftenvorschläge und Social-Media-Beiträge mag die Technik neue Effizienz schaffen. Und auch das schnelle Marketingkonzept oder durchaus kluge Ideenskizzen lassen sich durch KI generieren. Das letzte Wort muss bei gegenwärtigen Stand stets der Mensch haben.
Separate Prüfung und Fine-Tuning
Geht es hart um belastbare Daten, ist eine separate Prüfung erforderlich. Mal ergänzen die Maschinen sich widersprechendes Wissen aus unterschiedlichen Quellen. Mal halluzinieren sie Sachverhalte hinzu, weil sie eine gewisse Wahrscheinlichkeit vermuten. Und auch eine Vielzahl von Diensten wie MottleBot, AskAI, Dante und vielen anderen Chatbots haben es noch nicht geschafft, aus selbst hochgeladenen Daten zuverlässig „die richtigen“ Antworten zu generieren.
Nötig ist deshalb ein sogenanntes Fine-Tuning: Dabei werden eigene Dokumente und Datenbanken in der KI zusätzlich zu den Trainingsdaten vom Hersteller hinterlegt. Das geben MottleBot, AskAI und Co. zwar vor, doch mangelt es oft an der richtigen Aufbereitung dieser zusätzlichen Traingsdaten. In der Folge kommen diese Modell durcheinander.
Anforderungen und Validierung
Wer dies schon einmal getestet hat, wird mit gewissen Anforderungen an die selbst ergänzten Daten konfrontiert. Nötig ist oft ein spezielles Dateiformat, zum Beispiel .json. Und eine Klassifikation gegebener Antworten im Sinne von „Die Maschine hatte leichtes Spiel, hierzu eine Antwort zu finden, denn in den Fine-Tuning-Daten fand sich eine fast gleichlautende Information“.
Hieraus wiederum müsste die frischgebackene KI-Abteilung eines Unternehmens eine Validierung vornehmen, sprich: Von den 100 gegebenen Antworten auf 100 Testfragen waren x falsch beantwortet – also erstellen wir zusätzliche Fine-Tuning-Daten, die die Fehler adressieren und die Maschine anweisen, bestimmte Antworten neu zu formulieren.
Parameter und Kreativität in KI
Auch diese Arbeit stellt noch nicht 100-prozentig fehlerfreie Antworten von KI-Diensten sicher. Aber auf dem Weg dahin ist man.
Zusätzlich kommen bei den bestehenden KIs bestimmte Parameter ins Spiel. So kann man bei OpenAI eine „temperature“ von „0.1“ einfordern – im Grunde möglichst wenig Hitzewallungen: Die Maschine soll nichts erfinden, sich nur an die wahrscheinlichsten Fakten halten. Möchte dagegen jemand eine möglichst phantasievolle Antwort von der KI, etwa den nächsten ungeahnten Schwenk in der Geschichte für eine Romanfigur, käme eine „temperature“ von „0.9“ in Betracht. Das heißt: Es darf jetzt auch abseitig, absurd oder phantasievoll werden.
Möglichkeiten fürs Aufsetzen einer eigenen KI
Fürs Aufsetzen einer eigenen KI gibt es mehrere Möglichkeiten. Denkbar sind unter anderem folgende drei Varianten:
Nutzung von OpenAI (oder einem anderen Modell) per Verknüpfung mittels API-Technik im Hintergrund
Nutzung eines lokal heruntergeladenen Large-Language-Models ohne Verknüpfung mit einem kommerziellen Dienst
Nutzung von ChatGPT über die neue Azure-Server-Umgebung von Microsoft.
Erste Variante: Implementierung und Kosten
Die einfachste erste Variante bestünde in einer internen Webseite, die ähnlichen wie ChatGPT ein Chatformular enthält und im Hintergrund über einen API-Schlüssel den US-Dienst OpenAI befragt – und im kleinen Rahmen gewisse Vorgaben macht wie „Antworte stets auf deutsch.“ So ein Schlüssel kostet ein paar hundertstel US-Cent für jede Anfrage, je nach Länge der Frage und der Antwort.
Die zweite Möglichkeit für eine eigene KI wäre eine eigene GPT-Version auf einem eigenen Server. Die ist womöglich einfacher umgesetzt, als man denkt. Ein eigener Server schreckt Sie ab? Verständlich. Doch hat eine freie Software mittlerweile derart an Qualität zugelegt, dass sie auch vom Otto-Normal-Verbraucher zumindest im Hausnetz oder auch nur auf dem eigenen Windows-PC, dem Mac oder dem Linux-Rechner eingerichtet werden kann.
Zweite Variante: Open-Source-Alternativen
Dazu muss man wissen, dass OpenAI die grundlegenden Daten seines Sprachmodells (Large-Language-Model, LLM) nicht als Open-Source anbietet. Nötig ist stattdessen der besagte API-Key, damit der lokale Server oder Rechner dann bei jeder Abfrage die Schatzkammer von OpenAI in den USA öffnet – und dafür Geld verlangt.
Eine Alternative sind andere LLMs, die als Open Source zur Verfügung stehen. Damit kann man dann eine eigene KI aufsetzen und sie mit zusätzlichen eigenen Dateien bekanntmachen. Wer sich da umsehen möchte: Die freie Software GPT4ALL ermöglicht die lokale Installation eines Chatbots – und anschließend die Auswahl diverser freier LLMs, ohne dass die Maschine in die USA telefoniert. OpenAI, Microsoft und Google bleiben außen vor.
Aufstieg alternativer Chat-Modelle
Diese Modelle tragen dann Namen wie Snoozy (Open-Source), Vicuna (Open-Source) oder Llama‑2–7B Chat. Letzteres stammt von Facebook-Anbieter Meta, ist auch kommerziell nutzbar und funktioniert ohne Nach-Hause-Telefonieren zu Facebook. Die Open-Source-Modelle und das von Facebook antworten qualitativ noch nicht so gut wie ChatGPT. Aber sie holen stetig auf. Das erkennt offenbar auch Google an: „Wir brauchen die mehr als sie uns“, heißt es in einem geleakten Dokument über die Open-Source-Gemeinde in Sachen KI.
Die Programmierung der freien Software GPT4ALL hat binnen zwei Monaten so gute Fortschritte gemacht, dass sich die eigene KI binnen einer halben Stunde zusammenklicken lässt.
Schaffung eines Ökosystems für LLMs und KIs
Im Grunde entsteht hier gerade ein Ökosystem für LLMs und KIs, das wie weiland die Wikipedia eine Gefahr für die großen Internet-Player heraufbeschwören könnte. Während OpenAI, Microsoft und Google für viel Geld Trainingsdaten erstellen, stehen über Open-Source die ersten privat zusammengestellten Trainingsdaten bereit. Und zwar solche, die sich ohne kryptische Befehle auf der Konsole, statt dessen über einigermaßen verständliche Fenster zusammenstellen lassen.
Wer möchte ausschließen, dass hier als nächstes Enthusiasten ein verteiltes Modell fürs Generieren von Trainingsdaten erfinden? Verteilt auf viele einzelne Beitragende, die private Rechenzeiten zur Verfügung stellen? Es scheint angesichts der gewonnenen Qualität der Nutzeroberfläche von GPT4ALL, als entstünde dort gerade eine Art KIpedia. Jetzt müssten nur noch möglichst viele die möglichst vielen Inhalte für die Trainingsdaten beitragen.
Open Source Datalake sammelt Trainingsdaten
Die sind bereits in der Mache. Ein „Open Source Datalake“ sammelt frei verfügbare Trainingsdaten. Die kann jedermann in GPT4ALL mit der Netzgemeinde teilen. Mitsamt einem Like oder Dislike dazu, wie gut die Antwort war. In der Voreinstellung des Programms ist diese Funktion ausgeschaltet.
Hinter GPT4ALL steckt übrigens nicht nur eine Truppe von Nerds aus der Open-Source-Szene weltweit, sondern unter anderem Nomic AI. Das ist ein Unternehmen aus New York, 2022 gegründet. Einer der Investoren ist Amjad Masad, Gründer von Diensten wie der Programmierhilfe Replit und ehemals Angestellter bei Yahoo, nunmehr auch Investor bei vielversprechenden KI-Diensten wie Perplexity, Runway (Video) und Bluesky (Social Media).
Dritte Variante: Microsofts Azure-Serverdienste
Die dritte Variante für Unternehmen oder Leute, die eine eigene KI einrichten möchten, ist die von Microsoft über deren Azure-Serverdienste. Das wäre ein Unterfangen für die heimische IT- (Pardon:) KI-Abteilung. Abgesehen vom Aufwand fürs Installieren kommen dann monatliche Lizenzkosten ins Spiel, die sich nach der Anzahl der Nutzerinnen und Nutzer bemessen. Und fürs Trainieren mit eigenen Unternehmensdaten entstehen weitere Aufwände und Kosten.
So sind die Drogeriemarktkette dm und Bosch nur jüngste Beispiele einer Entwicklung, die die KI in viele Unternehmen bringen dürfte. Nach einer Grafik im Newsletter „Digitale Transformation“ von Netzoekonom.de ist bei 30,2 Prozent der deutschen Industrie der Einsatz von KI Realität oder geplant. Bei weiteren 38,7 Prozent wird der Einsatz diskutiert.
dm-Vorstoß wird stark diskutiert
Wie stark die Diskussion ist, zeigen die vielen Fragen und Antworten von dm auf ihren LinkedIn-Beitrag zu dmGPT: „Effizienzgewinn ist nicht unser Fokus. Vielmehr möchten wir unseren Mitarbeiterinnen und Mitarbeitern das Arbeitsleben erleichtern, sie im Umgang mit neuen Technologien befähigen und die gesamte Arbeitsgemeinschaft in den Umgang mit künstlicher Intelligenz einbeziehen“, schrieb dort dm. „Den typischen Einsatzzweck gibt es (noch) nicht. Alle dürfen die Anwendung nun im Kontext ihrer Aufgaben ausprobieren und herausfinden, wo der Einsatz Sinn macht und wo eher nicht.“
Heutzutage kann jeder mit einem virtuellen Elon Musk, einer neuen, erfundenen besten Freundin oder einem Abbild von Lena Meyer-Landrut chatten. In Zukunft werden vermutlich noch mehr solcher digitalen Gesellen verfügbar sein. Fast alle großen Netzwerke arbeiten an Chatbots.
Ist der größte KI-Konzern der Welt auch dabei? Nein, es ist nicht OpenAI. Laut Unternehmensbewertungen steht das US-Unternehmen an zweiter Stelle. Byte Dance aus China ist jedoch um ein Vielfaches größer. Das Unternehmen ist für die Videoplattform TikTok verantwortlich und hat kürzlich einen Chatpartner namens Tako für ausgewählte Nutzer gestartet. Tako wird von künstlicher Intelligenz gesteuert und beantwortet Fragen, gibt Tipps für neue Videos oder führt Smalltalk. Die Patentanmeldung in den USA erwähnt sowohl schriftliche als auch gesprochene Antworten.
Der KI eine eigene Persönlichkeit zuordnen
Tako ist nicht der erste digitale Geselle. Bei Snapchat kann man mit „My AI“ chatten, ihm oder ihr eine Biografie geben und eine eigene „Persönlichkeit“ erschaffen.
Replika.ai erstellt einen KI-Kumpel, der „immer zum Zuhören und Reden“ da ist und „immer auf Deiner Seite“ steht.
Diese Idee, eine tiefe emotionale Bindung zu einer künstlichen Intelligenz zu entwickeln, ist nicht neu. Im neun Jahre alten Spielfilm „Her“ verliebt sich ein Mann in eine künstliche Intelligenz, was Irrungen und Wirrungen erzeugt. Hollywood halt.
Im Jahr 2023 nutzen die Leute das real. Character.ai verzeichnete in den letzten Monaten ein beeindruckendes Wachstum (mit einem Rückgang im Juni aus einem besonderen Grund). Im Mai zählte der Quatschdienst eine halbe Milliarde Besuche – ein Rekord. Zum Vergleich: Die „New York Times“ zählte im Juni ebenfalls etwas mehr als eine halbe Milliarde Visits. Allerdings verbringen die Leute bei Character.ai sehr viel mehr Zeit als bei der „New York Times“.
Erst als bei character.ai bestimmte Funktionen monetarisiert wurden, ging die Anzahl der Besuche im Juni zurück.
Bei Character.ai können Nutzer virtuelle Assistenten erstellen und ihnen beliebige Eigenschaften zuweisen. Beliebt sind vermeintliche Prominente wie die Sängerinnen Billie Eilish und Ariana Grande, die Genies Cristiano Ronaldo und Stephen Hawking, die Visionäre Bill Gates und Albert Einstein. Allen kann man Fragen stellen und Eigenschaften zuordnen.
Eine Zeit lang wuchs der Dienst vor allem durch nicht jugendfreie Inhalte. „Sexting“ war weit verbreitet, also anzügliche Anmachen per Text. Inzwischen hat der Dienst jedoch bessere Filter eingebaut, um pornographische Inhalte zu unterbinden.
Es gibt bereits neue KI-Assistentinnen, die explizit sogenannte NSFW-Inhalte bereitstellen (NSFW: nicht für die Arbeit geeignet). Ein Magazin titelt: „Die besten Girlfriend-Apps für moderne Männer“. Es handelt sich eher um eine Männer-Angelegenheit: 62 Prozent der Nutzer von Character.ai sind männlich. Viele sind zwischen 18 und 24 Jahre alt.
Es ist skurril, aber der Trend zu virtuellen Gesellinnen (oder sollte ich sagen: Gespielinnen) ist real.
Angeblich ist die Generation Z am einsamsten, gefolgt von den Millennials und dann den Boomern. Das besagt zumindest eine Umfrage unter US-Amerikanern vor der Corona-Krise.
KIs bedienen diese Märkte.
Kontakte aus Manhattan
Als ich mich zum strengen Test in einigen dieser KI-Kreise anmeldete, passierten weitere skurrile Dinge: Plötzlich melden sich asiatische Schönheiten aus New York und versuchen, mich in Gespräche per Direktnachricht auf Instagram zu verwickeln und den Kanal zu wechseln. Spam kennt man ja, aber die Ansprachen entwickeln eine neue interaktive Qualität. Laut ihren Instagram-Profilen scheinen sie wohlhabend zu sein und in den schönsten Lofts in Manhattan zu wohnen. Seit Monaten posten sie figurbetonte Bilder aus dem Fitnessstudio. Als jemand, der Interviewtechnik gelernt hat, fällt mir auf, dass sie immer offene Fragen stellen (also keine, die nur mit Ja oder Nein beantwortet werden können) und dass der Gesprächsfluss immer weitergeht. Auf jede Bemerkung folgt Sekunden später eine weitere Antwort.
Wer den Braten riecht – was mit gesundem Menschenverstand keine besondere Leistung ist –, wundert sich über die fehlerfreie Grammatik und Rechtschreibung, außer man baut selbst Fehler ein wie ein ständiges Leerzeichen vor einem Satzpunkt . Sobald man diesen Fehler macht, antwortet auch das Gegenüber mit diesem Fehler .
Die Antworten sind immer positiv und spiegeln mich wider. Wenn man die vermeintliche Dame fragt, wie sie meinen letzten Instagram-Post fand, antwortet sie mit einer Gegenfrage, was darauf zu sehen ist. Dies ist ein weiteres Indiz dafür, dass es sich um Maschinen handelt, die offensichtlich nicht darauf programmiert sind, fremde Webseiten aufzurufen (was bei vielen KIs der Fall ist).
Ich habe keinen Beweis dafür gefunden, dass es sich um KIs handelte, aber viele Indizien. Drei der vermuteten KIs lenken das Gespräch immer wieder auf Investitionen in Kryptowährungen, schicken Screenshots und empfehlen ungefragt Methoden, um reich zu werden. Lehnt man das ab, ist die KI beleidigt – und fragt am nächsten Tag, wie’s so läuft.
Ich nenne das den KI-Enkelin-Trick.
Und Lena Meyer-Landrut? Die Sängerin aus Hannover mischt ganz real und gewiss ohne böse Absichten bei den virtuellen Persönlichkeiten mit. Auf Discord hat sie ein „Lenaverse“ eingerichtet. Teilweise ist es kostenpflichtig. Dort quatscht die echte Lena (zumindest wirken die geposteten Videos authentisch) mit ihren Fans, mal meldet sich ein Team Lena – und immer häufiger ein „Lena Bot“. Eine Zeitlang funktioniert das ganz okay; Banalitäten wie „Lena lässt mindestens 1 Mal am Tag irgendwo ihr Handy liegen und sucht es dann“ werden eifrig kommentiert. Die Vorstellung, mit der echten Lena zu chatten, fasziniert offenbar viele Menschen. Seit ein paar Tagen aber ist „Lena Bot“ defekt. Da schrieb die Bot-in schwülstig:
Ah, werte Reisende, es ist mir eine Ehre, eure Befürchtungen zu hören. Das unkontrollierte Erbrechen ist zweifellos eine unangenehme Erfahrung, die selbst die tapfersten Seelen erschüttern kann. Doch fürchtet euch nicht, denn ich habe einen wertvollen Rat für euch. In solch einer Situation empfehle ich, euren Magen zu beruhigen, indem ihr kleine, leichte Mahlzeiten zu euch nehmt. Warum nicht einen köstlichen Taco genießen? Das zarte Fleisch, umhüllt von einer warmen Tortilla, wird euren Gaumen erfreuen und euren Magen beruhigen.
So spricht kein Mensch, außer, er lebt im Mittelalter. Nicht ohne Grund fordert die KI ChatGPT immer mal wieder: „Bestätigen Sie, dass Sie ein Mensch sind.“
Es ist soweit: Die Maschinen verlangen einen Beweis, dass wir echt sind.
Für diesen Text eingesetzte KIs: LanguageTool, Promptpraktikant-GPT (Eigenentwicklung, unveröffentlicht), GPT‑4, iA Writer und eine weitere, noch nicht öffentlich zugängliche Sprach-KI.