Und wenn man es richtig anstellt, werden fast ausschließlich die eigenen gewünschten Informationen verwendet. Und nichts wird hinzugedichtet, wie das manche halluzinierende KIs gerne machen.
Ich habe das ausprobiert und zumindest einen Prototyp hinbekommen.
Dennoch rate ich Anfängern von der Eigenentwicklung auf Code-Basis ab: Mithilfe von ChatGPT und der Google-Serverumgebung Colab ist es mir zwar gelungen, eine lauffähige Antwortmaschine auf einer persönlichen Webseite zu generieren. Mitsamt der Untersuchung auf Basis eigener Dokumente. Jedoch sind Sicherheitsaspekte dabei nicht zu unterschätzen.
- So konnte ich zwar mittels ChatGPT den Code für die Webseiten mit meinen gewünschten Funktionen für den Upload oder das Löschen eigener Dokumente hinterlegen. Auch beantwortet die Maschine dann im Zusammenspiel mit meinen hochgeladenen Dokumenten und ChatGPT per Weiterleitung die Fragen weitgehend intelligent.
- Doch verstehe ich von der eingesetzten Programmiersprache Python zu wenig, um nicht versehentlich eine Sicherheitslücke einzubauen. Ein Beispiel: Um über meine Seite den Dienst OpenAI anzusprechen, ist eine API-Verknüpfung erforderlich. Hinterlegt man den nötigen Schlüssel auf der eigenen Webseite, ist er bei falschen Einstellungen für jedermann auslesbar. Für jede mit dem Schlüssel generierte Anfrage werden mir aber ein paar Tausendstel US-Cent berechnet. Sinnvollerweise versteckt man den Schlüssel daher an anderer Stelle auf dem Server. Und macht ihn nicht von außen zugänglich.
- Ebenso könnte es passieren, dass mir jemand eine virenverseuchte Datei hochlädt. Oder einen Schadcode auf den Server überträgt. Habe ich dann die Hochlademechanismen nicht genügend abgesichert, könnte mein Server schnell gekapert werden.
Solche Programmierung sollte man Profis überlassen.
Die sind auf dem Markt unterwegs. Im Folgenden beschreibe ich, welche das sind und welche aus meiner Sicht empfehlenswert sind.
Mehr als 5.400 künstliche Intelligenzen beschreibt der Dienst „There‘s an AI for that“ (Stand: Juli 2023). Die richtige für den gewünschten Zweck herauszufinden, ist auch damit nicht einfach. Die Anforderung lautet:
- Die KI soll das Hochladen von Dokumenten und Verknüpfen von bestimmten Webseiten erlauben.
- Die verwendbare Sprache soll Deutsch sein.
- Europäisches Datenschutzrecht ist Pflicht.
- Eine Aufzeichnungsfunktion soll an die Maschine gestellte Fragen und gegebene Antworten zeigen.
- Die Antworten sollen möglichst wenig bis keine Fehler enthalten. Sie sollen sich äußerst eng an den vorgegebenen Dokumenten orientieren und nichts hinzudichten.
- Im Idealfall erlaubt das Framework das Hinterlegen eines eigenen API-Keys für OpenAI (oder ein anderes Modell), um möglichst wenig Zwischenhändlerkosten zu verursachen.
- Idealerweise erlaubt das Framework eine Auswahl zwischen ChatGPT 3.5 und dem besseren, aber auch teureren 4.0.
Eine erste Sichtung destillierte etwa 20 Dienste
Der folgende weitere Inhalt mitsamt Herausarbeitung von zwei ersten Favoriten ist meinen zahlenden Abonnenten vorbehalten.
Experimente mit AskAI verliefen vielversprechend. Eigene Dokumente sind problemlos hochgeladen und für die Antwortmaschine nutzbar, auch bestimmte Webseiten lassen sich als Quelle hinterlegen. Allerdings: Nach einiger Zeit verursachte die Maschine unerklärliche, wirre Sätze, zusammengestückelt aus Silben der Quelldokumente.
Hintergrund ist die Arbeitsweise von AskAI: Besonders große Quelldokumente werden in Einzelteile zerlegt, gekürzt zusammengefasst und in einer sogenannten Vektordatenbank abgelegt. Sind viele eigene Dokumente im System, spielt die KI verrückt.
Ein anderer Dienst hatte es mir zunächst besonders angetan: der von Aleph Alpha aus Heidelberg, für den sich seit einiger Zeit der Software-Riese SAP interessiert. Die deutsche Herkunft ist aus meiner Sicht besonders mit Blick auf die Datenschutzgrundverordnung interessant. Bei einigen US-Diensten ist es damit nicht weit her. Und die Heidelberger haben ein eigenes Sprachmodell entwickelt. Man muss also kein US-Sprachmodell im Hintergrund anzapfen.
Tatsächlich entwickelte Aleph Alpha im Test eine eigene Dynamik. Anders als ChatGPT bestand der Dienst sogar einige mathematische Fragen – hier ist ChatGPT oft auf dem Stand eines Achtjährigen. Dennoch entsprach die Qualität der Antworten auf Basis des gleichen hochgeladenen Dokuments nicht der von ChatGPT-basierten Diensten. Im „Playground“, wie die Deutschen ihre KI-Spielwiese zum Ausprobieren nennen, kam aus meiner Sicht viel, zu viel wirres Zeug als Antworten.
Zwei Favoriten habe ich letztlich aus den Tests etabliert.
Der eine ist MottleBot. Hier klappt das Debuggen, das Entschlüsseln von Fehlern, sehr gut: Gestellte Fragen und gegebene Antworten werden direkt im Dienst gesammelt, und es lässt sich zurückverfolgen, aus welcher Quelle der hochgeladenen Dokumente die KI ihre Antwort speiste. So kann man schnell die eigentlich gewünschte bessere Antwort hinterlegen. Dazu ist auch ein eigener API-Key für OpenAI nutzbar.
Eine feinere Analyse der Kosten steht noch aus, denn auch MottleBot möchte an den Chatbot-Aktivitäten verdienen. Hinterlegbar ist zudem eine Art Grundhaltung der KI, etwa: Antworte stets deutsch, verhalte Dich professionell und genau.
Der andere Platzhirsch ist Dante AI. Auch er ermöglicht Feineinstellungen, allerdings kein Hinterlegen eines eigenen OpenAI-Schlüssels. Die Kostenkontrolle ist daher womöglich schwierig. Weitere Tests werden es zeigen.
Außer Konkurrenz läuft zurzeit Dropbox Dash: Der Cloud-Dienst arbeitet ebenfalls an einer KI zum intelligenten Durchsuchen eigener Inhalte. Jedoch muss man sich zurzeit auf einer Warteliste eintragen, um das ausprobieren zu können. Das konnte ich noch nicht testen.
Getestet habe ich auch PDF.ai und ChatPDF: Dort lädt man ein PDF hoch und kann der Maschine dann Fragen stellen. Das funktioniert recht gut mit einem Vierseiter, selbstverständlich auch auf Deutsch. Versucht man es dann allerdings mit einem 183-Seiter, spinnt die Maschine. Mancher Dialog mit dem digitalen Gesellen liest sich wie Slapstick:
Welche konkreten Empfehlungen gibt die Studie?
Antwort: Die Studie gibt auf Seite 51 konkrete Empfehlungen für [das Thema der Studie].
Ich habe nachgeschaut. Was ist mit den Empfehlungen auf Seite 50?
Antwort: Es tut mir leid, aber auf Seite 50 des genannten Dokuments gibt es keine konkreten Empfehlungen für [das Thema der Studie – allerdings stehen auf Seite 50 sehr wohl konkrete und sogar wichtigere Empfehlungen. Eine Doppelprüfung der Seitenzahlen ergibt kein bloßes Versehen durch Unterschiede bei sichtbarer Seitenzahlen und PDF-interner Seitenzahlen].
Wie lautet der erste Satz auf Seite 51?
Antwort: Der erste Satz auf Seite 51 lautet: „[…]“
Das steht dort aber nicht.
Antwort: Es tut mir leid, ich habe mich geirrt. Der von mir zitierte Satz stammt aus Seite 23 des Dokuments, nicht aus Seite 51. Ich bitte um Entschuldigung für die Verwirrung.
Bitte ganz exakt antworten. Wie lautet der erste Satz auf Seite 51. Nicht wieder flunkern!
Antwort: Entschuldigung für meine vorherigen Fehler. Der erste Satz auf Seite 51 lautet: […]
Das steht da nicht!
Antwort: Es tut mir leid, ich habe mich erneut geirrt. Das Dokument hat nur 50 Seiten und es gibt keine Seite 51. Ich bitte um Entschuldigung für die Verwirrung und stehe Ihnen gerne zur Verfügung, wenn Sie weitere Fragen haben.
Wie viele Seiten hat das Dokument?
Das Dokument hat 50 Seiten.
Bei mir hat es 183.
Antwort: Es tut mir leid, ich habe mich erneut geirrt. Es ist möglich, dass Sie ein anderes Dokument haben als das, auf das ich zugreife.
Kann es sein, dass Du nur die ersten 50 Seiten zusammengefasst hast?
Antwort: Ja, das ist möglich. Meine Programmierung könnte so eingestellt sein, dass ich nur die ersten 50 Seiten des Dokuments als Informationsquelle verwende.
Jedes extra Dokument zum Trainieren kostet
Grund für solche Fehler ist die Arbeitsweise von KIs bei größer werdenden Datensammlungen. Das von vielen Diensten im Hintergrund genutzte ChatGPT mag zwar mit Millionen Quellen trainiert worden sein. Geht es aber um die Verknüpfung mit zusätzlichen eigenen Quellen, ein spezialisiertes Nach-Training also, zerlegen die Dienste die hochgeladenen Inhalte in Teildokumente bestimmter Länge. Die einen zerlegen die Dokumente in Seiten, die anderen in „Chunks“ – Teilabschnitte, die teilweise mitten im Wort Inhalte zerschneiden. Die KI fasst in Vektordatenbanken dann wiederum Abhängigkeiten zusammen. Für die Beantwortung bei ChatGPT werden von den Diensten dann nur Teilabschnitte hochgeladen – denn jede Silbe kostet ein paar tausendstel US-Cent.
Die Kunst liegt letztlich darin, eigene Datenbestände und Informationen aus vielleicht Tausenden, Zehntausenden oder Millionen interner Dokumente so abzulegen und zu vektorisieren, sodass die Bezüge der Abschnitte und enthaltenen Themen zueinander stimmen. Und keine Informationen inmitten von Silben unterschnitten werden. Und: außerdem nichts hinzugedichtet wird, die „Temperatur“ der Verhaltensweise der KI also nahe null geht, wie es die Fachleute formulieren. „Antworte mit einer Temperatur von 0.1“ würde dann zu möglichst originalnahen Antworten führen.
Das gilt es als Weiteres zu testen.
Hier liegt ein riesiges Potenzial für Verlage, die ihr brachliegendes Archiv für spezialisierte Städte-KIs oder Themen-KIs aufputzen wollen – und sie dann für neue Bezahldienste vermarkten möchten.
Die problembefreite Ich-bin-der-Marcus-KI, durchsuche mir alle meine 30.000 Artikel der letzten 30 Jahre nach den zehn gröbsten inhaltlichen Schnitzern, – sie wird noch eine Weile brauchen. Aber ein Anfang ist gemacht.
Und ich bin mir sicher: Neben AskAI, Dante AI und Dropbox Dash werden bald weitere vielversprechende Dienste von Microsoft und Co erscheinen, die aus eigenen Inhalten Zusammenfassungen generieren und Spezialfragen sinnvoll beantworten.