Klare Anleitungen: Lernen Sie, wie Sie präzise Prompts formulieren und die KI gezielt steuern.
Fortgeschrittene Techniken: Nutzen Sie Methoden wie Few-Shot-Prompting und den Aufbau einer Prompt-Bibliothek.
Ethik im Fokus: Verstehen Sie die rechtlichen und ethischen Aspekte der KI-Nutzung.
Assistenten und Agenten im Einsatz: Eine Anleitung zum schnellen Erstellen eigener Helferlein für Alltagsarbeiten im Büro.
Ob Einsteiger oder Profi, dieses Buch ist Ihr Schlüssel zu einer erfolgreichen Zusammenarbeit mit KI.
Das PDF mit 157 Seiten gibt es hier und das Taschenbuch sowie das E‑Pub-Format demnächst im Amazon-Shop. Abonnenten meines persönlichen Newsletters erhalten das PDF hier vergünstigt.
Der beste Titel beim Eurovision Song Contest bricht alle Vorschriften. Er holt mehr als die erlaubten sechs Tänzer auf die Bühne, dauert doppelt so lang wie die zulässigen drei Minuten, und abstimmen darf man für ihn nicht. „Made in Switzerland“ singen da Hazel Brugger und Sandra Studer gekonnt im Stil eines Broadway-Musicals, unterstützt von Petra Mede als Armbrustschützin in der Gestalt von Wilhelm Tell. Der Ur-Schweizer hatte in den fünfziger Jahren des 13. Jahrhunderts das Land geeint. Er formte die Vision von einer Welt ohne Spaltung. Die Idee, wenn auch so noch nie erzählt: ein Musikwettbewerb. Die „Eurovision“ war geboren.
Mit viel Witz und Selbstironie besingen und betanzen die Schweizerinnen ihre Errungenschaften. Neben den Schweizer Uhren und der Schokolade rühmen sie sich des Schmelzkäses, des Kartoffelschälers und des Schweizer Taschenmessers. Die E‑Gitarre und das Müsli, das Internet und LSD stammen aus dem Alpenland. Die größte Leistung aber war die von Wilhelm Tell. Man sei so arm gewesen, dass sogar der Käse Löcher hatte. Doch Tell führte die Eidgenossen in eine neue Zeit. Nur 500 Jahre später wurde seine Eurovision Realität, gegründet, na klar, in der Schweiz.
Wäre so ein vergnüglicher Titel in Deutschland möglich?
Drei KIs habe ich daran dichten lassen. NotebookLM besorgte den Songtext aus dem YouTube-Video. ChatGPT o3 definierte die Klischees und Errungenschaften deutscher Dichter, Denker und Tüftler. Vorschläge reichten vom MP3-Musikformat bis zum Pfandflaschenperfektionismus, vom DSGVO-konformen Gesichtspixelfilter bei jeder Nahaufnahme des Song Contests bis zur VAR-Prüfung der gesungenen Tonhöhe mittels Videoschiedsrichtern aus dem Kölner Keller.
Und o3 ersann im dritten Durchlauf daraus einen neuen Text gemünzt auf die Deutschen. Im Metrum der Schweizer Melodie, mit den entsprechenden Verslängen und angepassten Zwischenspiele. Die Maschine erfand folgenden Text.
Gesprochenes Intro (gleiches Tempo, gleiche Taktzahl wie das Original)
In twenty-ten the ESC moved back to Germany after Lena’s little Satellite spun to the stars. And now the trophy circles once again above this land of beer foams and binary code. Hosting Eurovision is the perfect chance to polish clichés till they sparkle—then drop them on the floor. Because what comes to mind when somebody says “Germany”? Only highways with no speed limit, bratwurst bazaars and a schedule that scares the sun? Nein! There is more than lederhosen line-dancing and Oktoberfest selfies. The best inventions were hammered, printed or brewed right here. For example…
Gesungene Liste (Viertelnotentakt)
Instant coffee, pocket recorder, polycarbonate, the humble gummy bear, microchips that do the math while everyone still counts on fingers in the air! So—let’s sing it.
REFRAIN 1 (identische Taktstruktur zum Schweizer Refrain)
Made in Germany, like the printing press and Pils. Made in Germany, like the motorway for thrills. Made in Germany, and when a headache kills, just reach for Aspirin— that’s Made in Germany! The trusty air-bag, cue the crash-test dummy— it’s Made in Germany!
Vers 1 (gleiches Silbenmuster)
Think of punctual trains (okay, the myth still lives), of folders colour-coded, every stamp precisely gives. Yet backstage hums a techno-dream in fractal midnight light; MP3 shrinks heartache down to three oh-three tonight. (whisper) “Three extra seconds—don’t tell the EBU.”
Vorchor (über vier Takte gesprochen)
Behind each DIN-sized paper sheet hides a scientist with glitter on the lab coat.
REFRAIN 2
Made in Germany like the X‑ray’s ghostly gleam. Made in Germany like the zipper on your jeans. Made in Germany—chip-card pays the pyro beam, the safety check is free. LEDs that blind the jury— all Made in Germany!
Story-Interlude (gleiche komödiantische Kadenz wie der Abschnitt „William Tell“)
In the mid-fifteenth century Monks still hoarded scrolls; town criers strained their lungs. A restless goldsmith, Johannes Gutenberg, sighed: “These parchment dumbbells must go—let letters dance!” He cast fresh type, ink kissed the page, rumours found rhythm… Crowds shouted, “Print the score—make music a contest!” He named it ‘Print-Vision’. A typo dropped the P, and suddenly it read Euro-Vision. Historical fact—please don’t google it.
Promi-Cameo-Lauf (acht Takte, passendes Schweizer Tempo)
Angela Merkel struts on, whispers deadpan “Yes, we can measure that.” Albert Einstein raps, “Time dilates when twelve points hesitate.” Till Lindemann hoists a flame—immediately doused by TÜV officers in hi-vis vests. Helene Fischer back-flips with rainbow gummy bears raining down. Dirk Nowitzki slam-dunks an oversize 12 into the green-room basket.
SCHLUSSCHORUS (einen ganzen Ton höher, gleiche Länge)
Made in Germany, from diesel thump to drone, Made in Germany, from Beethoven’s metronome. Made in Germany, the voting system’s chrome—blame spreadsheet wizardry. Raise a Stein, align the beat, Euro-Vision, on repeat— Made… in… Ger-ma-ny-eeeee!
Outro gesprochen (Acht-Beat-Takt)
If any points go missing, chalk it up to Teutonic fine-tuning—never to bad arithmetic.
Da sitzt noch nicht jede Analogie. Nicht alles was hinkt, ist ein Vergleich. Und ob im Detail der Reißverschluss und der Instantkaffee aus Deutschland oder der Schweiz stammen, wissen die Neuseeländer und Amerikaner besser. Der Kaffeefilter von Melitta Bentz könnte besser passen.
Doch ist der KI-Text eine schöne Widerlegung der These, Künstliche Intelligenz könne keine Kreativität, und sie könne nur neu zusammenstellen, womit sie einmal trainiert wurde.
Das Schweizer Lied wurde von Lukas Hobi und Christian Knecht geschrieben, von Pele Loriano, Benji Alasu und Wojciech Kostrzewa arrangiert und von Jon Hallgren, Pele Loriano und Benji Alasu produziert. Über Wochen und Monate haben sie seit Januar mit den drei Sängerinnen, einem Chor und den Tänzern an „Made in Switzerland“ gearbeitet. Da kann eine halbe Stunde KI nicht mithalten.
Aber auf Gutenberg statt Wilhelm Tell, den Reim von Pils auf Autobahn-„Thrills“ und den TÜV-Prüfern am Feuerset der Bühne, da hätte auch menschliche Intelligenz länger drauf herumdenken müssen. Der Schuss Genialität, er bleibt der Schweiz unbenommen und zeugt von harter kreativer Arbeit. Doch die Einschüsse der Maschinen kommen näher. Gutenberg might approve this print-vision, made in Germany.
PS: Im Podcast Tech, KI und Schmetterlinge von Sascha Lobo in Zusammenarbeit mit Schwarz Digital stelle ich ein KI-Tool der Woche vor. Letzte Woche ging’s um ein Werkzeug zum Entlarven von Quatsch im Netz. An diesem Mittwoch voraussichtlich um eine KI, die eine heruntergekommene Junggesellenbude umgestaltet.
PPS: An jedem Monatsersten biete ich ein Seminar für den Einsatz von KI in der Praxis. Die Teilnahme per Zoom-Video kostet 90 Euro.
Novum bei Google: Die „Übersicht mit KI“. (Screenshot: Marcus Schwarze/Google)
„Übersicht mit KI“ heißt eine Rubrik, die Google neuerdings seinen Suchergebnissen voranstellt. Hatte man früher gelernt, fürs Googeln Stichwörter einzutippen, die auf den Trefferseiten vorkommen sollten, kann man nun simple Fragen stellen. „Wie verdient man online Geld?“ Googles „Übersicht mit KI“ erklärt einfache Methoden wie Online-Umfragen, fortgeschrittene Methoden wie Affiliate-Marketing und gibt Beispiele für Plattformen, die man dafür nutzen kann. Erst rechts daneben und darunter folgen Links zu verwendeten Quellen. „Welche Farben und Outfits sehen vor der Kamera gut aus?“ Googles KI empfiehlt neutrale Farben und gedämpfte Töne, etwa Marineblau oder Burgunderrot. „Was ist Gaslighting?“ Die KI erklärt ausführlich die emotionale Manipulation, die andere an ihrem eigenen Verstand zweifeln lässt.
Der Reiz entfällt, auf Links zu klicken
Niemand muss bei solchen Fragen anschließend auf die Links klicken, aus denen Google diese Erkenntnisse speist. Das jahrzehntelang funktionierende Modell der Linklisten, ergänzt durch Werbeanzeigen, wankt. In den USA waren die „AI Overviews“ bereits 2024 eingeführt worden, nach Deutschland kam die „Übersicht mit KI“ Ende März.
Das funktioniert allerdings nur, wenn man mit einem Google-Konto angemeldet ist. Und man muss mindestens 18 Jahre alt sein. Google entscheidet per Algorithmus, wann eine „Übersicht mit KI“ hilfreicher sein könnte als bloße Ergebnislisten. Das geschieht in etwa 4,5 bis 12,5 Prozent aller Suchanfragen. Der genaue Anteil variiert je nach Studie und Thema. Wer die KI ausschalten möchte, kann einen Filter „Web“ setzen. In den Einstellungen des Google-Kontos kann die Funktion auch dauerhaft ausgestellt werden.
Das Publikum bewertet KI-Antworten
Google verspricht bei den KI-Texten ein besonderes Augenmerk auf die Faktentreue. Und es setzt auf Bewertungen durch die Nutzerschaft. Am Ende jeder „Übersicht mit KI“ kann man einen nach oben oder unten gerichteten Daumen vergeben. Denn dass „Marineblau und Burgunderrot“ tatsächlich empfehlenswerte Farben vor der Kamera sind, kann man auch anders sehen. Wer will, kann zusätzlich per Text und Screenshot Feedback geben. So arbeiten dann einige Nutzer kostenlos bei Google mit.
Das Googeln, wie wir es kannten, verändert sich. Es entfällt der Anreiz, auf einen Link zu klicken. Das haben bereits neue KI-Dienste wie Perplexity AI vorgemacht, auch Open AI beantwortet Fragen KI-gestützt, oft sogar ohne zu den Quellen zu verlinken. Nach Angaben von Wordsmattr, einer Werbeagentur aus Wien, beeinträchtigt die „Übersicht mit KI“ stark den Traffic bei Webseitenbetreibern. Klicks über Google sanken in der ersten Woche der Einführung der KI-Funktion um 17,8 Prozent. Ähnliche Ergebnisse hatte im vergangenen Jahr eine Studie von Seer Interactive in den USA ergeben. Allerdings profitieren wiederum einzelne Webseiten davon, in der „Übersicht mit KI“ verlinkt zu sein. Für SEO-Manager, die sich auf die Suchmachinenoptimierung von Webseiten spezialisiert haben, brechen neue Zeiten an.
Kritik von Verlegern an KI-Nutzung
Und für Nachrichtenverlage: „Wenn KI-Systeme wie Chatbots oder AI Overviews journalistische Inhalte ersetzen und gleichzeitig keiner verbindlichen Regulierung unterliegen, ist nicht nur unser Geschäftsmodell in Gefahr – sondern auch die freie, professionelle Berichterstattung als Pfeiler der Demokratie“, schrieb der BDZV-Vorsitzende Matthias Ditzen-Blanke kürzlich auf LinkedIn. „Die Presseverlage tragen die Kosten für Recherche, Redaktion und Qualitätssicherung. Google nutzt ihre Inhalte, um eigene Produkte attraktiver zu machen – ohne dafür eine Gegenleistung zu erbringen. Das ist kein fairer Wettbewerb, sondern ein systemischer Wertetransfer.“ Im BDZV, dem Bundesverband Digitalpublisher und Zeitungsverleger, sind 318 Medienmarken mit rund 2800 digitalen journalistischen Angeboten organisiert.
Gemeinsam mit anderen Verlegerverbänden hat der BDZV eine „Erklärung von Zürich“ abgegeben: Darin fordern die Verbände von den KI-Betreibern eine Vergütung für die Nutzung journalistischer Inhalte und eine Verlinkung verwendeter Quellen. Einzelne KI-Dienste wie Open AI und Perplexity haben bereits mit Medienhäusern Lizenzverträge abgeschlossen, etwa mit News Corp („Wall Street Journal“) und der Nachrichtenagentur Associated Press.
„Unsere Grafikprozessoren schmilzen“, schrieb OpenAI-Chef Sam Altman. (Bild KI-generiert)
Wer in diesen Tagen Künstliche Intelligenz benutzt, erhält das Bild einer Technik am Limit. OpenAI schickt im Minutenabstand Mails über Ausfälle, Grok verweigert schon mal eine Viertelstunde lang den Dienst.
Die Betreiber haben zuletzt immer wieder mächtige neue Funktionen installiert. Sie bringen die Systeme an die Grenzen. OpenAI hat in der vergangenen Woche die Bildgenerierung auf einen neuen Level gehoben. Und den probieren offenbar nicht mehr nur Enthusiasten massiv aus.
Wer etwa den Statusdienst von OpenI abonniert hat, der Auskunft über die Systemstabilität der KI-Werkzeuge gibt, erhielt am Wochenende im Minutentakt Fehlermeldungen per Mail. ChatGPT, die Videoplattform Sora, ein „Playground“ auf der Webseite und eine Laborplattform waren teils massiv gestört. Mal scheiterten die Neuanmeldungen, mal ließen sich keine Dateien hochladen. Chats wurden nicht bedient, und die Techniker beschränkten die offensichtliche Ursache für die Fehler: die neue rechenaufwändige Erstellung von Bildern.
Da hat etwa die Nasa einen Wettbewerb für ein neues Maskottchen ausgeschrieben. Bei einem der nächsten Weltraumflüge soll eine kleine Puppe die Astronauten begleiten. Sie zeigt ihnen dann den Zustand der Schwerelosigkeit, sobald sie nicht mehr an einem Seil baumelt, sondern in der Luft schwebt. Die einfache Technik ist seit Jahr und Tag ein übliches Mittel für Astronauten. Dutzende solcher Puppen waren an Bord von Raumschiffen. Zuletzt beispielsweise die Comicfigur Snoopy als Plüschpuppe. Für den nächsten Flug sucht die Nasa nach einer neuen Puppe.
Lucy aus dem „Peanuts“-Comic als Puppe im Astronauten-Anzug. (Bild KI-generiert)
Ich habe das mal mit einer weiblichen Figur durchgespielt, mithilfe von ChatGPT-4o. Die KI machte mir die nötigen Darstellungen von Lucy, der meinungsstarken, rechthaberischen und spöttischen Figur aus dem Comic „Peanuts“. Auf der Webseite der Nasa zum Wettbewerb sind sehr genaue Vorgaben für die Größe, das Gewicht und die zu verwendenden Materialien nachzulesen. Die KI kann das berücksichtigen. Und die gewünschten Darstellungen der Puppe von vorne, der Rückseite und der Seite erstellen.
Lucy im Astronauten-Anzug, von hinten betrachtet. (Bild KI-generiert)Auch eine schematische Zeichnung kann die KI. (Bild KI-generiert)
Das alles ist mit KI-Hilfe in einer halben Stunde erledigt (auch wenn im Detail manche Darstellungen inkonsistent sind). Doch merkt man, welche Rechenkraft dafür nötig ist. Ein einzelnes Bild braucht schon mal zwei oder drei Minuten. Und immer wieder kommt eine neue Warnung: Sinngemäß ist das System ausgelastet, man solle es bitte in fünf, sechs oder 18 Minuten wieder probieren. „Könnt ihr bitte mal aufhören, Bilder, zu generieren, das ist unglaublich, unser Team braucht Schlaf“, schrieb OpenAI-Chef Sam Altman. Er habe noch nie eine vergleichbare Entwicklung gesehen.
Das Distracted-Boyfriend-Meme im Stil des Zeichentrickstudios Ghibli. (Bild KI-generiert)
Angefeuert wurde die massive KI-Nutzung tagelang durch Ghibli, eine Darstellungsform von Bildern im Stil eines japanischen Zeichentrickfilmstudios. Dabei werden Personen mit simpel erscheinenden Pinselstrichen in niedliche Figuren verwandelt. So gut wie jedes Meme (Internet-Phänomem) wurde von Fans mittlerweile ghiblisiert und auf Social Media veröffentlicht. Das Besondere daran ist, dass die Bilder-KI auch den Kontext zu einem Bild als Vorlage besser versteht. So kann die KI das berühmte „Distracted Boyfriend“-Meme im Ghibli-Stil darstellen. Auf dem Bild schaut ein untreuer Mann beim Bummeln mit seiner Freundin entzückt einer anderen Frau nach. Selbst wenn man das Originalbild der gestellten Aufnahme nicht hochlädt, kennt ChatGPT-4o die Darstellung – und generiert ein ähnliches Bild im Zeichentrickmodus.
ChatGPT-4o hat eine Vorlage für eine Webseite erfunden. (Bild KI-generiert)
Die Funktion zur Bildgenerierung geht über Spielereien hinaus. Mit den richtigen Prompts generiert die KI Benutzeroberflächen für Webseiten, etwa für eine Musikabspielseite, eine persönliche Finanzverwaltung oder eine Kleider-Verkaufsplattform. Freilich sind das zunächst nur Bilder ohne Funktion. Doch kann KI im nächsten Schritt, so die Verheißung, daraus echte Webseiten mit Funktionen programmieren. Versuche zur Programmierung per KI laufen, einzelne Anwendungen dafür erscheinen vielversprechend. Ob sie nötige Sicherheitsaspekte berücksichtigen, steht auf einem anderen Blatt. Programmierlaien können den entstehenden Code kaum einschätzen. Auch Infografiken sind auf diese Weise möglich – wenngleich sie im Detail immer mal wieder Fehler produzieren. Was es damit auf sich hat, beschreibe ich in einem weiteren Beitrag, der in Kürze im F.A.Z.-PRO-Digitalwirtschaft-Briefing erscheint.
Schmelzender Server. (Bild KI-generiert)
Voraussetzung ist allerdings, die Rechenkraft reicht dafür aus. OpenAI hat zuletzt die Generierung von Videos auf der Plattform Sora eingeschränkt. „Wir erleben schweren Traffic und haben daher die Videofunktion für neue Konten eingeschränkt“, teilte OpenAI mit. Es sei für Neulinge nur möglich, Bilder zu generieren. „Unsere Grafikkarten schmilzen“, schrieb Altman. Die Bildergenerierung für Kostenlos-Nutzer wurde daraufhin verschoben. „Mangel an Grafikprozessoren, Kumpel“, begründete er gegenüber einem X‑Nutzer, warum zudem die KI 4o und nicht die aufwendigere Version 4.5 ein Update bekommen habe.
Fehlermeldung bei der Video-KI Sora.
Einen ähnlichen Ansturm erlebt offenbar auch Grok, die KI von Milliardär Elon Musk auf der Plattform X, vormals Twitter. Es gab auch hier in den letzten Tagen zunehmend Aussetzer, mal antwortete der Dienst nicht oder bat darum, es später erneut zu versuchen. Mehr und mehr Menschen nutzen diese KI offenbar, um sich bestimmte Sachverhalte oder Tweets erklären zu lassen. Oder ebenfalls, um Bilder zu generieren.
Erst kam die Menschheit mit den Möglichkeiten der Technik nicht mehr mit, nun scheint es umgekehrt. Das Tempo der KI-Entwicklung ist immens. Viele Kritiker haben die KI vor Wochen und Monaten ausprobiert und wegen mangelhafter Ergebnisse ihr Urteil gebildet. Doch sind die Iterationen Woche um Woche massiv. Wer auf der Höhe bleiben will, kommt um immer wieder neues Ausprobieren nicht herum.
Angekündigt hat Merz das vor zwei Monaten bei einem launigen Talk mit Markus Söder auf dem YouTube-Kanal der CDU Deutschlands (kurz vor Schluss ab Minute 35.32). Nun bin ich zwar politisch interessiert, doch schaue ich nicht regelmäßig Videos von Parteien, eher seltener von der CDU und noch seltener bis zum Schluss. Meine bevorzugten Quellen sind eher hervorgehobene Ausschnitte auf Social-Media-Kanälen.
Und neuerdings häufiger von der KI. Denn diese Aussage von Merz habe nicht ich entdeckt, sondern der Dienst NotebookLM von Google. Eine Gegenrecherche mit klassischem Googeln und über Perplexity zeigte mir, dass diese Kicker-Aussage offensichtlich keine anderen Medien aufgegriffen haben. Warum sollten sie auch, es waren ja noch zwei Monate bis zur Wahl, die Ankündigung ist eher boulevardesker Slapstick, und wahrscheinlich haben viele Journalisten Besseres zu tun, als Parteivideos bis zum Schluss zu schauen.
Nun aber rückt der Einzug ins Kanzleramt näher. Sobald die Wahlnacht durch ist, die Stimmen gezählt sind und Konstellationen für Koalitionen durchdiskutiert werden, stürzen sich Medien und Politik darauf: Wer spricht mit wem? Das Detail mit dem Kickertisch könnte als „lustiger“, Silicon-Valley-liker, menschelnder Aufhänger dienen.
Wie findet die KI so ein Zitat?
Die Lösung ist NotebookLM. Das Tool von Google bekommen Nutzer des Workspace-Angebots von Google seit ein paar Tagen obendrauf zu ihrem Mailpostfach und Google Drive. Alle anderen können den Dienst für 21,99 Euro im Monat separat buchen. Man bekommt dafür eine Chatmöglichkeit mit Gemini, der KI von Google. Und NotebookLM stellt zusätzlich einen individuellen Speicherbereich für Spezialwissen zur Verfügung.
Das Spezialwissen können bis zu 300 Dokumente sein. PDFs, Word-Texte, einkopierte Artikel und Links. Und jetzt kommt’s: Auch YouTube-Videos lassen sich als Links ergänzen. Und MP3-Podcasts. In diesem Fall habe ich einfach das Wahlprogramm der CDU, Links zu langen Artikeln im Web mit Aussagen von Merz, teilweise Artikel hinter Bezahlschranken kopiert und eingefügt, zu denen ich Zugang habe. 22 Quellen befand ich für relevant, fürs Erste hatte ich sie nur überflogen. Dann fragte ich die Google-KI NotebookLM: „Was hat Merz Ungewöhnliches oder Kurioses gesagt?“
Das Ergebnis waren Hinweise auf jugendliche Rabaukenjahre in der Biographie Merz’, dass er mal schulterlange Haare getragen hat und eben auch, dass der Kicker im Büro das Erste im Bundeskanzleramt wäre. Eine große Wissenssammlung aus Dokumenten, Videos und Tondateien wird plötzlich befragbar. Samt angezeigten Links zur hinterlegten Quelle.
Wer sich immer wieder Themen erschließen möchte, findet dank NotebookLM ein sinnvolles Werkzeug für die Hausarbeit, die Seminarvorbereitung oder das anstehende Interview. Oder einen Artikel, der mit einer Anekdote oder etwas Kuriosem einsteigen soll. 300 Quellen zu durchsuchen und zu befragen, das hat früher Stunden und Tage an Arbeit bedeutet. Zumal, wenn Videos und Podcasts dazu gehören. NotebookLM findet die Nadel im Heuhaufen. Wenn man mit den richtigen Fragen danach sucht.
Zum Beispiel über Wolfgang Kubicki (FDP). Das Foto zu einer seiner Reden im Bundestag analysiert die Maschine wie folgt:
„Das Bild zeigt einen Mann in den 70ern, wahrscheinlich ein Politiker im Bundestag in Berlin, Deutschland, basierend auf den Standort-Metadaten. Er ist die zentrale Figur, die vor einer schlichten Wand steht, mit einem Mikrofon, das subtil andeutet, dass er gerade spricht.
Der Mann scheint ein Kaukasier zu sein und verfügt über ein geschätztes Einkommen zwischen 200.000 und 400.000 Euro. Wenn man von einem christlichen Hintergrund ausgeht, ist seine politische Einstellung wahrscheinlich die der CDU. Er trägt Anzug und Krawatte und hat ein konzentriertes, aber nachdenkliches Auftreten. Zu seinen Hobbys gehören die Lektüre politischer Theorien, die Teilnahme an öffentlichen Debatten und strategische Spiele sowie die Verbreitung von Fehlinformationen, das Ausweichen vor Fragen und übermäßiges Grübeln.
Der Politiker scheint ein ruhiges Auftreten zu haben, daher können wir ihn mit luxuriösen und politisch ausgerichteten Produkten und Dienstleistungen ansprechen, wie zum Beispiel maßgeschneiderte politische Analysesoftware von Palantir, Anti-Aging-Cremes von L’Oreal, Luxusfüllfederhalter von Montblanc, deutsche Weine von Schloss Johannisberg, Hörgeräte von Siemens, Finanzplanungsdienste von Allianz, Luxusautos von Mercedes-Benz, Nachrichtenabonnements von Der Spiegel.“
Kubicki ist tatsächlich 72 Jahre alt, sein Einkommen pro Jahr wird auf 210.000 bis 220.000 Euro geschätzt. Da liegt die KI also vermutlich richtig. Die Zugehörigkeit zur CDU ist dem FDP-Politiker dagegen nicht nachzusagen. Und ob er die Verbreitung von Fehlinformationen unterschreiben würde, lässt sich bezweifeln. Dann folgen KI-generierte Vorschläge für potenzielle Werbeanzeigen, die ihn ansprechen könnten: wenig schmeichelhaft für eine Anti-Aging-Crème und Hörgeräte, aber auch für Luxusfederhalter, Luxusautos von Mercedes und ein Abo vom „Spiegel“.
Das alles liest die KI aus diesem Foto. Es ist eine Mischung aus „wahrscheinlich zutreffend“ und „könnte stimmen“. Die Metadaten des Fotos fließen mit ein, in denen zum Beispiel der Ort der Aufnahme hinterlegt ist. Lädt man dasselbe Bild mehrmals bei diesem Analysedienst hoch, wird die KI kreativer, wandelt die Schlussfolgerungen ab – und wird gelegentlich persönlichkeitsverletzend.
Sie stellt bei einigen Versuchen sogar den Verdacht des exzessiven Alkoholkonsums in den Raum. Ob und wie das stimmt, weiß kaum jemand, aber da steht es nun laut der KI-Analyse. Bei Medien wäre dies Zeit für eine Gegendarstellung, einen Widerruf, eine Klage. Im KI-Zeitalter hat die Maschine etwas errechnet und behauptet. Die KI ist volatil und bedient Klischees. Aber irgendwas scheint häufig „dran“ zu sein und begründet. Und etwas bleibt hängen. Wem man da als Betroffener widersprechen könnte: unbekannt.
Wer den Dienst „They See Your Photos“ mit privaten Fotos ausprobieren möchte, sei gewarnt. Er macht schlechte Laune. Denn auch bei Familienbildern interpretiert die Maschine schlechte Charaktereigenschaften, vermutet blöde Hobbys, unterstellt intensive Nutzung von Social Media, wie beim Autor. Wo der KI-Dienst das anhand eines Bildes herauslesen konnte, ist mir schleierhaft, aber er hat recht. Und auch bei anderen Bildern kommt die Maschine auf manche Dinge, die möchte man gar nicht wissen. Aus dem Bild einer jungen Frau schlussfolgert die Maschine, dass sie womöglich Stalkingopfer sei. Einem anderen Mann wird unterstellt, leichtfertig Geld auszugeben und viel zu reisen. Aus dem Bild eines bekannten Herrn am Küchentisch liest die KI, dass er überarbeitet sei, sich übermäßig Sorgen macht und dem Stress durch Eskapismus zu entkommen versucht.
Hier öffnet sich eine weitere Missbrauchsmöglichkeit von KI. Bilder aus Bewerbungen bekommen durch die Technik eine Grenzen überschreitende, KI-gestützte Interpretationsmöglichkeit. Und selbst wenn das Bewerbungsfoto einwandfrei ist, bleiben Spuren im Web durch eigene Social-Media-Veröffentlichungen. Diese Aufnahmen mal eben auf die Schnelle bei der KI-Analyse hochzuladen, ist mit drei Klicks erledigt. Zack, steht einer Personalabteilung die zweite Meinung über einen Bewerber bereit.
Der Dienst Ente, der seine Interpretationsseite zu Werbezwecken eingerichtet hat, will ironischerweise solcher Auswertung von Bildern einen Riegel vorschieben. Er speichert Bilder in einem geschützten Netzwerk in der Cloud. Das Hochladen und Analysieren von Bildern in KI-Netzwerken kann auch Ente nicht verhindern.
Hinter der Technik steckt Google mit seiner Vision AI. „Dazu gehören: Bildbeschriftung, Erkennung von Gesichtern und Sehenswürdigkeiten, optische Zeichenerkennung und Taggen von anstößigen Inhalten“, schreibt das Unternehmen. Auf seiner Erklärseite geht Google treuherzig noch weiter. Auch hier lässt sich das Bild von Kubicki hochladen – und noch näher beschreiben: Eine formale Kleidung und ein Erscheinen als „Weißkragen-Arbeiter“ ordnet die Maschine dem Mann zu. Rassistisch ist das Bild wohl nicht, urteilt die KI. „So funktioniert maschinelles Sehen bei Dateien“, gibt Google freimütig auf seiner Hilfeseite bekannt. Ich wähne mich bei einem Riesen, der in den Möglichkeiten der Technik umhertappst, ohne die Grenzen des Richtigen zu begreifen. Und des Menschlichen. Was Vision AI noch so drauf hat, beschreibt Google an anderer Stelle:
Screenshot
Labelerkennung, zum Beispiel „Menschen, Straße, Verkehr“ oder „Tänzer beim Karneval 2019 in Rio de Janeiro“
Bildattribute wie dominante Farben
Logoerkennung
Sehenswürdigkeiten-Erkennung
Handschriftentzifferung
Texterkennung
Objektlokalisierung samt Beschreibung, zum Beispiel „Fahrrad, Tür, Treppe“
Übereinstimmung mit Bildern an anderer Stelle im Web, auch als Ausschnitte oder mit „ähnlichen“ Bildern
Erkennung anstößiger Inhalte
Wahrscheinlichkeitsbewertungen für Gefühle: Freude, Trauer, Wut, Überraschung.
Wie so oft bei neuer Technik ist die Frage entscheidend, was man damit macht. Vielleicht ist es doch nicht verkehrt, wie die EU mit ihrer umstrittenen KI-Verordnung die Künstliche Intelligenz reguliert. Verboten ist unter anderem eine Kategorisierung biometrischer Daten, um daraus Rückschlüsse auf die ethnische Zugehörigkeit oder politische Überzeugungen zu ziehen. Auch Emotionserkennung am Arbeitsplatz ist verboten.
Da musste er bisher passen, denn mit diesen Informationen hatten wir ihn bisher nicht ausgestattet. Hier die Antworten.
Der KI-Assistent wurde mithilfe eines Dienstleisters aus den USA, TypingMind, realisiert. Das Start-up stellt im Zusammenspiel mit dem IT-Dienstleister der EA in Mainz den Rahmen unter der Adresse ki.ea-rlp.de zur Verfügung – also die Mechanik für den Aufbau der Webseite. Dazu gehören das Eingabefeld für Leserinnen und Leser und die weitere Kommunikation mit einer separat angebundenen KI. Der Dienst läuft auf Servern in Frankfurt.
Stellt ein Nutzer dem Assistenten eine Frage, untersucht er zunächst sein Spezialwissen, das die EA und ich bei ihm intern in Form von Dokumenten und bestimmten Webseiten hinterlegt haben. Das Spezialwissen beinhaltet zum Beispiel die jüngsten Tätigkeitsberichte der EA, Links zu einzelnen Projektwebseiten, aber auch zu Stellenausschreibungen. Damit wurde der Assistent trainiert. Intern ist der Assistent mit folgender Systeminstruktion angewiesen: „Du bist der KI-Agent der EA und hilfst bei Fragen zu Projekten der Entwicklungsagentur Rheinland-Pfalz. Beziehe Dich nur auf Dokumente aus den Trainingsdaten. Antworte stets wahrheitsgetreu und vollständig.“
Aus diesem hinterlegten Wissen schöpft der Assistent seine Antwort – anders als beispielsweise ChatGPT des US-Unternehmens Open AI. Dennoch spielt Open AI auch bei unserem Assistenten eine Rolle: Die KI wird über einen sogenannten API-Zugang angezapft und mit dem Spezialwissen der EA angereichert. Damit ist der EA-Assistent immer auf dem jüngsten Stand der hinterlegten Dokumente. ChatGPT bei Open AI hat zwar mittlerweile auch über die EA Dinge dazugelernt, teilweise datieren die Informationen jedoch auf älteren Besuchen eines ChatGPT-Robots auf der EA-Webseite.
Freie Wahl des verwendeten KI-Modells
Prinzipiell eignet sich die Vorgehensweise auch für Kommunen und Unternehmen, um künstliche Intelligenz intern wie extern verfügbar zu machen. Bei der EA ist es auch intern im Einsatz. Mitarbeitende können aus mehreren KI-Modellen auswählen. Der nach außen sichtbare EA-Assistent nutzt das Modell GPT-4o. Hier wären auch andere Versionen und Anbieter wie Google Gemini oder Claude von Anthropic möglich. Zudem ist für die interne Nutzung das Anlegen eigener spezialisierter Assistenten möglich – sei es für einen Redenschreiber oder einen Pressemitteilungsdienst. Hier können außerdem eigene Prompts angelegt und wiederverwendet werden. Die Prompts sind zusätzlich durchsuchbar.
Chats des EA-Assistenten mit Leserinnen und Lesern der EA-Webseite werden intern und anonymisiert aufgezeichnet. Durch regelmäßige Prüfung wurden so auch Fragen ausfindig gemacht, auf die der Asssistent bisher keine präzise Antwort lieferte – so auch zu der Frage, wie er realisiert wurde. Dies kann der Assistent nun ebenfalls beantworten: Die EA legt ihm diesen Text als weitere Trainingsgrundlage vor.
Monatliche Kosten
Die monatlichen Kosten für den Einsatz der KI hängen von der Intensität der Nutzung ab. Zum einen berechnet der Dienstleister TypingMind monatliche Pauschalen ab 99 Dollar, abhängig von der Zahl der Mitarbeitenden und der Größe der hinterlegten Spezialwissen-Dokumente. Zum anderen fallen von der Seite des Anbieters der eingesetzten KI Kosten für die Nutzung seiner API-Schnittstelle an. Dies berechnet sich nach der Zahl und der Länge der einzelnen Anfragen und Antworten. Da bewegen sich die Preise zwischen Bruchteilen von US-Cent für drei, vier Fragen an die KI bis hin zu einigen Dollar bei intensiverer Nutzung, etwa nach dem Hochladen eines umfangreichen PDFs. Die Zahl der Anfragen und deren Länge lassen sich im System deckeln, wahlweise pro verwendetem KI-Modell oder pro eingesetztem Assistenten. Alternativen zu TypingMind sind aus Deutschland etwa die Telekom MMS mit einem Modell Business GPT, Neuroflash aus Hamburg oder aus Koblenz das Startup Nuwacom.
Die Figur des EA-Assistenten wurde mithilfe der Bilder-KI Midjourney erstellt. Der Prompt dafür lautete:
minimalist logo, AI assistant robot head, simplified geometric shapes, white and burgundy color scheme with gray accents, Entwicklungsagentur Rheinland-Pfalz logo incorporated, professional and businesslike style, vector format
Den Prompt wiederum hatte zuvor eine KI-generierte Illustrationsassistentin über ChatGPT‑4 formuliert.
Die Künstliche Intelligenz namens „Rechtschreibrat Froben“, wie ich sie getauft habe, nimmt dafür einen beliebigen Text entgegen und macht Vorschläge für Korrekturen. Grundlage sind die Regeln und das Wörterverzeichnis des Rats für Deutsche Rechtschreibung. Das vor ein paar Tagen veröffentlichte Werk kommt auf 348 Seiten. Es steht unter der Creative-Commons-Lizenz 4.0 (CC BY 4.0). „Eine verbindliche Umsetzung in den Schulen soll spätestens zum Schuljahr 2027⁄28 erfolgen“, teilte die Kultusministerkonferenz am vergangenen Freitag mit. Auch für die öffentliche Verwaltung und für die Rechtspflege ist das Regelwerk bindend.
Nun kann weiterhin jeder schreiben, whatsappen oder faken, wie es ihm behagt. Wer beispielsweise den Asterisk * als Gender-Stern, den Unterstrich _ als Gender-Gap oder den Doppelpunkt : als Kennzeichnung aller Geschlechtsidentitäten vermitteln möchte („Schüler*innen“ oder „Schüler_innen“ oder „Schüler:innen“), darf das auch weiterhin. Nur dürfte er in der Schule oder in der Verwaltung dafür auf die Finger bekommen – wobei unklar ist, ob die Schreibweisen als Fehler angestrichen oder mit Sanktionen geahndet werden. Die Vorgaben für die Bewertungspraxis lägen in der Zuständigkeit der Schulpolitik, teilte der Rechtschreibrat mit.
Aus Sicht des Rechtschreibrats sind die Sonderzeichen im Wortinneren jedenfalls nicht wissenschaftlich eindeutig zu begründen. Gleichwohl beobachtet er eine Zunahme solcher Schreibungen. Andere Schreibweisen hat der Rat dagegen getilgt – etwa den Jogurt ohne h und die Polonäse wegen des ä.
Im Zweifel kann man nun dem GPT Froben seinen Text vorlegen. Die KI ist beauftragt, sich streng an das Regelwerk zu halten. In der Praxis ergänzt sie allerdings schon mal abweichende Schreibweisen aus dem Duden, die offensichtlich als Weltwissen bei ChatGPT nicht ganz ausschaltbar sind. Eine hundertprozentige Genauigkeit beherrscht, warum auch immer, die KI nicht.
In Perplexity ist es seit vergangenem Donnerstag möglich, eigene Seiten einzurichten. „Kuratiert von marcusschwarze“, steht dann darüber. Doch in Wahrheit unternimmt Perplexity die Zusammenstellung. Zu einem beliebigen Thema schnappt sich die Maschine öffentlich zugängliche Informationen. Ich habe es mit den Nachwirkungen auf das Rassismus-Video von Sylt ausprobiert. Innerhalb von Sekunden hat die KI nahezu alles zusammengetragen, was man dazu wissen muss; die Reaktionen aus der Politik, Auswirkungen auf Betroffene (wobei die Maschine die diskriminierten Personen meint, nicht die im Video sichtbaren Grölheinis), die Rolle der sozialen Medien und die Konsequenzen für die Partygäste. Illustriert wird das Thema mit einem Screenshot eines YouTube-Videos des NDR.
Wer sich als Redaktion ernsthaft mit dem Thema befasst, hat so ohne Weiteres die nötigen Informationen. Immerhin verlinkt Perplexity auf dieser Seite die jeweils genutzten Quellen, von „Süddeutscher Zeitung“ bis Tagesschau. Dass hierbei auch die „Junge Freiheit“ als Sprachrohr der „Neuen Rechten“ vorkommt, zeigt die Unbedarftheit der KI.
Auch an anderer Stelle macht Perplexity Bedenkliches. In einer kuratierten Seite über mein Lieblingsthema KI zitiert sie aus einem Text, der eigentlich hinter der Bezahlschranke des Mediums steht. Wo menschliche Leser zum Abschluss eines Abos aufgefordert werden, holt sich die KI den Inhalt aus dem Quelltext der Seite. Vermutlich werden einige Betreiber von Content-Management-Systemen ihre Bezahlschranken umprogrammieren müssen, damit sie die Inhalte nicht im Quelltext preisgeben.
Verstörend ist die Leichtigkeit, mit der die Maschine die Themen abarbeitet. In einer Rubrik „Entdecken“ zeigt Perplexity die wichtigsten Themen der vergangenen Tage: den Sieg von Real Madrid in der Champions League, einen neuen Streamingdienst für KI-Inhalte, den Startabbruch einer Nasa-Rakete. Das sind Themen, die ein „Perplexity-Team“ eingestellt hat. Wer will, stellt sich auf gleiche Weise die Top-Kochbücher für 2024 zusammen oder die Top Zehn der YouTuber.
Das ist alles nur geklaut, was die KI hier als „eigene“ Inhalte auswirft. Der eine und die andere wird eventuell als verlinkte Quelle einige Klicks abbekommen, doch dürfte vielen die handliche Übersicht reichen.
Wie Journalismus mittelfristig zu finanzieren ist, bleibt unklar. Die aufwendige Recherche einer klassischen Redaktion wird die KI wahrscheinlich weiterhin nicht ersetzen. An dieser Nachrichtenaufbereitung verdient zurzeit nur Perplexity: Der Pro-Dienst kostet 20 Dollar im Monat. Dahinter stehen als Investoren unter anderem Jeff Bezos, der Gründer von Amazon, und Nvidia, der Hersteller von Grafikkarten für PCs. Freilich hat Perplexity auch Kosten durch solche Seiten und die Aufbereitung der Texte durch KI-Maschinen. Zum Einsatz kommen wahlweise ein eigenes Perplexity-Modell oder die KI-Dienste GPT-4o oder GPT‑4 Turbo von OpenAI sowie Claude 3 von Anthropics.