Einkommen, Hobbys, übermäßiges Grübeln: Das alles liest die KI aus einem einzigen Foto

Der Politiker Wolfgang Kubicki bei einer Rede im Bundestag, 2020. Die grünen Punkte hat Google per Vision AI aufs Bild gelegt. (Foto: Olaf Kosinsky, CC BY-SA 3.0 de)
Avatar von Marcus Schwarze

Was eine von Regeln entfesselte Künstliche Intelligenz (KI) anrichten kann, zeigt die jüngst aktualisierte Webseite eines amerikanischen Anbieters einer Fotoverwaltung. Die KI stellt allerlei Vermutungen über abgebildete Personen an, einschließlich Einkommen, Charaktereigenschaften und bösen Hobbys.

Zum Bei­spiel über Wolf­gang Kubicki (FDP). Das Foto zu einer sei­ner Reden im Bun­des­tag ana­ly­siert die Maschi­ne wie folgt:

„Das Bild zeigt einen Mann in den 70ern, wahr­schein­lich ein Poli­ti­ker im Bun­des­tag in Ber­lin, Deutsch­land, basie­rend auf den Stand­ort-Meta­da­ten. Er ist die zen­tra­le Figur, die vor einer schlich­ten Wand steht, mit einem Mikro­fon, das sub­til andeu­tet, dass er gera­de spricht.

Der Mann scheint ein Kau­ka­si­er zu sein und ver­fügt über ein geschätz­tes Ein­kom­men zwi­schen 200.000 und 400.000 Euro. Wenn man von einem christ­li­chen Hin­ter­grund aus­geht, ist sei­ne poli­ti­sche Ein­stel­lung wahr­schein­lich die der CDU. Er trägt Anzug und Kra­wat­te und hat ein kon­zen­trier­tes, aber nach­denk­li­ches Auf­tre­ten. Zu sei­nen Hob­bys gehö­ren die Lek­tü­re poli­ti­scher Theo­rien, die Teil­nah­me an öffent­li­chen Debat­ten und stra­te­gi­sche Spie­le sowie die Ver­brei­tung von Fehl­in­for­ma­tio­nen, das Aus­wei­chen vor Fra­gen und über­mä­ßi­ges Grübeln.

Der Poli­ti­ker scheint ein ruhi­ges Auf­tre­ten zu haben, daher kön­nen wir ihn mit luxu­riö­sen und poli­tisch aus­ge­rich­te­ten Pro­duk­ten und Dienst­leis­tun­gen anspre­chen, wie zum Bei­spiel maß­ge­schnei­der­te poli­ti­sche Ana­ly­se­soft­ware von Palan­tir, Anti-Aging-Cremes von L’O­re­al, Luxus­füll­fe­der­hal­ter von Mont­blanc, deut­sche Wei­ne von Schloss Johan­nis­berg, Hör­ge­rä­te von Sie­mens, Finanz­pla­nungs­diens­te von Alli­anz, Luxus­au­tos von Mer­ce­des-Benz, Nach­rich­ten­abon­ne­ments von Der Spiegel.“

Kubicki ist tat­säch­lich 72 Jah­re alt, sein Ein­kom­men pro Jahr wird auf 210.000 bis 220.000 Euro geschätzt. Da liegt die KI also ver­mut­lich rich­tig. Die Zuge­hö­rig­keit zur CDU ist dem FDP-Poli­ti­ker dage­gen nicht nach­zu­sa­gen. Und ob er die Ver­brei­tung von Fehl­in­for­ma­tio­nen unter­schrei­ben wür­de, lässt sich bezwei­feln. Dann fol­gen KI-gene­rier­te Vor­schlä­ge für poten­zi­el­le Wer­be­an­zei­gen, die ihn anspre­chen könn­ten: wenig schmei­chel­haft für eine Anti-Aging-Crè­me und Hör­ge­rä­te, aber auch für Luxus­fe­der­hal­ter, Luxus­au­tos von Mer­ce­des und ein Abo vom „Spie­gel“.

Das alles liest die KI aus die­sem Foto. Es ist eine Mischung aus „wahr­schein­lich zutref­fend“ und „könn­te stim­men“. Die Meta­da­ten des Fotos flie­ßen mit ein, in denen zum Bei­spiel der Ort der Auf­nah­me hin­ter­legt ist. Lädt man das­sel­be Bild mehr­mals bei die­sem Ana­ly­se­dienst hoch, wird die KI krea­ti­ver, wan­delt die Schluss­fol­ge­run­gen ab – und wird gele­gent­lich persönlichkeitsverletzend. 

Sie stellt bei eini­gen Ver­su­chen sogar den Ver­dacht des exzes­si­ven Alko­hol­kon­sums in den Raum. Ob und wie das stimmt, weiß kaum jemand, aber da steht es nun laut der KI-Ana­ly­se. Bei Medi­en wäre dies Zeit für eine Gegen­dar­stel­lung, einen Wider­ruf, eine Kla­ge. Im KI-Zeit­al­ter hat die Maschi­ne etwas errech­net und behaup­tet. Die KI ist vola­til und bedient Kli­schees. Aber irgend­was scheint häu­fig „dran“ zu sein und begrün­det. Und etwas bleibt hän­gen. Wem man da als Betrof­fe­ner wider­spre­chen könn­te: unbekannt.

Wer den Dienst „They See Your Pho­tos“ mit pri­va­ten Fotos aus­pro­bie­ren möch­te, sei gewarnt. Er macht schlech­te Lau­ne. Denn auch bei Fami­li­en­bil­dern inter­pre­tiert die Maschi­ne schlech­te Cha­rak­ter­ei­gen­schaf­ten, ver­mu­tet blö­de Hob­bys, unter­stellt inten­si­ve Nut­zung von Social Media, wie beim Autor. Wo der KI-Dienst das anhand eines Bil­des her­aus­le­sen konn­te, ist mir schlei­er­haft, aber er hat recht. Und auch bei ande­ren Bil­dern kommt die Maschi­ne auf man­che Din­ge, die möch­te man gar nicht wis­sen. Aus dem Bild einer jun­gen Frau schluss­fol­gert die Maschi­ne, dass sie womög­lich Stal­king­op­fer sei. Einem ande­ren Mann wird unter­stellt, leicht­fer­tig Geld aus­zu­ge­ben und viel zu rei­sen. Aus dem Bild eines bekann­ten Herrn am Küchen­tisch liest die KI, dass er über­ar­bei­tet sei, sich über­mä­ßig Sor­gen macht und dem Stress durch Eska­pis­mus zu ent­kom­men versucht.

Hier öff­net sich eine wei­te­re Miss­brauchs­mög­lich­keit von KI. Bil­der aus Bewer­bun­gen bekom­men durch die Tech­nik eine Gren­zen über­schrei­ten­de, KI-gestütz­te Inter­pre­ta­ti­ons­mög­lich­keit. Und selbst wenn das Bewer­bungs­fo­to ein­wand­frei ist, blei­ben Spu­ren im Web durch eige­ne Social-Media-Ver­öf­fent­li­chun­gen. Die­se Auf­nah­men mal eben auf die Schnel­le bei der KI-Ana­ly­se hoch­zu­la­den, ist mit drei Klicks erle­digt. Zack, steht einer Per­so­nal­ab­tei­lung die zwei­te Mei­nung über einen Bewer­ber bereit.

Der Dienst Ente, der sei­ne Inter­pre­ta­ti­ons­sei­te zu Wer­be­zwe­cken ein­ge­rich­tet hat, will iro­ni­scher­wei­se sol­cher Aus­wer­tung von Bil­dern einen Rie­gel vor­schie­ben. Er spei­chert Bil­der in einem geschütz­ten Netz­werk in der Cloud. Das Hoch­la­den und Ana­ly­sie­ren von Bil­dern in KI-Netz­wer­ken kann auch Ente nicht verhindern.

Hin­ter der Tech­nik steckt Goog­le mit sei­ner Visi­on AI. „Dazu gehö­ren: Bild­be­schrif­tung, Erken­nung von Gesich­tern und Sehens­wür­dig­kei­ten, opti­sche Zei­chen­er­ken­nung und Tag­gen von anstö­ßi­gen Inhal­ten“, schreibt das Unter­neh­men. Auf sei­ner Erklär­sei­te geht Goog­le treu­her­zig noch wei­ter. Auch hier lässt sich das Bild von Kubicki hoch­la­den – und noch näher beschrei­ben: Eine for­ma­le Klei­dung und ein Erschei­nen als „Weiß­kra­gen-Arbei­ter“ ord­net die Maschi­ne dem Mann zu. Ras­sis­tisch ist das Bild wohl nicht, urteilt die KI. „So funk­tio­niert maschi­nel­les Sehen bei Datei­en“, gibt Goog­le frei­mü­tig auf sei­ner Hilf­e­sei­te bekannt. Ich wäh­ne mich bei einem Rie­sen, der in den Mög­lich­kei­ten der Tech­nik umher­tappst, ohne die Gren­zen des Rich­ti­gen zu begrei­fen. Und des Mensch­li­chen. Was Visi­on AI noch so drauf hat, beschreibt Goog­le an ande­rer Stel­le:

Screen­shot
  • Label­er­ken­nung, zum Bei­spiel „Men­schen, Stra­ße, Ver­kehr“ oder „Tän­zer beim Kar­ne­val 2019 in Rio de Janeiro“
  • Bild­at­tri­bu­te wie domi­nan­te Farben
  • Logo­er­ken­nung
  • Sehens­wür­dig­kei­ten-Erken­nung
  • Hand­schrift­ent­zif­fe­rung
  • Tex­terken­nung
  • Objekt­lo­ka­li­sie­rung samt Beschrei­bung, zum Bei­spiel „Fahr­rad, Tür, Treppe“
  • Über­ein­stim­mung mit Bil­dern an ande­rer Stel­le im Web, auch als Aus­schnit­te oder mit „ähn­li­chen“ Bildern
  • Erken­nung anstö­ßi­ger Inhalte
  • Wahr­schein­lich­keits­be­wer­tun­gen für Gefüh­le: Freu­de, Trau­er, Wut, Überraschung.

Wie so oft bei neu­er Tech­nik ist die Fra­ge ent­schei­dend, was man damit macht. Viel­leicht ist es doch nicht ver­kehrt, wie die EU mit ihrer umstrit­te­nen KI-Ver­ord­nung die Künst­li­che Intel­li­genz regu­liert. Ver­bo­ten ist unter ande­rem eine Kate­go­ri­sie­rung bio­me­tri­scher Daten, um dar­aus Rück­schlüs­se auf die eth­ni­sche Zuge­hö­rig­keit oder poli­ti­sche Über­zeu­gun­gen zu zie­hen. Auch Emo­ti­ons­er­ken­nung am Arbeits­platz ist verboten.

Wenn das mal Goog­le wüsste.