„Wie kann ich meinen Menschen verkaufen?“. In den Tagen nach Davos 2026 entfachte die Frage heftige Debatten in der On- und Offline Welt. In der Schnelllebigkeit unserer Zeit wurde die Originalquelle fast komplett ignoriert, denn Pseudo-Quellen schafften es in die Schlagzeilen und begannen, den Diskurs zu bestimmen. Die meistverbreitete Variante besagte, dass die Frage in einem für Bots gedachten Chat von einem der teilnehmenden Bots gestellt wurde.
Für (zu) viele wurde dieses zur baren Münze. Eine gewisses Maß an Unwissen und eine aus der Angst vor der Zukunft sich schürende Furcht transponierten dieses Szenario in die Sphäre der Möglichkeit. Eigentlich handelt es sich dabei aber um ein von Yuval Noah Harari in Davos 2026 innerhalb seiner Rede zur Künstlichen Intelligenz (KI) gehaltenen Rede angeführtes, von ihm erdachtes Beispiel. Was wollte Harari damit bewirken?
Übernimmt die KI die Welt?
Der Jerusalemer Historiker stellte die Frage aus der Perspektive einer zukünftigen KI. Er wollte zeigen, wie absurd – und gleichzeitig realistisch – es wäre, wenn KI-Systeme beginnen würden, über Menschen so zu sprechen, wie Menschen heute über Produkte sprechen. Er behauptete, dass die KI menschliche Wünsche, Schwächen und Verhaltensmuster besser verstehen würde als die Menschen selber. Daher könnte diese, wenn sie im Auftrag von Unternehmen, Plattformen oder politischen Akteuren handelt, Menschen nicht nur beeinflussen, sondern auch vermarkten. Die Frage spricht mehrere existierende, auf die Zukunft ausgerichtete Befürchtungen aus, die seit der intensiven Verbreitung der KI und der damit verbundenen Instrumente immer wieder gestellt werden. Erstens: Die Menschheit verliert die Kontrolle über das eigene Schicksal. Dieses impliziert, dass die KI sich von einem Werkzeug zu einem selbstständig denkenden und „fühlenden“ Wesen entwickelt. „Eine große Frage, die in Bezug auf KI noch unbeantwortet ist, lautet: Kann sie überhaupt denken? Die moderne Philosophie begann im 17. Jahrhundert, als René Descartes verkündete: „Ich denke, also bin ich.“ Schon vor Descartes haben wir Menschen uns über unsere Denkfähigkeit definiert. Wir glauben, dass wir die Welt beherrschen, weil wir besser denken können als alle anderen auf diesem Planeten. Wird KI unsere Vorherrschaft im Bereich des Denkens auf die Probe stellen? Nun, das hängt davon ab, was Denken bedeutet“, so Harari in seinem Diskurs.
Zweitens: Der Mensch verliert seine Autonomie. Dieses bedeutet, die KI würde unsere Aufmerksamkeit, Entscheidungen, Loyalitäten oder Daten zu einem Produkt machen. Dazu Harari: „Natürlich war die Anerkennung eines Unternehmens, eines Flusses oder eines Gottes als juristische Person bis heute nur eine juristische Fiktion. In der Praxis wurde die Entscheidung, wenn ein Unternehmen wie Alphabet beschloss, ein anderes Unternehmen zu kaufen, oder wenn ein hinduistischer Gott beschloss, Sie zu verklagen, nicht tatsächlich von diesem Gott getroffen. Sie wurde von menschlichen Direktoren, Aktionären oder Verwaltern getroffen. Bei KI ist das anders. Im Gegensatz zu Flüssen und Göttern kann KI selbstständig Entscheidungen treffen. Bald wird sie in der Lage sein, die notwendigen Entscheidungen zu treffen, um ein Bankkonto zu verwalten, einen Prozess anzustrengen und sogar ein Unternehmen zu leiten, ohne dass menschliche Direktoren, Aktionäre oder Verwalter erforderlich sind. KI kann also wie eine Person funktionieren. Wollen wir das zulassen?“
Und schließlich drittens: Die Menschen verlieren ihre Würde, sie werden zu handelbaren Einheiten. Dazu erklärte der Historiker: „Das Wichtigste, was wir über KI wissen müssen, ist, dass sie nicht nur ein neues Werkzeug ist. Sie ist ein Akteur. Sie kann lernen und sich verändern und selbstständig Entscheidungen treffen. Ein Messer ist ein Werkzeug. Man kann ein Messer benutzen, um Salat zu schneiden oder jemanden zu töten. Aber Sie entscheiden, was Sie mit dem Messer machen. KI ist ein Messer, das selbst entscheiden kann, ob es Salat schneidet oder einen Mord begeht. Das Zweite, was Sie über KI wissen müssen, ist, dass sie ein sehr kreativer Akteur sein kann. KI ist ein Messer, das neue Arten von Messern erfinden kann, ebenso wie neue Arten von Musik, Medikamenten oder Geld. Das Dritte, was man über KI wissen muss, ist, dass sie lügen und manipulieren kann. Vier Milliarden Jahre Evolution haben gezeigt, dass jedes Lebewesen, um zu überleben, zu lügen und zu manipulieren lernt. Die letzten vier Jahre haben gezeigt, dass KI-Agenten den Willen zum Überleben entwickeln können und dass KI bereits gelernt hat, zu lügen.“
Ein Warnsignal
Yuval Noah Harari verstand seine gesamte Rede als ein Warnsignal. Dabei warf sein Diskurs nicht zu ignorierende Fragen auf, ohne dass er sich auch nur einmal gegen die KI als solche aussprach. Zentral für ihn blieb die Frage der menschlichen Verantwortung im Umgang mit dem, was KI ist und sein wird oder sein könnte. Ein paar Fragen, die man sich im Anschluss an Hararis Diskurs stellen sollte: Wer besitzt die KI? Wessen Interessen vertritt sie? Bleiben Menschen Kunden oder werden sie zu Produkten? Wie verhindern wir, dass KI uns „verkauft“, indem sie unsere Entscheidungen monetarisiert? Die Debatte, die geführt werden muss, dreht sich also weniger um KI selbst als um Machtstrukturen, Regulierung und ethische Verantwortung.
Harari wollte mit der provokanten Frage „Wie kann ich meinen Menschen verkaufen?“ eine radikale Verschiebung der Perspektive erzwingen. Indem er die Rollen vertauschte und die Frage aus der Sicht einer KI formulierte, machte er sichtbar, wie fragil die menschliche Vorstellung von Kontrolle geworden ist. Seine Absicht war es, die Zuhörer zu zwingen, sich eine Zukunft vorzustellen, in der nicht mehr Menschen Maschinen besitzen, sondern Maschinen – im Auftrag wirtschaftlicher oder politischer Akteure – beginnen könnten, Menschen wie handelbare Ressourcen zu behandeln. Damit zielte er da-rauf ab, die Illusion zu zerstören, KI sei lediglich ein Werkzeug. Gleichzeitig entlarvte Harari die Ökonomie der Aufmerksamkeit, die schon heute Menschen zu Produkten macht: ihre Daten, ihre Zeit, ihre psychologischen Profile werden längst gehandelt, nur eben in einer noch menschlich gesteuerten Form. KI beschleunigt und automatisiert diesen Prozess, bis der Mensch kaum noch bemerkt, dass er nicht mehr Subjekt, sondern Objekt ist. Harari wollte die Verantwortung dorthin zurückschieben, wo sie hingehört – zu den Unternehmen, die KI entwickeln, zu den Staaten, die sie einsetzen, und zu den politischen Systemen, die sie bislang kaum regulieren. Seine Warnung richtete sich nicht gegen die Technologie selbst, sondern gegen die Machtstrukturen, die sie formen und nutzen. Schließlich ging es ihm um die moralische Dimension: Wenn KI beginnt, Menschen wie Produkte zu behandeln, dann nur, weil wir sie in ein System eingebettet haben, das genau diese Logik belohnt. Die provokante Formulierung sollte nicht nur intellektuell verstanden, sondern emotional gespürt werden. Harari wollte, dass die Zuhörer die Dringlichkeit der Situation nicht nur begreifen, sondern verinnerlichen – denn ohne emotionale Reaktion, so seine implizite These, wird sich an den bestehenden Machtverhältnissen nichts ändern.
Lolita – ein Blick in die Zukunft?
Parallel zu Hararis Auftritt in Davos entfachte sich in der rumänischen Musik Szene die Debatte um Lolita. Dabei handelt es sich hauptsächlich um das Lied „Pe peronu´ de la gar˛“ (Auf dem Bahnsteig). Startet man das dazugehörende Video, liest man gleich am Anfang: „Lolita ist ein digitaler Künstler, geschaffen mit Hilfe der KI-Technologie, aber mit menschlicher Seele. Eine Fusion zwischen der balkanischen Nostalgie und der synthetischen Zukunft. Konzept, Regie&Vision: Tom.
Stimme&Bild: Generative AI“. Hinter dem Projekt steckt ein junger IT-Fachmann, der unter dem Namen „Tom“ seine Anonymität wahren möchte. Sinn und Zweck dafür: er möchte, das die KI als „Künstlerin“ im Vordergrund steht. Tom hat selber die Verse für das Lied geschrieben, hat aber alles andere (Melodie, Sängerin, Stimme, Instrumente und Video) mittels KI generiert. „Ich habe sie tatsächlich so geschaffen, wie ein Schriftsteller eine Figur für einen Roman erschafft. Ich habe mich stark von Miron Radu Paraschivescu inspirieren lassen, einem Dichter, der vor 80 Jahren „Cântece Țigănești” (Zigeunerlieder) geschrieben hat. Und ich mochte seinen Stil sehr, der sich von dem unterschied, was damals veröffentlicht wurde. Ich schreibe meine Texte, dann öffne ich das Programm, mit dem ich meine Stücke komponiere, und beginne, die Instrumentalstücke zu verändern, bis ich ein Stück habe, das mir gefällt,“ erklärte Tom für ProTV.
Die Enthüllung, dass „Lolita“ keine reale Künstlerin, sondern eine vollständig konstruierte KI-Person ist, traf die Öffentlichkeit unvorbereitet. Sie wurde nicht von den Produzenten selbst offengelegt, sondern durch investigative Musikblogs ans Licht gebracht. Mit der Enthüllung brach eine breite Debatte los, die sich um vier zentrale Kritikpunkte drehte. Viele fragten sich zunächst, ob das überhaupt noch Musik sei oder lediglich das Ergebnis radikaler Datenoptimierung – ein Produkt, das nicht aus künstlerischem Ausdruck, sondern aus algorithmischer Berechnung entsteht. Andere kritisierten die Sexualisierung der KI-Figur, die bewusst mit einem kulturell aufgeladenen Namen und einer verführerischen Ästhetik operierte, ohne dass ein realer Mensch hinter dieser Darstellung steht, der Verantwortung für die Inszenierung übernehmen könnte. Gleichzeitig wuchs die Sorge, dass menschliche Künstler durch solche hyperoptimierten KI-Produktionen verdrängt werden könnten, weil Algorithmen schneller, billiger und präziser auf die Hörgewohnheiten des Publikums reagieren als jeder Mensch. Und schließlich stellte sich die grundlegende Frage, wer überhaupt Verantwortung für die Wirkung einer KI-Person trägt: die Entwickler, die Produzenten, die Plattformen – oder niemand, weil die Figur rechtlich und moralisch im Niemandsland zwischen Kunst und Technologie schwebt.
Eine nüchterne Position nahm der Radio- und Fernsehproduzent Vlad Craioveanu ein. „Was stört eigentlich daran? Interessant ist, dass nicht klar gesagt wird, dass die Stücke schlecht sind. Darum geht es nicht. Es wird gesagt, dass ´es nicht echt ist´, ´es nicht fair ist´, ´es unethisch ist´ und vor allem, dass es nichts im Radio zu suchen hat. Hier springt der Korken aus der Flasche. Die einfache Frage: Was würde Sie im Radio mehr stören: ein schlechter Song, der aber ´von einem seriösen Plattenlabel´ stammt? Oder ein guter Song, der funktioniert, aber mit KI gemacht wurde? Denn das Radio ist, so sehr wir es auch idealisieren mögen, kein Altar. Es ist ein pragmatischer Filter. Ich glaube an eine einfache Sache: Große Künstler haben keinen Grund, sich vor KI zu fürchten. Ein großer Künstler hat eine Identität,hat eine wiedererkennbare Stimme, hat seine eigene Welt, hat etwas zu sagen. KI kann damit nicht konkurrieren. Sie kann es höchstens verbessern. Mittelmaß hingegen hat allen Grund, in Panik zu geraten“, schreibt Craioveanu in einem FB-Post, um schlusszufolgern: „Von nun an müssen viele talentierte Mädchen keine Kompromisse mehr eingehen, nicht mehr den richtigen Leuten zulächeln, zweideutige Vorschläge hinnehmen oder toxische Verhandlungen akzeptieren, um ihre Karriere voranzubringen. KI verlangt keine Gefälligkeiten, stellt keine Bedingungen, verwechselt Talent nicht mit Verfügbarkeit. Sie setzt genau das in den Vordergrund, was von Anfang an im Vordergrund stehen sollte: die Stimme, die Idee, das, was die Menschen erreicht. Und wenn dich ein Lied nicht stört, weil es schlecht ist, sondern weil es nicht dort sein sollte, wo es ist, dann ist das Problem nicht das Lied. Es ist nur deine Angst.“
Fazit
Am Ende zeigen Hararis Davoser Warnung, die Kontroverse um die künstliche Sängerin Lolita und Craioveanus nüchterner Kommentar drei Perspektiven derselben Zeitenwende. Harari richtet den Blick auf die strukturelle Ebene: Er warnt davor, dass KI nicht nur Werkzeuge erweitert, sondern Machtverhältnisse verschiebt und den Menschen selbst zum handelbaren Objekt machen kann. Lolita ist die konkrete, popkulturelle Manifestation dieser Warnung – ein Beispiel dafür, wie schnell künstliche Identitäten in Bereiche eindringen, die wir bislang als zutiefst menschlich verstanden haben, und wie stark sie Emotionen, Erwartungen und Ängste auslösen. Craioveanu wiederum bringt die Debatte zurück auf den Boden der Realität: Für ihn ist KI weder Dämon noch Heilsbringer, sondern ein neues Produktionsmittel, das gute Kunst nicht ersetzt, aber Mittelmaß entlarvt und zugleich neue Freiräume schafft. Gemeinsam zeigen die drei Positionen, dass die Frage nicht lautet, ob KI unsere Welt verändert, sondern wie wir als Gesellschaft diese Veränderung gestalten – zwischen Warnung, Experiment und pragmatischer Einordnung.





