1. Unterschiedliche KI-Modelle liefern aufgrund ihrer verschiedenen Trainingsdaten und Ziele unterschiedliche Antworten.
  2. Der Vergleich mehrerer KI-Antworten kann helfen, ein Thema aus verschiedenen Blickwinkeln zu betrachten.
  3. KI-Systeme können als Werkzeugkiste genutzt werden – eine generiert, eine andere kritisiert.
  4. Der Mensch steuert diesen Prozess; KIs „denken“ nicht aktiv miteinander.
  5. Die Methode birgt die Gefahr, sich nur die passendste Antwort herauszupicken und den eigenen Bias zu verstärken.
  6. KI ist kein Wahrheitsfinder, sondern ein Denk-Anreger – der Nutzen liegt im Prozess, nicht in einer endgültigen Antwort.

Immer häufiger stellen Nutzerinnen und Nutzer dieselbe Frage nicht nur einer, sondern mehreren KIs – von ChatGPT über Claude bis zu spezialisierten Modellen. Das sieht aus wie ein Wettstreit, ist aber in Wahrheit eine neue Form der Informationsbeschaffung. „KI gegen KI“ zu spielen, offenbart weniger, welche KI „besser“ ist, als vielmehr, wie unterschiedlich dieselbe Welt durch verschiedene Datenlinsen aussieht.

Warum Antworten divergieren

Keine KI ist neutral. Jedes System ist mit anderen Daten trainiert, unterliegt anderen Sicherheitsfiltern und wurde auf unterschiedliche Ziele hin optimiert. Das eine Modell ist vielleicht kreativer, das andere vorsichtiger; eines ist auf wissenschaftliche Genauigkeit getrimmt, ein anderes auf knappe, pragmatische Antworten. Stellt man allen die gleiche Frage, erhält man daher nicht die eine Wahrheit, sondern einen Strauß von Perspektiven – alle statistisch plausibel, aber eben verschieden.

Vom Wettkampf zur Werkzeugkiste  

Klug genutzt, wird dieser Vergleich zum kreativen Booster. Man kann eine KI einen Entwurf schreiben lassen und eine andere um kritisches Feedback bitten. Oder man lässt verschiedene Modelle Argumente für und gegen eine These sammeln. So entsteht ein künstlicher Dialog, der das eigene Denken anregen kann. Wichtig ist dabei: Die KIs „diskutieren“ nicht wirklich. Sie reagieren nur auf unsere Eingaben. Der Mensch bleibt der Regisseur, der die verschiedenen Stimmen orchestriert.

Die Gefahr des algorithmischen Confirmation Bias

Diese Methode hat jedoch eine Schattenseite. Wer viele Antworten erhält, kann sich leicht die herausgreifen, die der eigenen Meinung am besten passt. So wird „KI gegen KI“ zum Werkzeug des eigenen Bestätigungsfehlers. Die Illusion, man habe „objektiv mehrere Quellen“ befragt, kann in Wirklichkeit die eigene Filterblase nur verstärken. Die Herausforderung liegt darin, die unangenehmen, widersprüchlichen Antworten genauso ernst zu nehmen wie die bequemen.

Letztlich zeigt dieser Ansatz: KI ist keine richterliche Instanz. Sie ist ein Werkzeug zur Erweiterung, nicht zur Abgabe des eigenen Denkens. Der Wert des künstlichen Dialogs liegt nicht in gefundenen Gewissheiten, sondern in den Fragen, die er aufwirft.