KI-Suche revolutioniert Recherche: Durchbruch 2025

KI-Suche revolutioniert Recherche: Durchbruch 2025

KI-gestützte, suchbasierte Recherche funktioniert jetzt tatsächlich

In den letzten zweieinhalb Jahren war die Fähigkeit, suchbasierte Rechercheaufgaben in meinem Namen zu übernehmen, die Funktion, die ich mir am meisten von Large Language Models (LLMs) gewünscht habe. Die ersten Anzeichen dafür sahen wir bereits Anfang 2023 mit Perplexity, das im Dezember 2022 gestartet wurde, gefolgt vom GPT-4-gestützten Microsoft Bing, das im Februar 2023 spektakulär auf den Markt kam und abstürzte. Seitdem haben sich viele an diesem Problem versucht, allen voran Google Gemini und ChatGPT Search.

Diese Versionen aus dem Jahr 2023 waren vielversprechend, aber sehr enttäuschend. Sie neigten stark dazu, Details zu halluzinieren, die in den Suchergebnissen nicht vorhanden waren, sodass man ihnen nichts glauben konnte.

In der ersten Hälfte des Jahres 2025 haben diese Systeme meiner Meinung nach endlich die Grenze überschritten und sind wirklich nützlich geworden.

Deep Research von drei verschiedenen Anbietern

Zuerst kamen die Deep Research-Implementierungen – Google Gemini, dann OpenAI und schließlich Perplexity brachten Produkte mit diesem Namen auf den Markt, die alle beeindruckend waren: Sie konnten eine Anfrage entgegennehmen und dann mehrere Minuten lang einen umfangreichen Bericht mit Dutzenden (manchmal Hunderten) von Zitaten zusammenstellen. Geminis Version erhielt vor einigen Wochen ein großes Upgrade, als sie auf Gemini 2.5 Pro umgestellt wurde, und ich habe seitdem einige hervorragende Ergebnisse damit erzielt.

Ein paar Minuten auf einen 10+ Seiten langen Bericht zu warten, ist nicht mein idealer Arbeitsablauf für diese Art von Tool. Ich bin ungeduldig und möchte schneller Antworten haben!

O3 und O4-mini sind wirklich gut in der Suche

Letzte Woche hat OpenAI die suchfähigen Modelle o3 und o4-mini über ChatGPT veröffentlicht. Auf den ersten Blick sehen diese wie die gleiche Idee aus, die wir schon gesehen haben: LLMs, die die Option haben, ein Suchwerkzeug als Teil der Antwort auf einen Prompt aufzurufen.

Aber es gibt einen sehr bedeutenden Unterschied: Diese Modelle können Suchen als Teil des Gedankenkettenprozesses durchführen, den sie vor der Erstellung ihrer endgültigen Antwort verwenden.

Das erweist sich als ein großer Vorteil. Ich habe ChatGPT (im o3- oder o4-mini-Modus) alle möglichen Fragen gestellt und wirklich nützliche Antworten erhalten, die auf Suchergebnissen basieren. Ich habe noch keine Halluzination entdeckt, und im Gegensatz zu früheren Systemen ertappe ich mich selten dabei, dass ich „Nein, such nicht danach!“ rufe, wenn ich sehe, was sie tun.

Hier sind vier aktuelle Beispieltranskripte:

  • Spezifikationen einschließlich VRAM für RTX 5090 und RTX PRO 6000 – plus Veröffentlichungsdaten und Preise
  • Ein Website-Tool finden, bei dem man eine URL einfügen kann und es eine Wortzahl und eine geschätzte Lesezeit angibt
  • Herausfinden, welche Suchmaschine ChatGPT für o3 und o4-mini verwendet
  • Cloudflare r2-Preise nachschlagen und mit Python berechnen, wie viel dies (Screenshot des Dashboards) kostet

Mit o3 zu sprechen, fühlt sich an, als würde man in Echtzeit mit einem Deep Research-Tool sprechen, ohne mehrere Minuten auf einen übermäßig ausführlichen Bericht warten zu müssen.

Meine Vermutung ist, dass es für eine gute Umsetzung ein sehr starkes Reasoning-Modell erfordert. Die Auswertung von Suchergebnissen ist schwierig, da man sich durch enorme Mengen an Spam und irreführenden Informationen kämpfen muss. Die enttäuschenden Ergebnisse früherer Implementierungen waren meist darauf zurückzuführen, dass das Web voller Müll ist.

Vielleicht sind o3, o4-mini und Gemini 2.5 Pro die ersten Modelle, die die Schwelle der Leichtgläubigkeitsresistenz so weit überschritten haben, dass sie dies effektiv tun können?

Google und Anthropic müssen aufholen

Die benutzerfreundliche Google Gemini-App kann zwar auch suchen, zeigt mir aber nicht, wonach sie sucht. Infolgedessen vertraue ich ihr einfach nicht. Vergleichen Sie diese Beispiele von o3 und Gemini für den Prompt „Neuester Beitrag von Simon Willison“ – o3 ist viel transparenter:

Die benutzerorientierte Google Gemini-App kann ebenfalls suchen, zeigt mir aber nicht, wonach sie sucht. Dadurch vertraue ich ihr einfach nicht. Ein Vergleich der Ergebnisse von o3 und Gemini für die Anfrage „Neuester Beitrag von Simon Willison“ zeigt, dass o3 wesentlich transparenter arbeitet:

Dies ist eine große verpasste Gelegenheit, da Google vermutlich bei weitem den besten Suchindex hat und daher wirklich in der Lage sein sollte, eine großartige Version davon zu erstellen. Und Googles KI-gestützte Suche auf ihrer regulären Suchoberfläche halluziniert so stark, dass sie aktiv ihrer Marke schadet.

Claude hat vor einem Monat endlich auch eine Websuche hinzugefügt, aber sie fühlt sich bei weitem nicht so gut an. Sie verwendet den Brave-Suchindex, der meiner Meinung nach nicht so umfassend ist wie Bing oder Gemini, und Suchen finden nicht als Teil dieses leistungsstarken Reasoning-Prozesses statt.

Faules Portieren von Code auf eine neue Bibliotheksversion mittels Suche

Der wirklich magische Moment für mich kam vor ein paar Tagen.

Mein Gemini-Bildsegmentierungstool verwendete die @google/generative-ai-Bibliothek, die lautstark zugunsten der noch in der Vorschau befindlichen Google Gen AI SDK @google/genai-Bibliothek für veraltet erklärt wurde.

Ich hatte keine Lust, die Arbeit für das Upgrade zu machen. Auf gut Glück fügte ich meinen vollständigen HTML-Code (mit Inline-JavaScript) in ChatGPT o4-mini-high ein und gab den Prompt:

Dieser Code muss auf die neue empfohlene JavaScript-Bibliothek von Google aktualisiert werden. Finde heraus, was das ist, und schaue dann genug Dokumentation nach, um diesen Code darauf zu portieren.

(Ich konnte mich nicht einmal dazu durchringen, den Namen der neuen Bibliothek selbst nachzuschlagen!)

… und es tat genau das. Es dachte 21 Sekunden lang nach, führte eine Reihe von Suchen durch, fand die neue Bibliothek heraus (die weit außerhalb seines Trainingsdatums lag), fand die Upgrade-Anweisungen und erstellte eine neue Version meines Codes, die perfekt funktionierte.

Ich habe diesen Prompt aus reiner Neugier auf meinem Handy ausgeführt, während ich etwas anderes tat. Ich war äußerst beeindruckt und überrascht, als es genau das tat, was ich brauchte.

Wie funktioniert das wirtschaftliche Modell für das Web jetzt?

Ich schreibe heute darüber, weil es eine meiner „Können LLMs das schon zuverlässig?“ Fragen seit über zwei Jahren war. Ich denke, sie haben gerade die Grenze überschritten, als Forschungsassistenten nützlich zu sein, ohne das Gefühl zu haben, alles, was sie sagen, mit einem Feinsieb überprüfen zu müssen.

Ich vertraue ihnen immer noch nicht, dass sie keine Fehler machen, aber ich denke, ich vertraue ihnen vielleicht genug, dass ich bei weniger wichtigen Aufgaben auf meine eigene Faktenprüfung verzichten werde.

Das bedeutet auch, dass eine Reihe der potenziellen düsteren Zukunftsszenarien, die wir in den letzten paar Jahren vorhergesagt haben, mit viel größerer Wahrscheinlichkeit wahr werden. Warum sollte man Websites besuchen, wenn man seine Antworten direkt vom Chatbot bekommen kann?

Die Klagen darüber begannen schon zu fliegen, als die LLMs noch größtenteils Müll waren. Die Einsätze sind jetzt viel höher, da sie tatsächlich gut darin sind!

Ich kann schon spüren, wie meine Nutzung der Google-Suche in den Keller geht. Ich erwarte eine holprige Fahrt, während sich ein neues wirtschaftliches Modell für das Web abzeichnet.

FAQ: KI-gestützte Suchrecherche

Was sind die Hauptvorteile von KI-gestützter Suchrecherche?

Die Hauptvorteile sind schnellere und präzisere Ergebnisse, die Fähigkeit komplexe Fragen zu beantworten, Informationen aus verschiedenen Quellen zu synthetisieren und den Rechercheprozess zu automatisieren. KI kann große Mengen an Daten effizient durchsuchen und relevante Informationen extrahieren.

Wie unterscheidet sich KI-gestützte Suche von herkömmlichen Suchmaschinen?

KI-gestützte Suche kann natürliche Spracheingaben besser verstehen, den Kontext einer Anfrage erfassen und relevantere Ergebnisse liefern. Sie kann auch komplexere Aufgaben wie das Zusammenfassen von Informationen aus mehreren Quellen erledigen, was herkömmliche Suchmaschinen nicht können.

Gibt es Bedenken hinsichtlich der Genauigkeit von KI-gestützten Suchergebnissen?

Ja, es gibt Bedenken bezüglich möglicher Halluzinationen oder Fehler in KI-generierten Antworten. Nutzer sollten die Ergebnisse kritisch prüfen und bei wichtigen Informationen mehrere Quellen heranziehen. Die Technologie verbessert sich aber stetig in Bezug auf Genauigkeit und Zuverlässigkeit.

Wie könnte sich KI-gestützte Suche auf die Zukunft des Internets auswirken?

KI-gestützte Suche könnte zu einer Verringerung des direkten Website-Traffics führen, da Nutzer Informationen zunehmend über KI-Assistenten beziehen. Dies könnte das aktuelle Geschäftsmodell vieler Websites in Frage stellen und zu Veränderungen in der Online-Werbung und Content-Erstellung führen.

Welche ethischen Fragen wirft der Einsatz von KI in der Suchrecherche auf?

Wichtige ethische Fragen betreffen den Datenschutz, die mögliche Verzerrung von Informationen, die Transparenz der KI-Entscheidungsprozesse und die Auswirkungen auf Content-Ersteller und Websitebetreiber. Es muss sichergestellt werden, dass KI-Systeme fair, unvoreingenommen und im Einklang mit gesellschaftlichen Werten arbeiten.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert