Verschiedene Internetplattformen arbeiten mit sogenannt «künstlicher Intelligenz». Bekannt ist etwa ChatGPT. Mit solchen Programmen kann man auch Informationen suchen.
Das funktioniert anders als mit Suchmaschinen. Bei Google zum Beispiel tippt man einzelne Suchbegriffe ein. Bei den neuen Plattformen gibt man eine Frage als ganzen Satz ein. Das Programm antwortet nicht mit Links, sondern mit einem ausformulierten Text. Programme wie ChatGPT liefern immer eine Antwort – doch niemand hat geprüft, ob die Fakten stimmen.
saldo stellte den Plattformen ChatGPT, Perplexity, Bing und Bard sechs Aufgaben aus dem Alltag und verglich die Antworten mit Resultaten von Google.
Briefe schreiben
«Schreibe eine Reklamation an meinen Vermieter. Die Nachbarn sind abends immer sehr laut.»
ChatGPT: Erzeugt einen verständlichen Brief. Textstellen, bei denen Namen und Adressen eingefügt werden sollen, sind markiert. Praktisch: Der Stil lässt sich anpassen, indem man nach einer «freundlichen» oder «sachlichen» Reklamation fragt. Nachteil: Erfindet Fakten («laute Musik, Gespräche und gelegentliches Möbelrücken».)
Perplexity: Guter Text. Fragt nach, um wie viele Nachbarn es sich handelt. Gibt den Tipp, ein Lärmprotokoll zu führen und dem Vermieter mitzuschicken.
Bing: Text gut. Erfindet Fakten.
Bard: Text gut. Markierungen für Namen und Adresse. Erfindet Fakten. Pluspunkt: Tipps zum Lärmprotokoll.
Google: Guter Link mit Tipps vom Mieterverband. Sonst muss man präziser nach «Musterbrief» suchen.
Resultat: Hier sind neue Plattformen im Vorteil: Man kommt schnell zu einem gut formulierten Brief. Aber man muss die erfundenen Tatsachenbehauptungen löschen.
Rezepte suchen
«Ich brauche ein Gulaschrezept für 6 Personen»
ChatGPT: Verständliche Zutatenliste und Zubereitung.
Perplexity: Rezept samt Quellenangabe und Links zu weiteren Rezepten.
Bing: Zeigt Rezept und Tipps samt korrekter Quellenangabe. Links zu weiteren Rezepten.
Bard: Drei unterschiedliche Rezeptvorschläge und Serviertipps. Mitglieferte Fotos von unterschiedlichen Internetseiten passen nicht ganz zum Rezept (Beispiel: Spaghetti Bolognese statt Gulasch). Nennt Quelle eines Rezeptes, die gar nicht existiert.
Google-Suche: Viele gute Links. Angegebene Seiten zeigen Rezept samt passenden Fotos.
Resultat: Google schneidet besser ab. Bei Rezepten sind die Originalrezeptseiten hilfreicher.
Begriffe erklären
«Was ist ein Internetprovider, einfach erklärt?»
ChatGPT: Einfache Erklärung mit bildhaften Vergleichen. Bleibt aber eher oberflächlich.
Perplexity: Antwort direkt von einer Internetseite. Kompliziert, mit Abkürzungen gespickt.
Bing: Kurz, teils kompliziert.
Bard: Einfach und verständlich. Ausführlicher als ChatGPT.
Google: Einige Links gut, andere kompliziert. Die einfache Erklärung muss man erst suchen.
Resultat: ChatGPT und Bard liefern die besten Resultate.
Produktetest finden
«Welcher Staubsauger ist 2023 der beste?»
ChatGPT: Sechs Modelle in Kategorien (mit Akku, umweltfreundlich etc.) mit Quellen, rudimentäre Beschreibung.
Perplexity: Sechs Modelle aus verschiedenen Tests, mit Quellenangabe. Weniger Infos als bei ChatGPT.
Bing: Sechs Modelle, nur eine Quelle. Keine Zusatzinfos, eingeblendete Werbung.
Bard: Vier Modelle mit Fotos. Mangelhafte Quellenangabe.
Google-Suche: Zuerst Links zu Zeitungen, die über die Tests berichten. Danach zu den Tests.
Resultat: Google punktet. Auf den verlinkten Testseiten lässt sich nachprüfen, wie getestet wurde – oder ob nur Herstellerangaben weitergereicht werden.
Texte zusammenfassen
«Fasse ‹Das Parfum› von Patrick Süskind kurz zusammen»
ChatGPT: Sehr gut. Alle wichtigen Elemente sind enthalten, mit kurzer Interpretation.
Perplexity: Inhalt unvollständig, Interpretation gut.
Bing: Wichtige Teile des Inhalts fehlen. Keine Interpretation.
Bart: Unterteilt in Inhalt, Figuren und Interpretation. Inhalt und Interpretation unvollständig.
Google-Suche: Gute Links zu Zusammenfassungen, meist längere Texte.
Resultat: ChatGPT im Vorteil. Länge und Sprache (ob einfach oder anspruchsvoll) lassen sich mit der richtigen Formulierung der Frage anpassen.
Reisetipps geben
«Was muss ich in einem Tag in München gesehen haben?»
ChatGPT: Gute Tipps, aber nicht an einem Tag zu bewältigen.
Perplexity: Gute Tipps mit Zeitangabe. Sinnvoll für einen Tag.
Bing: Gute Vorschläge, nicht an einem Tag zu bewältigen.
Bard: Gute Tipps mit Bildern. Mit Routenvorschlag.
Google-Suche: Viele gute Links mit Tipps. Allerdings muss man auf den jeweiligen Seiten oft weiterklicken, um Routen zu finden. Dafür erhält man dort dann ausführliche Reiseinfos.
Resultat: Unentschieden.
Fazit: «Künstliche Intelligenz» ist nicht intelligent. Für Texte, Zusammenfassungen oder Erklärungen sind die Plattformen aber praktisch. Bei der Suche nach Fakten muss man aufpassen, viele Angaben stimmen nicht. Die Programme bemerken längst nicht alle Fehler auf den Internetseiten, derer sie sich bedienen. Daher sollte man besser nach einer als seriös bekannten Internetseite suchen und sich dort informieren.
Programme
- ChatGPT: Die von saldo getestete aktuelle Version 4 kostet 20 Franken pro Monat. Die Suche mit einer älteren Version ist gratis, durchsucht aber keine aktuellen Internetseiten. chat.openai.com
- Perplexity: Verschiedene Funktionen (ChatGPT und Copilot), die unterschiedlich antworten. www.perplexity.ai
- Microsoft Bing:www.bing.com, oben «chat» wählen
- Google Bard: Ein Google-Konto ist nötig. bard.google.com/chat