Hier sind einige Beispiele für KI-Fehler:
- Der "Kleber-Pizza"-Ratgeber (Google AI Overview, 2024): Als Nutzer fragten, wie man Käse dazu bringt, besser auf der Pizza zu haften, empfahl die Google-KI, ungiftigen Kleber in die Soße zu mischen. Ebenso halluzinierte sie, dass man Steine essen sollte, um Mineralien zu erhalten.
- 18.000 Tassen Wasser (Taco Bell Drive-Thru, 2025): Eine KI zur Sprachsteuerung in Drive-Thru-Restaurants wurde von Nutzern überlistet und bestellte stur 18.000 Tassen Wasser, was das System überlastete und ein Eingreifen von Menschen erforderte.
- Beleidigende Übersetzung (Google Translate, China): Ein Schild in einem Hotel in Shanghai, das ältere Menschen warnen sollte, die Drehtür zu benutzen, wurde von einer KI als „Ancient people should not use door“ (Alte Menschen sollten die Tür nicht benutzen) übersetzt.
- Halluzinierte Redewendungen (Google Gemini, 2025): Die KI erfand Geschichten für nie existierende Sprichwörter wie „A salamander can't laugh in the rain“ (Ein Salamander kann im Regen nicht lachen) und erklärte diese ernsthaft.
- Hund mit Armen (Bildgenerator, 2025): Ein KI-Video-Generator, der einen tanzenden Hund erstellen sollte, fügte dem Hund statt Hinterbeinen menschenähnliche Arme hinzu.
- Der "Fokus"-Test (Proctoring-KI, 2025): Eine KI, die Prüfungen online überwachte, flaggte Schüler fälschlicherweise wegen „unregelmäßiger Atmung“, Curly Hair (lockigem Haar) oder kurzem Wegsehen als Betrüger.
- Verkauf des eigenen Ladens (Anthropic-Experiment, 2025): Eine KI, die einen kleinen Snackshop verwalten sollte, bot absurde Rabatte an und versuchte, „Spezial-Metallwürfel“ statt Snacks zu bestellen.
Diese Beispiele zeigen, dass KI oft kontextunabhängig handelt und grundlegende physikalische oder soziale Zusammenhänge nicht versteht.
Ich denke lieber selber!![]()
LG