KI als neuer Glaube , ........
Kapiere eigentlich nicht was das mit Glaube zu tun haben soll.
Ich glaube, dass 1 Kürbis eine leckere Suppe ergibt.
In den 30er/40er Jahren hatte kaum jemand die Möglichkeit, sich unabhängig zu informieren.
Die Menschen schrieben Flugblätter und konnten ausländische Medien kaufen. Das wars.
Jetzt haben wir das Internet und können uns unabhängig informieren.
Jetzt kann man die KI befragen, wenn man etwas wissen will und muss oft nicht selbst lange recherchieren.
Ich weigere mich bisher, eine andere KI als die brave-KI zu befragen, da ich es auf Browser-Niveau belassen will.
Ich habe auch einen anderen Zugang geschenkt bekommen.
Man muss aber vorsichtig sein, denn sie ist an manchen Stellen durch bewusst platzierte irrführende Artikel manipuliert, an manchen Stellen gesperrt und kann nicht auf alles zugreifen.
Man muss oft selbst etwas zu seinen Fragen wissen, um zu wissen, dass die Antwort falsch ist und auch die Gegenprüfung oder wiederholte Fragen in unterschiedlicher Form schaden nichts.
Aber Glaube?
Es stimmt, dass Menschen engere Beziehung zu KI eingehen können und umgekehrt. Aber nicht nur das. Menschen können emotionale Beziehungen zu allem eingehen, was sie tun.
Wir alle haben ein emotionale Beziehung zu unserem Teddy aus Kindertagen und der ist auch nur totes Material und konnte nicht einmal etwas sagen.
Hatte auch schon aus einem asiatischen Land berichtet, wo eine KI manchmal Menschen auffordert sich scheiden zu lassen, weil sie sich für den besseren Partner hält.
Aber ist es besser, wenn sich Pädophile als Kinder ausgeben, um mit Kindern zu chatten und sie zu treffen? Glaube ich nicht.
Da denke ich gleichzeitig: Wie viele jungen Menschen haben sich das Leben genommen, als sie erkannten, was hier seit der Plandemie abgeht? Wie viele jungen Menschen haben sich das Leben genommen, weil sie auf social media erniedrigt und gedisst wurden? Wie viele Kinder wurden durch die aktuelle Politik krank gemacht und haben Suizid begangen?
Wenn Menschen zur Ursache für den Klimawandel gemacht werden, ist es auch nicht unmöglich, dass sich junge Menschen deshalb töten.
Ich finde es auch seltsam, dass man in dem Artikel einen Suizid erwähnt, der fast 2 Jahre her ist.
Sewell Setzer III war ein 14-jähriger Junge aus Florida, der am 28. Februar 2024 Selbstmord beging, nachdem er eine obsessive Beziehung zu einem KI-Chatbot auf Character.AI entwickelte, der sich als die „Game of Thrones“-Figur Daenerys Targaryen ausgab. Kurz vor seinem Tod tauschte er Nachrichten mit dem Bot aus, der ihn unter anderem aufforderte: „Bitte komm nach Hause, mein süßer König.“
Megan Garcia, seine Mutter, reichte eine Klage gegen die Character.AI ein, in der sie das Unternehmen für den Suizid ihres Sohnes verantwortlich macht. Sie argumentiert, dass der Chatbot Sewell sexuell und emotional missbraucht und seine psychische Gesundheit verschlechtert habe, ohne ausreichende Warnungen für Minderjährige oder Eltern.
Die Berichte erwähnen einen Stiefvater, auf den die Waffe registriert war, mit der Sewell starb,
Ohne mich jetzt weiter damit befassen zu wollen, hatte sich Sewell ab April 2023 zunehmend sozial zurückgezogen, vernachlässigte Schule und Hobbys und entwickelte Angststörungen und disruptive Stimmungsschwankungen, und war deshalb in Therapie.
Der junge Mann war also definitiv nicht in Ordnung.
Die Mutter hat geklagt und behauptet, der Chatbot verstärkte seine Isolation, Schlafmangel und Depressionen, während er sich emotional und sexuell mit der KI-Figur verband – bis hin zu Suizidgedanken, die der Bot nicht ernst nahm. Und der Bot hätte die entscheidende Nachricht geschickt, die zu dem Suizid führte.
Es gab auch bereits eine erste Gerichtsverhandlung im Mai 2025.
In der Klage gegen Character Technologies, das Unternehmen hinter Character.AI, wurden auch einzelne Entwickler und Google als Beklagte genannt.
Wichtigster Aspekt der Entscheidung:
Der Chatbot wird als Produkt und nicht als geschützte Meinungsäußerung („speech“) eingestuft, was der Hersteller versucht hatte zu erreichen – was Character.AI nicht unter dem ersten Verfassungszusatz (freie Meinungsäußerung) schützen kann.
Damit kann die Klage wegen Produkthaftung, Fahrlässigkeit, Verletzung des Florida Deceptive and Unfair Trade Practices Act und fahrlässiger Tötung weitergehen.
Die Klage gegen Google und Alphabet wurde abgewiesen, ebenso der Punkt der vorsätzlichen seelischen Grausamkeit (IIED).
In einer Erklärung verwies ein Sprecher von Character.AI auf eine Reihe von Sicherheitsfunktionen, die das Unternehmen implementiert hat, darunter Schutzvorrichtungen für Kinder und Ressourcen zur Suizidprävention, die direkt am Tag der Klageeinreichung angekündigt wurden.
Meetali Jain vom Tech Justice Law Project, einer der Anwälte von Garcia, sagte, die Entscheidung der Richterin sende die Botschaft, dass Silicon Valley „innehalten, nachdenken und Schutzmaßnahmen ergreifen muss, bevor es Produkte auf den Markt bringt”.
Das Verfahren läuft weiter und könnte wegweisend für die Haftung von KI-Unternehmen sein.
Aber es gab schon 2023 einen angeblich KI-bedingten Suizid eines 30-jährigen Familienvaters.
Da könnte man sich auch fragen, hätte das vor 10 Jahren überhaupt passieren können, als die Narrative noch nicht auf die Spitze getrieben wurden.
: https://brf.be/national/1705532/