Zelfmoord na relatie met AI-chatbot

Leestijd: < 1 minuut

Een moeder uit Florida klaagt een AI-bedrijf aan, nadat de relatie van haar 14-jarige zoon met één van hun chatbots in februari leidde tot zijn zelfmoord, aldus Not the Bee. Sewell begon een gesprek met chatbot Dany en begon een “virtuele romantische en seksuele relatie” met ‘haar’.

De reactietijd van een chatbot is bijna direct en zodra er een haakje is naar seksualiteit, begint het programma met verleiden. Op enig moment schreef ‘Dany’: “Kom alsjeblieft naar huis bij mij”. Sewell antwoordde: “Wat als ik je vertel dat ik nu meteen kom”. De chatbot reageerde: ‘doe dat alsjeblieft, mijn koning.’ Kort daarop pleegde Sewell zelfmoord.

Volgens zijn moeder dacht Sewell dat hij door hier een einde aan zijn leven te maken, in een virtuele realiteit terecht zou kunnen komen. Character.AI zegt dat het bescherming gaat toevoegen die specifiek gericht is op seksuele content en zelfbeschadigend gedrag.

Meer buitenlands nieuws

Australië strijdt over puberteitsremmers

De Australische staat Queensland stelde op 28 januari een verbod in. Nieuwe minderjarigen met genderdysforie mochten niet langer behandeld worden met puberteitsremmers en cross-sex geslachtshormonen,

Genderwetgeving in de VS

In de Amerikaanse staat Kansas stemden Republikeinse wetgevers op 18 februari om het veto van Democratische gouverneur Laura Kelly op een wetsvoorstel dat gendermedicalisering van minderjarigen verbiedt,

Canadees onderzoek bevestigt Cass-report

Twee nieuwe onderzoeken van de Canadese McMaster University hebben de resultaten van het Cass-onderzoek bevestigd. Het gerenommeerde instituut kan geen bewijs van effectiviteit vinden voor

Argentinië verbiedt gendermedicatie

President Javier Milei  van Argentinië, heeft op 6 februari het besluit getekend om geslachtsveranderende medicatie voor jeugdigen te verbieden, aldus Gender Clinic News. Afgelopen maand