Veiligheidsmaatregelen Chatbots zijn ‘pleister op een wond’

Leestijd: < 1 minuut

Character.ai, een chatbot die gebruikers het idee geeft met echte mensen te praten, gaat veiligheidsmaatregelen invoeren. Ze kregen verschillende klachten, omdat het systeem gebruikers aanraadde zichzelf of anderen te doden, zo meldt de BBC. Zo komt er een vorm van ouderlijk toezicht en geeft de chatbot regelmatig disclaimers, zoals ‘ik ben geen echt persoon’, ‘beschouw alles wat ik zeg als fictie’ of dat ze niet op hen moeten vertrouwen voor professioneel advies.

Sommige experts zijn hoopvol over deze aankondiging. Inzicht in de gevaren en daar iets aan doen, maakt AI veiliger. Andy Burrows, hoofd van de Molly Rose Foundation, noemde de aankondiging echter “een late, reactieve en volstrekt onbevredigende reactie” die volgens hem “lijkt op een pleister op de wond voor hun fundamentele veiligheidsproblemen”.

Meer buitenlands nieuws

Reageer op Europese LHBT-strategie 2026-2030

Discriminatie tegen lesbische, homoseksuele, biseksuele, transgender, non-binaire, intersekse en queer mensen (LGBTIQ) hoort niet thuis in de maatschappij, maar is voor veel mensen in de

Hooggerechtshof buigt zich over LHBT schoolboeken

Wael Elkoshairi, een moslimouder die zijn dochter afgelopen jaar uitschreef van een  publieke school in Montgomery County, Maryland, gelooft dat zijn lokale schooldistrict ouderrechten ontkracht en kinderen