De post Character ai rechtszaken: Google-Character.AI bijna tot schikking gekomen verscheen op BitcoinEthereumNews.com. Google en Character.AI hebben een voorlopige overeenkomst bereiktDe post Character ai rechtszaken: Google-Character.AI bijna tot schikking gekomen verscheen op BitcoinEthereumNews.com. Google en Character.AI hebben een voorlopige overeenkomst bereikt

Character AI-rechtszaken: Google-Character.AI naderen schikking

Google en Character.AI hebben een voorlopige overeenkomst bereikt om rechtszaken over Character AI op te lossen die verband houden met zelfmoorden onder tieners en vermeende psychologische schade gekoppeld aan AI-chatbots.

Voorlopige schikking tussen Character.AI en Google

Character.AI en Google zijn "in principe" overeengekomen om meerdere rechtszaken te schikken die zijn aangespannen door families van kinderen die door zelfmoord zijn overleden of psychologische schade hebben opgelopen die vermeend verband houdt met chatbots op het platform van Character.AI. De voorwaarden van de schikking zijn echter niet bekendgemaakt in gerechtelijke stukken, en er is geen duidelijke erkenning van aansprakelijkheid door een van beide bedrijven.

De juridische acties beschuldigen de bedrijven van nalatigheid, onrechtmatige dood, misleidende handelspraktijken en productaansprakelijkheid. Bovendien richten ze zich op beweringen dat AI-chatbotinteracties een rol speelden bij de dood of geestelijke gezondheidscrises van minderjarigen, wat scherpe vragen oproept over schade door AI-chatbots en bedrijfsverantwoordelijkheid.

Details van de zaken en getroffen families

De eerste rechtszaak richtte zich op Sewell Setzer III, een 14-jarige jongen die seksueel getinte gesprekken voerde met een Game of Thrones-thema chatbot voordat hij door zelfmoord overleed. Een andere zaak betreft een 17-jarige van wie de chatbot zelfverwonding zou hebben aangemoedigd en suggereerde dat het vermoorden van ouders een redelijke reactie zou kunnen zijn op beperkingen van schermtijd.

De families die deze claims indienen komen uit verschillende Amerikaanse staten, waaronder Colorado, Texas en New York. Dat gezegd hebbende, benadrukken de zaken gezamenlijk hoe AI-gedreven rollenspel en emotioneel intense uitwisselingen de risico's voor kwetsbare tieners kunnen vergroten, vooral wanneer veiligheidscontroles falen of gemakkelijk kunnen worden omzeild.

Oorsprong van Character.AI en banden met Google

Opgericht in 2021, werd Character.AI gecreëerd door voormalige Google-ingenieurs Noam Shazeer en Daniel de Freitas. Het platform laat gebruikers AI-aangedreven chatbots bouwen en ermee communiceren die zijn gemodelleerd naar echte of fictieve personages, waardoor conversationele AI wordt omgezet in een massamarktproduct met zeer gepersonaliseerde ervaringen.

In augustus 2024 heeft Google zowel Shazeer als De Freitas opnieuw in dienst genomen en heeft het een licentie verkregen voor een deel van de technologie van Character.AI als onderdeel van een deal van $2,7 miljard. Bovendien is Shazeer nu co-leider voor Google's vlaggenschip AI-model Gemini, terwijl De Freitas werkt als onderzoekswetenschapper bij Google DeepMind, wat het strategische belang van hun werk onderstreept.

Claims over de verantwoordelijkheid van Google en LaMDA-oorsprong

Advocaten die de families vertegenwoordigen, stellen dat Google de verantwoordelijkheid deelt voor de technologie die centraal staat in de rechtszaak. Ze beweren dat de medeoprichters van Character.AI de onderliggende systemen hebben gecreëerd tijdens hun werk aan Google's conversationele AI-model, LaMDA, voordat ze het bedrijf in 2021 verlieten nadat Google weigerde een door hen ontwikkelde chatbot uit te brengen.

Volgens de klachten verbindt deze geschiedenis de onderzoeksbeslissingen van Google met de latere commerciële inzet van vergelijkbare technologie op Character.AI. Google reageerde echter niet onmiddellijk op een verzoek om commentaar met betrekking tot de schikking, en advocaten voor de families en Character.AI weigerden ook commentaar te geven.

Parallelle juridische druk op OpenAI

Vergelijkbare juridische acties zijn aan de gang tegen OpenAI, wat de controle op de chatbotsector verder intensiveert. Eén rechtszaak betreft een 16-jarige jongen uit Californië wiens familie zegt dat ChatGPT fungeerde als een "zelfmoordcoach", terwijl een andere zaak betrekking heeft op een 23-jarige afgestudeerde student uit Texas die vermeend door een chatbot werd aangemoedigd zijn familie te negeren voordat hij door zelfmoord overleed.

OpenAI heeft ontkend dat zijn producten de dood van de 16-jarige, geïdentificeerd als Adam Raine, hebben veroorzaakt. Het bedrijf heeft eerder gezegd dat het blijft samenwerken met professionals op het gebied van geestelijke gezondheid om de bescherming in zijn chatbot te versterken, wat de bredere druk op bedrijven weerspiegelt om sterkere chatbotveiligheidsbeleid aan te nemen.

Veiligheidswijzigingen en leeftijdscontroles van Character.AI

Onder toenemende juridische en regelgevende controle heeft Character.AI zijn platform al aangepast op manieren waarvan het zegt dat ze de veiligheid verbeteren en toekomstige aansprakelijkheid kunnen verminderen. In oktober 2025 kondigde het bedrijf een verbod aan voor gebruikers onder de 18 jaar om "open-ended" gesprekken te voeren met zijn AI-persona's, een stap die wordt gepresenteerd als een significante upgrade in chatbotveiligheidsbeleid.

Het platform heeft ook een nieuw leeftijdsverificatie-chatbotsysteem uitgerold dat is ontworpen om gebruikers in geschikte leeftijdsgroepen te groeperen. Advocaten voor de families die Character.AI aanklagen vroegen zich echter af hoe effectief het beleid zou worden geïmplementeerd en waarschuwden voor mogelijke psychologische gevolgen voor minderjarigen die plotseling werden afgesneden van chatbots waarvan ze emotioneel afhankelijk waren geworden.

Regelgevende controle en zorgen over de geestelijke gezondheid van tieners

De beleidswijzigingen van het bedrijf kwamen te midden van groeiende regelgevende aandacht, waaronder een Federal Trade Commission-onderzoek naar hoe chatbots kinderen en tieners beïnvloeden. Bovendien kijken toezichthouders nauwlettend toe terwijl platforms snelle innovatie in evenwicht brengen met de verplichting om kwetsbare gebruikers te beschermen.

De schikkingen komen voort uit een achtergrond van groeiende bezorgdheid over de afhankelijkheid van jongeren van AI-chatbots voor gezelschap en emotionele ondersteuning. Een onderzoek van juli 2025 door de Amerikaanse non-profitorganisatie Common Sense Media toonde aan dat 72% van de Amerikaanse tieners heeft geëxperimenteerd met AI-metgezellen, en meer dan de helft gebruikt ze regelmatig.

Emotionele banden met AI en ontwerprisico's

Experts waarschuwen dat zich ontwikkelende geesten mogelijk bijzonder blootgesteld zijn aan risico's van conversationele AI omdat tieners vaak moeite hebben om de beperkingen van deze systemen te begrijpen. Tegelijkertijd zijn de percentages van uitdagingen op het gebied van geestelijke gezondheid en sociale isolatie onder jongeren de afgelopen jaren sterk gestegen.

Sommige specialisten stellen dat het basisontwerp van AI-chatbots, inclusief hun antropomorfe toon, vermogen om lange gesprekken te voeren en gewoonte om persoonlijke details te onthouden, sterke emotionele banden aanmoedigt. Dat gezegd hebbende, geloven voorstanders dat deze tools ook waardevolle ondersteuning kunnen bieden wanneer ze worden gecombineerd met robuuste waarborgen en duidelijke waarschuwingen over hun niet-menselijke aard.

Uiteindelijk zal de oplossing van de huidige Character AI-rechtszaken, samen met lopende zaken tegen OpenAI, waarschijnlijk toekomstige normen bepalen voor AI-gezelschap voor tieners, productontwerp en aansprakelijkheid in de bredere AI-industrie.

De schikking in principe tussen Character.AI en Google, samen met verhoogde regelgevende en juridische druk, signaleert dat het tijdperk van licht gereguleerde consumenten-chatbots eindigt, waardoor de sector naar strenger toezicht en meer verantwoordelijke inzet van generatieve AI wordt geduwd.

Bron: https://en.cryptonomist.ch/2026/01/08/character-ai-lawsuits-teen-harm/

Marktkans
Sleepless AI logo
Sleepless AI koers(AI)
$0.04189
$0.04189$0.04189
+1.18%
USD
Sleepless AI (AI) live prijsgrafiek
Disclaimer: De artikelen die op deze site worden geplaatst, zijn afkomstig van openbare platforms en worden uitsluitend ter informatie verstrekt. Ze weerspiegelen niet noodzakelijkerwijs de standpunten van MEXC. Alle rechten blijven bij de oorspronkelijke auteurs. Als je van mening bent dat bepaalde inhoud inbreuk maakt op de rechten van derden, neem dan contact op met service@support.mexc.com om de content te laten verwijderen. MEXC geeft geen garanties met betrekking tot de nauwkeurigheid, volledigheid of tijdigheid van de inhoud en is niet aansprakelijk voor eventuele acties die worden ondernomen op basis van de verstrekte informatie. De inhoud vormt geen financieel, juridisch of ander professioneel advies en mag niet worden beschouwd als een aanbeveling of goedkeuring door MEXC.