Maminka může pokračovat v soudním řízení proti firmě AI Chatbot Ona je odpovědná za smrt Son | Věda, klima a technické zprávy

Matka čtrnáctiletého chlapce, která tvrdí, že si vzal svůj vlastní život poté, co se stal posedlým chatboty umělé inteligence, může pokračovat ve svém právním případě proti společnosti za technologií, rozhodl soudce.
„Toto rozhodnutí je skutečně historické,“ řekl Meetali Jain, ředitel projektu Law Law Law Law Project, který podporuje případ rodiny.
„Posílá jasný signál (AI) společnostem (…), že se nemohou vyhnout právním důsledkům pro poškození jejich produktů v reálném světě,“ uvedla ve svém prohlášení.
VAROVÁNÍ: Tento článek obsahuje některé podrobnosti, které čtenáři mohou považovat za zoufalé nebo spuštění
Megan Garcia, matka Sewell Setzer III, tvrdí, že postava.ai zacílila svého syna „antropomorfním, hypersexualizovaným a děsivě realistickým zážitkem“ v soudním řízení podaném na Floridě.
„Nebezpečná aplikace AI Chatbot prodávaná pro děti zneužívané a kořisti na mém synovi a manipulovala s ním, aby si vzal svůj vlastní život,“ řekla paní Garcia.
Sewell se zastřelil pistolí svého otce v únoru 2024, sekundy poté, co se zeptal Chatbota: „Co když právě teď přijdu domů?“
Chatbot odpověděl: „… prosím, můj milý králi.“
V rozhodování o nadřízeném soudce Anne Conwayová v USA popsala, jak Sewell se stal „závislým“ na aplikaci Během několika měsíců od jeho použití, opuštění jeho basketbalového týmu a stažení.
Obzvláště byl závislý na dvou chatbotech založených na postavách Game of Thrones, Daenerys Targaryen a Rhaenyra Targaryen.
„(I) n nedatovaný záznam v časopise napsal, že nemohl jít ani jeden den, aniž by byl s (Daenerys Targaryen postava), s nímž se cítil, jako by se zamiloval; že když byli od sebe pryč od sebe (on i Bot)„ byli opravdu depresivní a zbláznili “,“ napsala soudce ve svém rozhodnutí.
Paní Garcia, která pracuje s právním střediskem projektu technických spravedlnosti a právním střediskem obětí sociálních médií, tvrdí, že charakter.ai „věděl“ nebo „měl by vědět“, že jeho model “by byl škodlivý pro významný počet svých nezletilých zákazníků“.
Případ drží charakter.ai, jeho zakladatelé a Google, kde zakladatelé začali pracovat na modelu, odpovědný za smrt Sewell.
Paní Garcia zahájila řízení proti oběma společnostem v říjnu.
Mluvčí postavy.ai uvedl, že společnost bude i nadále bojovat proti případu a na své platformě zaměstnává bezpečnostní prvky na ochranu nezletilých, včetně opatření k prevenci „rozhovorů o sebepoškozování“.
Mluvčí Google uvedl, že společnost s rozhodnutím silně nesouhlasí. Dodali, že Google a Character.ai jsou „zcela oddělené“ a že Google „nevytvořil, nenavrhl ani nepravoval charakter.aiho aplikaci nebo jeho součást součásti“.
Obhájce právníků, kteří se pokusili tvrdit, že případ by měl být vyhozen, protože chatboti si zaslouží ochranu prvního pozměňovacího návrhu a rozhodnutí by jinak mohlo mít „chladivý účinek“ na průmysl AI.
Soudce Conway toto tvrzení odmítl a uvedl, že „nebyla připravena“, aby se domnívala, že výstup chatbotů představuje řeč „v této fázi“, ačkoli ona souhlasila s charakterem.ai Uživatelé měli právo na „projev“ chatbotů.
Každý, kdo se cítí emocionálně zoufalý nebo sebevražedný, může zavolat Samaritans o pomoc na 116 123 nebo e -mailem jo@samaritans.org ve Velké Británii. V USA zavolejte na pobočku Samaritans ve vaší oblasti nebo 1 (800) 273-Talk.
Source link