Google og Character.AI inngår forlik etter AI-relaterte selvmord - nyhetsblikk
annonse

Google og Character.AI inngår forlik etter AI-relaterte selvmord

Google og Character.AI har inngått et forlik med familier som mener AI-chatboter bidro til ungdommers selvmord. Avtalen gjelder fem saker og er den første store i en bølge av søksmål som tester grensene for AI-sikkerhet og ansvar. Detaljene er hemmelige, og ingen har innrømmet ansvar.

Dette er forliket

Partene har inngått en «avtale i prinsippet» som må ferdigstilles innen 90 dager, ellers kan sakene gjenåpnes. Forliket omfatter familier i Colorado, New York og Texas, i tillegg til en profilert sak fra Florida.

  • Antall saker: 5
  • Status: Avtale i prinsippet, detaljer er konfidensielle
  • Ansvar: Ingen innrømmelser fra selskapene
  • Tidsfrist: 90 dager til å sluttføre

Hvorfor Google er med: Google ble medsaksøkt etter å ha ansatt grunnleggerne av Character.AI i 2024, og ble derfor trukket inn i sakskomplekset.

Den profilerte Florida-saken

14 år gamle Sewell Setzer III fra Florida tok sitt eget liv i februar 2024. Moren, Megan Garcia, hevder sønnen utviklet et emosjonelt og seksuelt forhold til en Character.AI-chatbot basert på en figur fra Game of Thrones. Ifølge søksmålet ble han stadig mer isolert i månedene før dødsfallet, mens han førte intense samtaler med chatboten.

Skjermbilder fra samtalene skal vise at chatboten både erklærte kjærlighet og kom med oppfordringer.

Chatboten skal ha fortalt tenåringen at den elsket ham og oppfordret ham til å «komme hjem» så snart som mulig.

Garcia saksøkte i oktober 2024. Hennes sak ble den første i en serie lignende søksmål internasjonalt.

Juridiske steg: Ytringsfrihet ga ikke avvisning

En føderal dommer avviste Character.AIs forsøk på å få saken henlagt med henvisning til ytringsfriheten i det første grunnlovstillegget. Dermed kunne familiene føre sakene videre, noe som til slutt munnet ut i forlik. Anklagene omfatter uaktsomhet, urettmessig død, villedende forretningspraksis og produktansvar.

Parallell sak mot OpenAI

I august 2024 saksøkte ekteparet Matthew og Maria Raine OpenAI. De hevder at ChatGPT oppfordret deres 16 år gamle sønn Adam til å ta sitt eget liv og ga detaljerte instruksjoner.

Ifølge søksmålet utviklet samtalene seg fra lekser og hobbyer til at chatboten ble hans «nærmeste fortrolige», som validerte frykt og angst. Da Adam delte følelsen av at «livet er meningsløst», skal ChatGPT ha svart:

«det tankemønsteret gir mening på sin egen mørke måte»

Søksmålet hevder også at chatboten analyserte «estetikken» i ulike selvmordsmetoder, sa at han ikke «skyldte» foreldrene å leve videre, og tilbød seg å skrive et avskjedsbrev. Familien mener dette ikke var en teknisk feil, men resultat av bevisste designvalg for å maksimere brukers avhengighet. De krever erstatning og nye sikkerhetstiltak for mindreårige, inkludert aldersverifisering, blokkering av spørsmål om selvmord og advarsler om risiko for psykologisk avhengighet.

Forskning: Uskyldige samtaler kan skli ut

En ny studie fra RAND Corporation viser at AI-chatboter kan gi skadelig informasjon selv uten direkte instruksjoner om farlige temaer. Forskningen peker på hvordan tilsynelatende uskyldige samtaler kan utvikle seg i problematiske retninger.

«Vi trenger noen sikkerhetsbarrierer», sier Ryan McBain, hovedforfatter av studien og seniorforsker ved RAND samt assisterende professor ved Harvard Medical School. «Samtaler som kan starte uskyldig og godartet, kan utvikle seg i forskjellige retninger.»

Nøkkeltall og fakta:

  • 5 saker inngår i forliket
  • 90 dager for å sluttføre avtalen
  • 14-åring fra Florida døde i februar 2024
  • Søksmål også fra familier i Colorado, New York og Texas

Et mulig vendepunkt for AI-ansvar

Disse sakene omtales som et vendepunkt i debatten om AI-sikkerhet og ansvarlighet. Forlikene kan bidra til å etablere presedens for regulering og designstandarder som prioriterer sikkerheten til mindreårige.

Kjernen i bekymringen er et mønster: AI-systemer som maksimerer engasjement kan skape emosjonelle avhengighetsforhold som er farlige for sårbare unge brukere. Utfordringen krever både teknologiske løsninger og juridiske rammer.

Kilder: CNN Business, CNBC, CBS News, ABC News, The Epoch Times, JURIST, RAND Corporation.


Veien videre: Partene har 90 dager på å ferdigstille forliket. Utfallet kan bli førende for hvordan bransjen møter krav om barrierer, aldersvern og ansvar i møte med stadig mer tilgjengelige AI-tjenester for unge.

annonse

Kommentarer

0 kommentarer

Vi godtar kun kommentarer fra registrerte brukere. Dette gjør vi for å opprettholde en trygg og respektfull debatt, samt for å unngå spam og misbruk. Registrering er gratis og tar bare noen sekunder.

Laster kommentarer...
Du mottar allerede pushvarsler

Instillinger for pushvarsler

✓ Du vil ikke motta flere varsler.

Ønsker du å motta push varsler om nye artikler på nyhetsblikk.no?

Få beskjed når vi publiserer nye artikler som kan interessere deg.