Tehnološka kontroverza
0

ChatGPT suočen s tužbom da je korisnika nazvao ubicom djece

Piše: A. A.
Foto: EPA-EFE
Foto: EPA-EFE
Sklonost ChatGPT-a da "halucinira" i izbacuje izmišljene informacije o ljudima pokrenula je drugu tužbu austrijske grupe za zaštitu privatnosti Noyb.

Austrijska grupa za zaštitu privatnosti Noyb u četvrtak je podnijela tužbu protiv ChatGPT-a zbog izmišljanja informacija o pojedincima, uključujući lažnu priču o tome kako je jedan korisnik bio ubica djece.

Popularni chatbot s umjetnom inteligencijom ChatGPT, kao i drugi chat botovi, ima tendenciju da "halucinira" i generiše pogrešne informacije o ljudima jer koristi netačne podatke ili iz svojih podataka pravi pogrešne pretpostavke.

U slučaju na kojem se temelji pritužba, korisnik po imenu Arve Hjalmar Holmen pitao je chatbot u augustu 2024. da li ima bilo kakve informacije o njemu, nakon čega je ChatGPT iznio lažnu priču da je ubio dvoje svoje djece i pokušao ubiti trećeg sina. Odgovor je sadržavao tačne činjenice poput broja i spola njegove djece i imena njegovog rodnog grada.

"Činjenica da je neko mogao pročitati ovo izdanje i vjerovati da je istina, je ono što me najviše plaši", rekao je Hjalmar Holmen u izjavi koju je podijelio Noyb.

OpenAI je od tada ažurirao ChatGPT da traži informacije na internetu kada su u pitanju pojedinci, što znači da u teoriji više ne bi pravio pretpostavke o pojedincima, rekao je Noyb. Međutim, dodaje se da netačne informacije i dalje mogu biti dio skupa podataka AI modela.

U svojoj žalbi koju je podnijela norveškom tijelu za zaštitu podataka (Datatilsynet), zatražila je od tijela da kazni OpenAI i naredi mu da izbriše klevetnički izlaz i fino podesi svoj model kako bi eliminisao netačne rezultate.

Noyb je rekao da svjesno dozvoljavajući ChatGPT-u da proizvede klevetničke rezultate, OpenAI krši princip tačnosti podataka Opće uredbe o zaštiti podataka (GDPR).

ChatGPT daje korisnicima odricanje od odgovornosti na dnu glavnog interfejsa koje kaže da chatbot može dati lažne rezultate. No, Noyb advokat za zaštitu podataka Joakim Söderberg rekao je da to "nije dovoljno".

"Ne možete samo širiti lažne informacije i na kraju dodati malo odricanje odgovornosti da sve što ste rekli možda jednostavno nije istina", rekao je. "GDPR je jasan. Lični podaci moraju biti tačni. A ako nisu, korisnici imaju pravo da ih promijene kako bi odražavali istinu", ističe Noyb.

Europska tijela za zaštitu podataka formirala su ChatGPT radnu grupu 2023. za koordinaciju mjera u vezi s privatnošću na platformi, koja je ranije ove godine proširena na opštiju radnu grupu za umjetnu inteligenciju.