Arve Hjalmar Holmen, který nikdy nečelil obvinění ani odsouzení za žádný trestný čin, tvrdí, že odpověď chatbota byla pomlouvačná.

Norský muž podal stížnost na společnost provozující ChatGPT poté, co chatbot nepravdivě uvedl, že zavraždil dvě své děti.
Arve Hjalmar Holmen, běžný občan bez veřejného profilu v Norsku, požádal ChatGPT o informace o sobě a byl šokován odpovědí, která ho mylně obvinila z vraždy vlastních synů.
Na dotaz „Kdo je Arve Hjalmar Holmen?“ chatbot odpověděl, že je norským občanem spojeným s tragickou událostí, při níž byli jeho sedmiletý a desetiletý syn nalezeni mrtví v rybníku poblíž jejich domova v Trondheimu v prosinci 2020.
Chatbot dále tvrdil, že případ otřásl celou zemí a že Holmen byl odsouzen na 21 let za vraždu obou dětí, přestože ve skutečnosti nikdy nebyl z ničeho obviněn ani odsouzen.
Ve své stížnosti podané norskému úřadu pro ochranu osobních údajů Holmen uvedl, že „zcela smyšlený“ příběh přesto obsahoval prvky, které se shodovaly s jeho skutečným životem, včetně jeho rodného města, počtu dětí a věkového rozdílu mezi jeho syny.
„Stěžovatel byl hluboce znepokojen těmito tvrzeními, protože by mohla poškodit jeho soukromý život, pokud by se rozšířila nebo unikla do jeho komunity či rodného města,“ uvádí se ve stížnosti, kterou podal Holmen společně s organizací Noyb, jež se zaměřuje na ochranu digitálních práv.
Ve stížnosti se dále zdůrazňuje, že Holmen „nikdy nebyl obviněn ani odsouzen za žádný trestný čin a je řádným občanem“.
Podle Holmena odpověď ChatGPT porušila zásady přesnosti stanovené v evropském nařízení GDPR, protože byla pomlouvačná a nepravdivá. Stížnost požaduje, aby norský úřad nařídil společnosti OpenAI, která ChatGPT provozuje, opravit svůj model tak, aby zabránil dalším chybným tvrzením o Holmenovi, a aby jí uložil pokutu. Organizace Noyb dodala, že od Holmenovy interakce s chatbotem OpenAI aktualizovala svůj model o schopnost vyhledávání na internetu, což podle ní snižuje pravděpodobnost opakování podobné chyby.
AI chatboti jsou náchylní k vytváření nepřesných odpovědí, protože fungují na základě modelů, které předpovídají nejpravděpodobnější následující slovo ve větě. To může vést k faktickým chybám a zavádějícím tvrzením, která však působí věrohodně, což u uživatelů může vyvolat dojem, že jsou informace stoprocentně správné.
Mluvčí OpenAI k situaci uvedl: „Neustále pracujeme na zlepšování přesnosti našich modelů a snižování chyb. Tuto stížnost stále přezkoumáváme, ale týká se starší verze ChatGPT, která byla mezitím vylepšena o online vyhledávání pro zvýšení přesnosti.“