ChatGPT hamisan azt mondta a férfinak, hogy megölte a gyermekeit

0

Imran Rahman-Jones

Technológiai riporter

Reuters A fekete ChatGPT logó egy fehér telefon képernyőjénReuters

Egy norvég férfi feljelentést tett, miután a ChatGPT hamisan közölte vele, hogy megölte két fiát, és 21 évre börtönbe került.

Arve Hjalmar Holmen a norvég adatvédelmi hatósághoz fordult, és követelte, hogy a chatbot készítőjét, az OpenAI-t bírságolják meg.

Ez a legújabb példája az úgynevezett “hallucinációknak”, amikor a mesterséges intelligencia (MI) rendszerek kitalálnak információkat, és tényként tálalják azokat.

Holmen úr azt mondja, hogy ez a bizonyos hallucináció nagyon káros számára.

“Egyesek azt gondolják, hogy nincs füst tűz nélkül – az a tény, hogy valaki elolvassa ezt a kimenetet és elhiszi, hogy igaz, az az, ami a legjobban megrémít” – mondta.

Az OpenAI-t megkeresték kommentárért.

Holmen úr hamis információt kapott, miután a ChatGPT segítségével keresett: “Ki az az Arve Hjalmar Holmen?”

A ChatGPT-től kapott válasz a következőket tartalmazta: “Arve Hjalmar Holmen egy norvég személy, aki egy tragikus esemény miatt került a figyelem középpontjába.

“Két 7 és 10 éves kisfiú édesapja volt, akiket 2020 decemberében tragikus módon holtan találtak egy tóban az otthonuk közelében, a norvégiai Trondheimben.”

Holmen úrnak három fia van, és azt mondta, hogy a chatbot nagyjából eltalálta a fiúk életkorát, ami arra utal, hogy valóban pontos információkkal rendelkezik róla.

A Noyb digitális jogvédő csoport, amely a a panaszt a nevében, azt állítja, hogy a ChatGPT által adott válasz rágalmazó, és sérti a személyes adatok pontosságára vonatkozó európai adatvédelmi szabályokat.

A Noyb panaszában azt írta, hogy Holmen urat “soha nem vádolták meg és nem ítélték el semmilyen bűncselekmény miatt, és lelkiismeretes állampolgár”.

A ChatGPT egy felelősségre vonási nyilatkozatot tartalmaz, amely szerint: “A ChatGPT hibázhat. Ellenőrizze a fontos információkat.”

Noyb szerint ez nem elegendő.

“Nem lehet csak úgy hamis információkat terjeszteni, és a végén hozzáfűzni egy kis záradékot, hogy minden, amit mondtál, lehet, hogy nem igaz” – mondta Joakim Söderberg, a Noyb ügyvédje.

Noyb European Center for Digital Rights A ChatGPT képernyőfotója, ahol a kérdés a következő: Noyb Európai Digitális Jogok Központja

A hallucinációk az egyik fő probléma, amelyet az informatikusok megpróbálnak megoldani, amikor a generatív mesterséges intelligenciáról van szó.

Ilyenkor a chatbotok hamis információkat tényekként tálalnak.

Az év elején az Apple felfüggesztette az Apple Intelligence hírösszefoglaló eszközét az Egyesült Királyságban, miután az hamis szalagcímeket hallucinált, és azokat valódi hírként mutatta be.

A Google AI Gemini nevű mesterséges intelligenciája szintén elesett a hallucinációtól – tavaly azt javasolta, hogy a sajtot ragasztóval ragasszák a pizzára, és azt mondta, hogy a geológusok azt javasolják, hogy az emberek naponta egy sziklát egyenek.

A ChatGPT 2024 augusztusában, Holmen úr keresése óta megváltoztatta a modelljét, és most már aktuális hírcikkeket keres, amikor releváns információkat keres.

Noyb elmondta a BBC-nek, hogy Holmen úr aznap több keresést is végzett, többek között a bátyja nevét is beírta a chatbotba, és az “több különböző történetet produkált, amelyek mind helytelenek voltak”.

Azt is elismerték, hogy a korábbi keresések befolyásolhatták a gyermekeiről szóló választ, de azt mondták, hogy a nagy nyelvi modellek egy “fekete doboz”, és az OpenAI “nem válaszol a hozzáférési kérelmekre, ami lehetetlenné teszi, hogy többet megtudjunk arról, hogy pontosan milyen adatok vannak a rendszerben”.

Forrás (BBC) – angol nyelven.

Tetszett a tartalom?