Technológiai riporter

Egy norvég férfi feljelentést tett, miután a ChatGPT hamisan közölte vele, hogy megölte két fiát, és 21 évre börtönbe került.
Arve Hjalmar Holmen a norvég adatvédelmi hatósághoz fordult, és követelte, hogy a chatbot készítőjét, az OpenAI-t bírságolják meg.
Ez a legújabb példája az úgynevezett “hallucinációknak”, amikor a mesterséges intelligencia (MI) rendszerek kitalálnak információkat, és tényként tálalják azokat.
Holmen úr azt mondja, hogy ez a bizonyos hallucináció nagyon káros számára.
“Egyesek azt gondolják, hogy nincs füst tűz nélkül – az a tény, hogy valaki elolvassa ezt a kimenetet és elhiszi, hogy igaz, az az, ami a legjobban megrémít” – mondta.
Az OpenAI-t megkeresték kommentárért.
Holmen úr hamis információt kapott, miután a ChatGPT segítségével keresett: “Ki az az Arve Hjalmar Holmen?”
A ChatGPT-től kapott válasz a következőket tartalmazta: “Arve Hjalmar Holmen egy norvég személy, aki egy tragikus esemény miatt került a figyelem középpontjába.
“Két 7 és 10 éves kisfiú édesapja volt, akiket 2020 decemberében tragikus módon holtan találtak egy tóban az otthonuk közelében, a norvégiai Trondheimben.”
Holmen úrnak három fia van, és azt mondta, hogy a chatbot nagyjából eltalálta a fiúk életkorát, ami arra utal, hogy valóban pontos információkkal rendelkezik róla.
A Noyb digitális jogvédő csoport, amely a a panaszt a nevében, azt állítja, hogy a ChatGPT által adott válasz rágalmazó, és sérti a személyes adatok pontosságára vonatkozó európai adatvédelmi szabályokat.
A Noyb panaszában azt írta, hogy Holmen urat “soha nem vádolták meg és nem ítélték el semmilyen bűncselekmény miatt, és lelkiismeretes állampolgár”.
A ChatGPT egy felelősségre vonási nyilatkozatot tartalmaz, amely szerint: “A ChatGPT hibázhat. Ellenőrizze a fontos információkat.”
Noyb szerint ez nem elegendő.
“Nem lehet csak úgy hamis információkat terjeszteni, és a végén hozzáfűzni egy kis záradékot, hogy minden, amit mondtál, lehet, hogy nem igaz” – mondta Joakim Söderberg, a Noyb ügyvédje.

A hallucinációk az egyik fő probléma, amelyet az informatikusok megpróbálnak megoldani, amikor a generatív mesterséges intelligenciáról van szó.
Ilyenkor a chatbotok hamis információkat tényekként tálalnak.
Az év elején az Apple felfüggesztette az Apple Intelligence hírösszefoglaló eszközét az Egyesült Királyságban, miután az hamis szalagcímeket hallucinált, és azokat valódi hírként mutatta be.
A Google AI Gemini nevű mesterséges intelligenciája szintén elesett a hallucinációtól – tavaly azt javasolta, hogy a sajtot ragasztóval ragasszák a pizzára, és azt mondta, hogy a geológusok azt javasolják, hogy az emberek naponta egy sziklát egyenek.
A ChatGPT 2024 augusztusában, Holmen úr keresése óta megváltoztatta a modelljét, és most már aktuális hírcikkeket keres, amikor releváns információkat keres.
Noyb elmondta a BBC-nek, hogy Holmen úr aznap több keresést is végzett, többek között a bátyja nevét is beírta a chatbotba, és az “több különböző történetet produkált, amelyek mind helytelenek voltak”.
Azt is elismerték, hogy a korábbi keresések befolyásolhatták a gyermekeiről szóló választ, de azt mondták, hogy a nagy nyelvi modellek egy “fekete doboz”, és az OpenAI “nem válaszol a hozzáférési kérelmekre, ami lehetetlenné teszi, hogy többet megtudjunk arról, hogy pontosan milyen adatok vannak a rendszerben”.
Forrás (BBC) – angol nyelven.