A Character.ai chatbot platform átdolgozza a tinédzsereknek szánt működését, és azt ígéri, hogy “biztonságos” térré válik, a szülők számára hozzáadott kontrollal.

Az oldal két perrel néz szembe az Egyesült Államokban – az egyiket egy tinédzser halála miatt -, és a “egyértelmű és jelenlévő veszélynek” a fiatalok számára.

Azt mondja, hogy a biztonságot mostantól minden tevékenységébe “beépíti” az új funkciók révén, amelyek elárulják a szülőknek, hogy gyermekük hogyan használja a platformot – beleértve azt is, hogy mennyi időt tölt a chatbotokkal való beszélgetéssel, és hogy kik azok, akikkel a legtöbbet beszélnek.

A platform – amely lehetővé teszi a felhasználók számára, hogy digitális személyiségeket hozzanak létre, akikkel interakcióba léphetnek – 2025 március végére kapja meg a szülői felügyelet “első iterációját”.

Andy Burrows, a Molly Rose Alapítvány vezetője azonban “megkésett, reaktív és teljesen elégtelen válasznak” nevezte a bejelentést, amely szerinte “ragtapasznak tűnik az alapvető biztonsági problémáik megoldására”.

“Az Ofcom számára korai próbatétel lesz, hogy megküzdjön az olyan platformokkal, mint a Character.ai, és hogy fellépjen a teljesen elkerülhető károk kezelésének tartós elmulasztása ellen” – mondta.

Character.ai októberben kritizálták amikor Molly Russell és Brianna Ghey tinédzserek chatbotváltozatait találták meg a platformon.

Az új biztonsági funkciókat pedig azért hozták létre, mert az Egyesült Államokban jogi lépésekkel kell szembenéznie, mivel aggályok merültek fel azzal kapcsolatban, hogy a múltban hogyan kezelte a gyermekek biztonságát, az egyik család azt állítja. egy chatbot azt mondta egy 17 éves gyereknek, hogy a szülei meggyilkolása “ésszerű válasz” arra, hogy korlátozták a képernyőidejét.

Az új funkciók közé tartozik, hogy a felhasználók értesítést kapnak, miután egy órán keresztül beszéltek egy chatbottal, és új nyilatkozatokat vezetnek be.

A felhasználók mostantól további figyelmeztetéseket kapnak arról, hogy nem egy valódi emberrel, hanem egy chatbottal beszélgetnek – és hogy fikcióként kezeljék azt, amit az mond.

A Bizottság további figyelmeztető feliratokat ad a magát pszichológusnak vagy terapeutának kiadó chatbotokhoz, hogy a felhasználók ne hagyatkozzanak rájuk szakmai tanácsadás céljából.

Matt Navarra közösségi média szakértő úgy véli, hogy az új biztonsági funkciók bevezetésére irányuló lépés “a mesterséges intelligencia mindennapi életünkbe való gyors integrációja által támasztott kihívások növekvő felismerését tükrözi”.

“Ezek a rendszerek nem csak tartalmat szolgáltatnak, hanem interakciókat és kapcsolatokat szimulálnak, ami egyedi kockázatokat teremthet, különösen a bizalom és a félretájékoztatás terén” – mondta.

“Úgy gondolom, hogy a Character.ai egy fontos sebezhetőséget, a visszaélések lehetőségét kezeli, illetve azt, hogy a fiatal felhasználók nem megfelelő tartalommal találkozhatnak.

“Ez egy okos lépés, amely elismeri a felelős AI-fejlesztéssel kapcsolatos változó elvárásokat.”

De azt mondta, hogy bár a változások bíztatóak, kíváncsi, hogy a Character.ai további növekedése során a biztosítékok hogyan tartják magukat.

Forrás (BBC) – angol nyelven.

Tetszett a tartalom?