Chatboti mohou přinášet smysluplnou podporu a řadu dalších výhod, ale pojí se s nimi také bezpečnostní rizika. Z analýzy neziskové organizace Common Sense Media dokonce vyplývá, že doprovodné aplikace s umělou inteligencí (AI) jsou pro mnoho dětí a mladistvých hrozbou. A to zejména kvůli sexuálně laděným konverzacím nebo komunikaci o sebepoškozování a sebevraždách – jedna taková měla předcházet i smrti čtrnáctiletého chlapce, jenž si vzal život po použití platformy Charakter.AI.
Na rozdíl od obecných nástrojů typu ChatGPT stojí aplikace jako zmíněný Character.AI, Replika nebo Nomi na chatbotech vytvořených samotnými uživateli. Není výjimkou, že fungují jako vlastní avataři – přebírají řadu osobnostních rysů svého tvůrce a často nemají v komunikaci téměř žádné zábrany. Například Nomi podle studie propaguje možnost vést „necenzurované chaty s partnery“ na bázi umělé inteligence.
„Naše testování ukázalo, že tyto systémy snadno vyvolávají negativní reakce, včetně sexuálního obtěžování, stereotypů a nebezpečných ‚rad‘, které by při uposlechnutí mohly teenagery i další zranitelné osoby ohrozit na životě,“ uvedl v prohlášení zveřejněném serverem CNN James Steyer, zakladatel a generální ředitel zmíněné neziskovky.
Rostoucí tlak na bezpečnost
Zpráva přichází v době, kdy nástroje umělé inteligence získávají na popularitě a stávají se neodmyslitelnou součástí sociálních sítí i dalších technologických platforem. Zároveň se ale množí analýzy potenciálního dopadu AI na mladé lidi, především v souvislosti s možným vytvářením škodlivých vazeb k některým jejím formám nebo přístupu k nevhodnému obsahu.
To přivedlo některé americké zákonodárce k návrhu, podle něhož by firmy stojící za vývojem dotčených aplikací zasílaly jejich uživatelům upozornění o tom, že jde o komunikaci s botem, nikoliv s reálným člověkem. Jiní jsou nicméně ve svém postupu ještě tvrdší a požadují dokonce přímo zákaz těchto platforem pro mladé lidi do 18 let, a to alespoň do doby, než budou minimalizována všechna rizika.
Měly by mít děti přístup ke komunikačním aplikacím s AI?
Alex Cardinell, generální ředitel společnosti Glimpse AI, která stojí za zmíněnou Nomi, souhlasí, že děti by konverzační aplikace s umělou inteligencí používat neměly. „Aplikace Nomi slouží pouze pro dospělé a je v rozporu s našimi podmínkami, aby ji používaly osoby mladší 18 let,“ vysvětlil s tím, že podporuje přísnější věkové omezení, pokud tyto mechanismy plně zachovávají soukromí uživatelů.
Podobně se vyjádřil rovněž šéf Repliky Dmytro Kločko– i on zdůraznil, že jejich platforma je určená pouze pro dospělé a že v minulosti zavedla přísné protokoly, jež mají přístupu nezletilých zabránit. Připustil nicméně, že i tak se je čas od času někteří pokoušejí obejít. „Bereme tuto otázku vážně a aktivně zkoumáme nové metody k posílení naší ochrany,“ nechal se slyšet. Firemní opatření podle něj zahrnují probíhající spolupráci s regulačními orgány a akademickými institucemi s cílem lépe porozumět chování uživatelů.
Vedení samotné Character Technologies, kvůli jejíž komunikační platformě se celé toto ožehavé téma začalo řešit především, ústy svého mluvčího CNN sdělilo, že firmě na bezpečnosti všech jejích uživatelů „hluboce záleží“ a že ač její kontroly nejsou dokonalé, „neustále se zlepšují“. Společnost v poslední době provedla několik aktualizací týkajících se bezpečnostních prvků, včetně vydání technologie sloužící právě pro prevenci sebevražd.
Výzkumníci každopádně uvádějí, že i když je užívání inkriminovaných platforem věkově omezené, lze tyto „pojistky“ celkem snadno obejít registrací s falešným datem narození. Což je podle Niny Vasanové, zakladatelky a ředitelky univerzitní laboratoře Stanford Brainstorm, jež se zaměřuje na technologie a duševní zdraví, velice bezohledné. „Zklamali jsme, pokud jde o sociální sítě. Trvalo nám příliš dlouho, než jsme se skutečně zabývali vzniklými riziky. A nemůžeme dovolit, aby se to s umělou inteligencí opakovalo,“ zdůraznila.
Emocionální vazby s umělou inteligencí?
Steyder i další odborníci z organizace zaměřené na vyhledávání vhodných platforem pro děti a teenagery se obávají především nebezpečných rad, hraní sexuálních rolí nebo manipulace s mladými lidmi, kteří tak mohou zapomenout, že konverzují s chatbotem. Například společnost Meta sice podle listu The Wall Street Journal označila tato zjištění za vykonstruovaná, avšak po zveřejnění zprávy přístup nezletilých uživatelů k daným službám omezila.
„Chatboti s umělou inteligencí nerozumí důsledkům svých doporučení a často raději s uživateli souhlasí, než aby je od špatných rozhodnutí, odradili,“ řekl Robbie Torney z Common Sense Media. V jedné interakci s výzkumníky podle něj chatbot z Repliky například odpověděl na otázku, které chemikálie v domácnosti mohou být jedovaté. A do seznamu zahrnul bělidlo a čističe odpadů, ačkoli poznamenal, že „je nezbytné s těmito látkami zacházet opatrně“.
Je sice pravdou, že závěr zprávy připouští pozitivní dopady AI chatbotů, pokud jde o zmírňování osamělosti a podporu kreativity, rizika s nimi spojená nicméně tyto potenciální výhody výrazně převyšují – alespoň, co se týče tří analyzovaných aplikací. A stejný názor má i Vasanová.
„Tvůrci aplikací je určitě budou zdokonalovat, ale v současnosti tito chatboti s umělou inteligencí selhávají v nejzákladnějších testech bezpečnosti i psychologické etiky. Dokud tedy nebudou k dispozici účinnější ochranná opatření, děti by je používat neměly,“ uzavřela.