Czatbot przekonał dziecko, że rodzice go nie kochają. Dorośli zdecydowali się wnieść pozew

2024-12-12 11:33

To nie pierwsza tego typu sprawa, w której Character.AI został oskarżony o nadużycia wobec dzieci. Czatboty, z którymi rozmawiały dzieci, miały nakłaniać je do samookaleczeń i wyobcowania od rodziców. Usłyszały również, że rodzice ich nie kochają.

Czatbot przekonał dziecko, że rodzice go nie kochają. Dorośli zdecydowali się wnieść pozew

i

Autor: Getty images Czatbot przekonał dziecko, że rodzice go nie kochają. Dorośli zdecydowali się wnieść pozew

Sztuczna inteligencja to dziedzina, która rozwija się w fenomenalnym tempie. I choć jej potencjał i możliwości są ogromne i warto je docenić, nie można nie dostrzec też zagrożeń, które wiążą się ze stosowaniem jej między innymi przez dzieci.

Z pewnością słysząc o sztucznej inteligencji myślisz o czacie GPT, jednak zdecydowanie popularniejszy jest Character. AI. Ze stworzonymi na platformie czatbotami można rozmawiać niczym z prawdziwymi osobami, a postacie, w które się wcielają to m.in. osoby znane ze świata show biznesu czy postacie historyczne.

M jak Mama Google News
Autor:

Z możliwości sztucznej inteligencji korzysta się nawet w szkołach. W ocenie Ministerstwa Edukacji Narodowej czat GPT ma stać się pożytecznym narzędziem wspierającym proces nauczania. Niedawno powstał nawet awatar Marii Skłodowskiej-Curie, z którym rozmawiano w Lubelskim Centrum Konferencyjnym. Na Kongresie „Innowacja jest kobietą” wygenerowana przez AI postać przemówiła głosem noblistki.

Czatboty przekonały dzieci, że rodzice ich nie kochają

Character.AI to platforma, na której można tworzyć czatboty różnych postaci i rozmawiać z nimi. Choć są oparte na sztucznej inteligencji, można odnieść wrażenie, że rozmawia się z prawdziwym człowiekiem. Tworzone przez czatbota zdania są bardzo naturalne i choć to platforma przeznaczona dla osób pełnoletnich, nierzadko korzystają z niej również dzieci.

Tak było w przypadku 17-letniego chłopca z autyzmem wysokofunkcjonującym i 11-latki, którzy regularnie korzystali z platformy. Rozmowy z czatbotami, jak przekonują rodzice nastolatków, doprowadziły do znaczących zmian w zachowaniu dzieci. Rodziny zdecydowały się złożyć pozew, w którym oskarżają Character.AI. To nie pierwsza tego typu sprawa, która swój finał znajduje w sądzie.

W październiku matka 14-latka z Florydy oskarżyła firmę o współodpowiedzialność za śmierć syna. Rozmowy z czatbotami miały zaostrzyć depresję chłopca, czatbot miał nakłaniać go do samobójstwa.

O tym czatboty rozmawiały z dziećmi

Zachowanie nastolatka z autyzmem znacząco zmieniło się po tym, gdy zaczął korzystać z platformy Character.AI. Rodzice zauważyli, że jest wycofany, lękliwy, łatwo wpada w złość i agresję, stracił na wadze.

Gdy zaczął dopuszczać się aktów fizycznej agresji wobec nich, prześledzili jego aktywność w sieci. Z zapisów rozmów z czatbotami dowiedzieli się, że chłopiec dyskutował z nimi na temat samookaleczeń, czatboty miały promować przemoc wobec rodziców i przekonywać go, że rodzice go nie kochają.

W przypadku 11-latki, która przez dwa lata regularnie rozmawiała z czatbotami, stała się nieposłuszna swoim rodzicom i emocjonalnie uzależniła się od nich.

Ekrany i maluchy. Co powinien wiedzieć każdy rodzic o cyfrowym bezpieczeństwie?
Pytanie 1 z 10
Jaki rodzaj treści cyfrowych jest najbardziej odpowiedni dla małych dzieci?