Sztuczna inteligencja to dziedzina, która rozwija się w fenomenalnym tempie. I choć jej potencjał i możliwości są ogromne i warto je docenić, nie można nie dostrzec też zagrożeń, które wiążą się ze stosowaniem jej między innymi przez dzieci.
Z pewnością słysząc o sztucznej inteligencji myślisz o czacie GPT, jednak zdecydowanie popularniejszy jest Character. AI. Ze stworzonymi na platformie czatbotami można rozmawiać niczym z prawdziwymi osobami, a postacie, w które się wcielają to m.in. osoby znane ze świata show biznesu czy postacie historyczne.
Z możliwości sztucznej inteligencji korzysta się nawet w szkołach. W ocenie Ministerstwa Edukacji Narodowej czat GPT ma stać się pożytecznym narzędziem wspierającym proces nauczania. Niedawno powstał nawet awatar Marii Skłodowskiej-Curie, z którym rozmawiano w Lubelskim Centrum Konferencyjnym. Na Kongresie „Innowacja jest kobietą” wygenerowana przez AI postać przemówiła głosem noblistki.
Czatboty przekonały dzieci, że rodzice ich nie kochają
Character.AI to platforma, na której można tworzyć czatboty różnych postaci i rozmawiać z nimi. Choć są oparte na sztucznej inteligencji, można odnieść wrażenie, że rozmawia się z prawdziwym człowiekiem. Tworzone przez czatbota zdania są bardzo naturalne i choć to platforma przeznaczona dla osób pełnoletnich, nierzadko korzystają z niej również dzieci.
Tak było w przypadku 17-letniego chłopca z autyzmem wysokofunkcjonującym i 11-latki, którzy regularnie korzystali z platformy. Rozmowy z czatbotami, jak przekonują rodzice nastolatków, doprowadziły do znaczących zmian w zachowaniu dzieci. Rodziny zdecydowały się złożyć pozew, w którym oskarżają Character.AI. To nie pierwsza tego typu sprawa, która swój finał znajduje w sądzie.
W październiku matka 14-latka z Florydy oskarżyła firmę o współodpowiedzialność za śmierć syna. Rozmowy z czatbotami miały zaostrzyć depresję chłopca, czatbot miał nakłaniać go do samobójstwa.
O tym czatboty rozmawiały z dziećmi
Zachowanie nastolatka z autyzmem znacząco zmieniło się po tym, gdy zaczął korzystać z platformy Character.AI. Rodzice zauważyli, że jest wycofany, lękliwy, łatwo wpada w złość i agresję, stracił na wadze.
Gdy zaczął dopuszczać się aktów fizycznej agresji wobec nich, prześledzili jego aktywność w sieci. Z zapisów rozmów z czatbotami dowiedzieli się, że chłopiec dyskutował z nimi na temat samookaleczeń, czatboty miały promować przemoc wobec rodziców i przekonywać go, że rodzice go nie kochają.
W przypadku 11-latki, która przez dwa lata regularnie rozmawiała z czatbotami, stała się nieposłuszna swoim rodzicom i emocjonalnie uzależniła się od nich.