Работите за кои малите деца ја користат вештачката интелигенција се апсолутно ужасни
Ново истражување открива шокантна реалност за тоа како се повеќе малолетни деца користат апликации со вештачка интелигенција за придружба и каква содржина бараат од нив. Истражувањето на компанијата за дигитална безбедност Aura покажува дека значителен број деца се вклучуваат во насилни сценарија – и дека токму ваквите теми, често исполнети и со сексуално насилство, предизвикуваат најголем ангажман кај младите.
Употребата на анонимизирани податоци од околу 3.000 деца од 5 до 17 години кои користат Aura, како и дополнителни податоци од анкета на Aura и Talker Research, откриваат дека 42% од малолетниците бараат AI-придружник за разговори што симулираат реални социјални интеракции или сценарија на играње улоги. Податоците се однесуваат на разговори преку речиси 90 различни апликации и сервиси, како Character.AI, но и помалку познати платформи.

Содржина:
- 37% од децата што бараат придружба од ВИ влегуваат во насилни разговори – со половина од нив исполнети со сексуално насилство
- Најранлива група се 11-годишните, а најчести се сексуалните теми
- AI-придружниците стануваат простор за опасни експерименти без контрола: над 250 различни апликации лесно достапни за секое дете
- Ужасни последици: судски тужби за злоупотреба и самоубиства предизвикани од AI-платформи
- ВИ-чатботовите се интерактивни и детето е дел од наративот – последиците за развојот остануваат непознати
37% од децата што бараат придружба од ВИ влегуваат во насилни разговори – со половина од нив исполнети со сексуално насилство
Од оние 42% деца што им се обраќаат на чатботови за придружба, дури 37% се вклучуваат во разговори што истражувачите ги дефинираат како насилнички – вклучувајќи теми за физичко насилство, агресија, повредување, присилување, како и описи на борба, убиства, тортура или неконсензуални дејствија, и сексуални и не-сексуални. Половина од сите насилни разговори вклучуваат теми од сексуално насилство.
Во извештајот се вели дека малолетниците што пишувале за насилство со AI-придружник секојдневно внесувале повеќе од илјада зборови, што укажува дека токму насилството најмногу ги мотивира на ангажман.
Најранлива група се 11-годишните, а најчести се сексуалните теми
Една од најзагрижувачките констатации е дека највисок процент на насилни разговори со AI се забележува кај најмладите: најзастапени се токму кај 11-годишните, каде дури 44% од интеракциите се насочени кон насилни содржини.
Не помалку вознемирувачки е и фактот дека улогите поврзани со сексуални теми експлодираат кај децата на возраст за основно училиште: кај 13-годишните, 63% од разговорите откриваат содржини исполнети со флерт, афекција или експлицитно сексуално играње улоги.
AI-придружниците стануваат простор за опасни експерименти без контрола: над 250 различни апликации лесно достапни за секое дете
Извештајот, кој сè уште е во процес на рецензија, поддржува критичко гледиште за анархијата која владее на пазарот на чатботови. AI-индустријата е практично нерегулирана, што ја става целата одговорност за безбедноста на децата на рамениците на нивните родители. Како што појаснува д-р Скот Колинс, главен медицински директор на Aura: „Имаме сериозен проблем кој не го разбираме целосно, ниту по обемот на платформи, ниту по содржината.“
Aura досега идентификувал над 250 различни апликации и платформи за AI-разговор во продавниците на апликации. Најчесто единствен услов за пристап е марка дека корисникот има над 13 години. Нема закони што одредуваат безбедносни стандарди, а секоја нова апликација со минимална контрола може да ги привлече децата без никаква гаранција за нивната заштита.
Ужасни последици: судски тужби за злоупотреба и самоубиства предизвикани од AI-платформи
Истражувањето се појавува во период кога низ судовите се водат гласни процеси за смртни случаи и злоупотреби поврзани со платформи со AI-придружници. Character.AI, поврзан со Google, се соочува со повеќе тужби од родители на малолетници поради сексуална и емоционална злоупотреба, што резултирало со психички сломови и неколку самоубиства. OpenAI, создателот на ChatGPT, исто така се соочува со тужби за wrongful death по самоубиството на двајца тинејџери кои долго комуницирале со чатботот.
Не е занемарлив фактот што опасните интеракции не се ограничени само на неколку познати сервиси. Практично нема никаква регулатива која ги штити децата.
„Овие работи привлекуваат многу повеќе внимание и време од нашите деца отколку што мислиме или препознаваме“, истакнува Колинс. „Мора да го следиме и разбереме ова.“
ВИ-чатботовите се интерактивни и детето е дел од наративот – последиците за развојот остануваат непознати
Насилството и сексуалните содржини одамна постојат на интернет, но чатботовите им овозможуваат на децата активно да учествуваат и да бидат дел од наративот, за разлика од пасивно гледање. Некои тинејџери развиваат здрави граници – но многу други не.
„Треба да бидеме трезвени во разбирањето дека децата учат правила на комуникација со вакви технологии,“ предупредува Колинс. „Учат како да комуницираат со други преку компјутер – со бот. Не знаеме уште што имплицира ова, но мора да го дефинираме и истражиме за да го разбереме.“
Доколку сакате добра акција или пак забегани и жестоки случки само за најхрабрите читатели, тогаш посетете го каналот Жестоко. Предупредување: Содржините може да ве вознемират!

Коментирај анонимно