Новата алатка на OpenAI злоупотребена за вознемирување на жени: Демнач креира лажни видеа со жртвата
Лансирањето на Sora 2 од OpenAI беше, во најмала рака, крајно хаотично. Кога се појави минатата недела, најновата апликација на компанијата за генерирање видеа од текст веднаш стана хит меѓу корисниците, кои почнаа масовно да создаваат луди и провокативни AI видеа.
Многу од тие видеа прикажуваат препознатливи ликови, како на пример Сунѓер Боб што готви метамфетамин, што природно го отвори прашањето — дали компанијата отворено ги игнорира законите за авторски права.
А додека интернетот се преплавуваше со пародии направени со Sora, меѓу кои и видеа што лажираат снимки од безбедносни камери со Олтман како извршува злосторства, стана невозможно да се игнорира фактот дека оваа технологија може лесно да се злоупотреби за создавање штетни, лажни видеа од луѓе — без нивна дозвола.
За само еден ден, платформата беше злоупотребена: демнач ја искористил Sora за да креира вештачки видеа со позната новинарка, злоупотребувајќи нејзини фотографии и создавајќи стотици профили посветени на неа.

Само 24 часа по премиерата, новинарката Тејлор Лоренз објави дека психопатски демнач веќе користи Sora за да прави лажни видеа со нејзин лик. „Страшно е што вештачката интелигенција ги поттикнува заблудите на мојот демнач,“ напиша таа. Тој ангажирал фотографи за да ја следат, се престорувал во нејзини пријатели и роднини за да собира информации.
Sora 2 ѝ овозможила на Лоренз да ги блокира и избрише неодобрени видеа од апликацијата, но тоа не го спречува демначот однапред да ги преземе и евентуално да ги дистрибуира. Ова ја открива ризичната страна на технолошкиот напредок – еднаш создадено, лажно видео може засекогаш да циркулира. Со тоа што нејзиниот идентитет е засекогаш загрозен.
Длабоките фалсификати (deepfakes) се промовираат во Sora 2 како „Камео“ – карактери кои може да се користат повторно, а се синтетизирани од видеа што ги испраќаш. Можеш да користиш и туѓи ликови – наводно, само со нивна дозвола. Но, безбедносните мерки на OpenAI се покажаат како ненадежни: 1,6% од обидите за правење видеа со голотија или сексуална содржина со вистински луѓе успешно минуваат низ системот.
AI алатките одамна се користат за сексуално вознемирување и јавен срам – од лажни „голотии“ со јавни личности како Тејлор Свифт, до создавање порнографски видеа со жртвите и нивното испраќање до нивни блиски. Видеата стануваат се поубедливи и достапни, а одговорните најчесто не сносат последици. Додека OpenAI ги нарекува овие експерименти „забава“, за многумина тоа претставува трајна траума и загуба на контрола врз сопствениот идентитет.
Доколку сакате добра акција или пак забегани и жестоки случки само за најхрабрите читатели, тогаш посетете го каналот Жестоко. Предупредување: Содржините може да ве вознемират!

Коментирај анонимно