Terapeutul descoperă AI Deepfakes folosind asemănarea ei pentru a vinde produse – „Ce pot face?”

Cu cât se extind mai multe capacități AI, cu atât devine mai clar că tehnologia nu este pregătită pentru primetime, într -un mod care este potențial periculos. Lipsa noastră totală de legi care guvernează utilizarea sa a lăsat practic toți cei care stăm să stăm rațe pentru lucruri precum ceea ce s -a întâmplat cu un creator de pe Tiktok, care a descoperit că asemănarea ei a fost furată și că nu poate face un lucru pe care îl poate face.

Un terapeut a descoperit un AI Deepfake despre asemănarea ei folosită pentru reclame de pe Tiktok.

AI Deepfakes nu sunt nimic nou, desigur, iar celebritățile sunt supuse acestui tip de fraudă de ani buni. Dar în aceste zile, tehnologia a devenit atât de simplă și accesibilă pentru utilizatorii de zi cu zi, încât se pare că acum suntem într -un loc în care oricare dintre noi care ne -am pus vreodată fețele online sunt în pericol real. CAZUL CĂTRE: Creatorul Tiktok și.

Jess creează sănătate mintală și conținut politic, are o audiență mare de peste 500.000 de adepți și merge în mod regulat viral în aplicație. Este exact genul de creator pe care multe mărci le -ar plăcea să -l folosească și a descoperit recent că unul a făcut acest lucru fără consimțământul ei.

CITESTE SI:  Procentul de adulți care aleg în mod activ să nu se spele pe mâini este destul de preocupant

Imaginează -ți șocul de a derula o aplicație și de a te vedea brusc făcând un anunț la care nu ai filmat sau ai fost de acord. „Tocmai am derulat pe această aplicație și am văzut un videoclip … și am fost eu, dar nu am fost eu”, a spus Jess într -un videoclip despre incident. „Sunt foarte sigur că a fost AI.” Ea a spus că anunțul a fost supranumit într -o altă limbă, iar asemănarea ei a fost modificată pentru a apărea ca și cum ar fi rostit cuvintele. „Cred că cineva mi -a luat asemănarea și l -a introdus în AI și a creat o reclamă.”

Terapeutul a descoperit apoi mai multe alte conturi i -au furat asemănarea, iar Tiktok nu va face nimic în acest sens.

Ceea ce a făcut situația tot mai înfiorătoare a fost că, atunci când Jess a ieșit din greșeală din Tiktok pentru a înregistra ecranul anunțului, acesta dispăruse când a revenit și nu va veni în rezultatele căutării sau în istoricul ei de ceasuri.

CITESTE SI:  Pediatrul a văzut deja mai multe leziuni legate de ciorapi în acest an. Decorațiunile de Crăciun sunt surprinzător de periculoase.

Tocmai de aceea a postat despre asta – în speranța că unul dintre adepții ei l -ar fi văzut și l -ar fi putut transmite. Acest lucru nu s -a întâmplat, dar adepții ei au alertat -o cu privire la scoruri de conturi care i -au furat conținutul și au fost.

Acest lucru se întâmplă practic la toate conturile mari și care nu sunt. Am câțiva prieteni care au urmări Tiktok foarte mari și sunt urmate de falsurile lor practic zilnic. Dar raportarea lor nu merge nicăieri. Tiktok nu are nici măcar un mecanism pentru raportarea acestor încălcări decât dacă contul în cauză este verificat cu un marcaj.

Cel puțin deocamdată, creatori precum Jess sunt lăsați complet în Lurch și riscă nu doar încălcări de confidențialitate, ci daune extinse la reputația lor. Ce este să împiedici unul dintre acești agenți de publicitate să -și folosească asemănarea pentru a promova ceva dăunător sau chiar ilegal? Răspunsul nu este nimic.

În prezent, nu există legi care să -i protejeze pe oameni de a -și fura asemănarea pentru publicitatea Deepfake.

Fakers au nevoie de doar câteva secunde de videoclip pentru a crea o profunzime nedetectabil de realistă și, potrivit A, se întâmplă cu o frecvență din ce în ce mai alarmantă, chiar și pentru creatorii de social media, cu doar urmări modeste.

Deepfakes sunt folosite pentru orice, de la infracțiuni informatice până la campanii sofisticate de dezinformare politică, cum ar fi cazul unui creator ucrainean care a descoperit un profund al asemănării ei în fața Kremlinului, lăudând președintele rus Vladimir Putin.

Ea, ca și Jess, nu are prea puțin recurs. Există puține legi cu privire la cărți care să se protejeze de această utilizare greșită în SUA, iar majoritatea legilor la nivel de stat care au fost propuse se concentrează doar pe dezinformarea politică și. Legile din alte țări au fost numite insuficiente sau supraalimentare, în funcție de cine ceri.

Și Tiktok a devenit la fel de notoriu pentru că nu a făcut nimic în ceea ce privește furtul de conținut și frauda, ​​în ciuda politicilor de moderare a conținutului, astfel încât draconianul le solicită creatorilor să vorbească în cod care și -a generat propriul lexicon de argou. („Unaliv”, cineva?)

Ceea ce ne readuce la Jess. În imposibilitatea de a face nimic despre asemănarea ei furată, ea și -a îndemnat adepții să fie vigilenți, dar despre ceea ce nu a putut să spună. „Mulți dintre voi m -au anunțat că ați căzut pradă unora – nu pot spune cuvântul”, a spus ea, întreruptându -se să se oprească de la a spune „înșelătorie”.

Pentru că, în timp ce AI Deepfakes, conturi clonate, furtul de conținut și pentru Tiktok, cuvântul „înșelătorie” este unul dintre numeroasele care vor obține un videoclip accelerat sau șters de moderația de conținut a lui Tiktok. Se pare doar un semn al vremurilor.