Mala šala - veliki problem

Male šale mogu izazvati velike probleme!

Međutim, postoje ljudi kojima je to zbog intelektualne potkapacitiranosti malo teže shvatiti.

Događali su se već slučajevi da su zbog nečijih šala, "prankova" i sličnih zafrkancija drugi ljudi nastradali. Ili u fizičkom smislu (ozlijede ili smrt) ili u društvenom (narušavanje ugleda u društvu, gubitak posla, razvod braka, pravni problemi isl.)

No očito se ne vodi previše računa o tome da danas lako dostupna AI tehnologija, odnosno umjetna inteligencija, u rukama izuzetno glupog i nepromišljenog čovjeka može biti itekako opasna stvar. Ne za onoga tko barata AI alatima za generiranje slika i videa, već za njegovu okolinu, odnosno druge ljude. Jer u vrijeme kada kada svi žive sa mobitelom pred licem, a u virtualnom prostoru interneta i društvenih mreža može se naći sve više i više AI generiranog sadržaja (bilo u obliku "video-klipova", bilo u obliku slika koje jako nalikuju fotografijama iako to zapravo nisu), ponekad je vrlo teško ili čak nemoguće razlučiti što je pravo, a što je AI generirano.

Naime, u zadnje vrijeme su se počeli pojavljivati AI alati i aplikacije kojima se, upravo zahvaljujući AI tehnologiji, može vrlo lako i bez imalo muke stvoriti fotomontažu (za što je nekad trebalo znanje rada u grafičkim alatima poput Photoshopa).

Takva AI tehnologija generiranja fotomontaža, odnosno deepfake, koristila se u situacijama kada se nekome baš zlonamjerno željelo napakostiti, nekoga diskreditirati, stvarajući lažne fotografije i videe (npr. situacija u kojma nikada nisu bili, ili izjava koje nikada nisu izjavili...), često u političke, propagandne i demagoške svrhe.

Međutim, počelo se događati da, upravo zahvaljujući AI aplikacijama za mobilne telefone, danas ljudi rade slične stvari iz puke zafrkancije, jer im je to "smješno i zabavno".

Pa se onda događa da netko namontira sliku ukućana, prijatelja, susjeda, kolege s posla ili nekog trećeg (slučajnog prolaznika, na primjer) u neku za njega vrlo nezgodnu situaciju ili lokaciju. Zatim tvorac takve slike ili videa iz zafrkancije to pošalje nekome, ta osoba to dalje proslijedi svojim prijateljima, pa se to dalje viralno proširi i zatim osvane negdje na internetu i društvenim mrežama - na kraju takva deepfake slika ili video može onome tko je na slici izazvati nezamislivo velike probleme, iako u startu nije bilo loše namjere, ali ni upotrebe mozga o mogućim posljedicama!

A onaj tko bude objekt takve AI generirane fotomontaže mora nekome dokazivati da je ta slika lažna, a što je ponekad nemoguće, pogotovo nekome tko vjeruje u onu da "slike ne lažu".

Deepfake AI slike mogu izgledati dovoljno uvjerljivo da ljudi povjeruju kako su zaista stvarne. Problem je tim veći što takve slike i video-klipovi često nisu označeni kao sadržaj generiran pomoću AI-ja, a vrlo često se dijele bez ikakvog konteksta. Zbog toga ljudi na temelju same AI slike ili videa olako donose zaključke. Dodatni problem je to što AI tehnologija stalno napreduje te danas stvara iznimno uvjerljive slike i video-klipove koje ni obični ljudi, a nerijetko ni institucije (bez detaljnih, gotovo forenzičkih provjera), ne mogu odmah prepoznati kao lažne.

Takve slike ili video-klipovi generirani pomoću AI tehnologije, čak i ako su nastali "iz šale", kao "zabava" ili "zafrkancija", u stanju su ljudima stvoriti velike probleme - ponekad i toliko ozbiljne da ta "šala" više nije šala.

Na primjer...:

Ako se neku osobu u realističnoj AI deepfake slici ili videu prikaže kako radi nešto potencijalno nezakonito, to može izazvati vrlo ozbiljne probleme, čak i ako je sadržaj lažan i napravljen iz šale. Ako takva AI fotomontaža ili video prikazuje osobu kako, npr. provaljuje, uništava imovinu, krade, zlostavlja ili ubija nekoga, sudjeluje u nasilju ili koristi nedozvoljene supstance, mogu reagirati policija ili druge institucije gonjenja (socijalne službe i sl.). Za osobu koja je iskorištena kao predmet takve AI foto ili video šale to može rezultirati privođenjima, ispitivanjima, pretresima i provjerama, a u nekim slučajevima i upisom u sustav kao "sumnjive osobe".

Ako se neku osobu u realističnoj AI deepfake slici ili videu prikaže kako sudjeluje na nekom prosvjedu, političkom skupu ili sličnom okupljanju, iako tamo nikada nije bila niti je politički angažirana, to također može izazvati vrlo ozbiljne probleme. Posebno je to osjetljivo u situacijama kada je prosvjed, u čiju je sliku ili video osoba umetnuta, ekstremistički, nasilan i/ili povezan s govorom mržnje ili drugim ilegalnim aktivnostima. U takvim slučajevima može se dogoditi da osoba, zbog nečije "šale", ima posla s policijom i drugim državnim institucijama, kao i probleme prilikom putovanja u druge države.

Ako se neku osobu u realističnoj AI deepfake slici ili videu, koja je u ljubavnoj vezi ili braku, prikaže kako s nekom drugom osobom (a ne sa svojim intimnim ili bračnim partnerom) razmjenjuje nježnosti ili čak i nešto više od toga, iako ta osoba to nikada nije učinila, takav sadržaj može rezultirati raspadom veze ili razvodom braka.

Općenito, sve takve "šale" mogu dovesti do toga da osoba koja je njihov predmet, ni kriva ni dužna, bude uvučena u ozbiljne i neugodne probleme. "Dokaz" u obliku AI generirane slike ili videa može se vrlo brzo, putem interneta i društvenih mreža, proširiti viralno, a čak i ako se naknadno utvrdi da je riječ o "samo šali“ ili "zabavi“, odnosno da su slika ili video lažni i stvoreni pomoću AI-ja, to neće poništiti već nastalu štetu.

Ta šteta može biti raznolika: narušavanje ugleda, stigmatizacija u društvu, disciplinski postupci, gubitak posla, razvod braka, javni linč na društvenim mrežama, cyberbullying, pa sve do primanja prijetnji nasiljem ili čak stvarnog nasilja.

Osoba koja stvori takvu "šalu“ zbog koje netko nedužan nastrada, može za to itekako odgovarati - npr. za klevetu, narušavanje ugleda, povredu privatnosti ili nedozvoljenu upotrebu osobnih podataka, s obzirom da u Hrvatskoj postojeći kazneni zakon i civilni propisi omogućavaju sankcioniranje zloupotrebe deepfakeova, i činjenici da legislativa postupno prepoznaje i regulira AI-generirane sadržaje te uvodi sankcije za njihovu zloupotrebu. Štoviše, u nekim drugim europskim zemljama, poput Francuske, Danske i Španjolske, već postoje ili se uvode posebne mjere protiv neovlaštenog dijeljenja AI generiranih sadržaja.

Jer kako je već rečeno, male šale mogu izazvati velike probleme!

Popularni postovi s ovog bloga

Zašto takav naziv bloga?

GDPR kao izgovor za zabrane

Jedan novi početak