18 °

max 18 ° / min 13 °

Srijeda

02.04.

18° / 13°

Četvrtak

03.04.

16° / 10°

Petak

04.04.

16° / 8°

Subota

05.04.

16° / 9°

Nedjelja

06.04.

9° / 2°

Ponedjeljak

07.04.

9° / 1°

Utorak

08.04.

10° / 2°

Podijeli vijest sa nama.

Dodaj do 3 fotografije ili videa.

Maksimalna veličina jednog fajla je 30MB

minimum 15 karaktera

This site is protected by reCAPTCHA and the Google. Privacy Policy and Terms of Service apply.
AI sve češći alat u službi izborne manipulacije – targetiranje, botovi i sajber napadi

Izvor: Antena M

AI

Comments 0
Uticaj primjene vještačke inteligencije na izborne procese

AI sve češći alat u službi izborne manipulacije – targetiranje, botovi i sajber napadi

Autor: Antena M

  • Viber
Jedan od najvećih izazova današnjice predstavlja upotreba vještačke inteligencije za manipulaciju javnim mnjenjem, širenje dezinformacija i narušavanje integriteta izbornog procesa. Tehnologije poput deepfakea, mikrotargetiranja i automatizovanih botova omogućavaju stranim i domaćim akterima da precizno utiču na birače, šire dezinformacije i destabilizuju demokratske procese.

Za Antenu M piše: Ana Nives Radović

Ubrzanim razvojem i primjenom vještačke inteligencije (AI) tokom prethodnih godina omogućene su prednosti u brojnim oblastima, od biznisa do medicine, ali su istovremeno pojedine sfere postale poligon za zloupotrenu ove vrste tehnologije. Jedna od njih su izborni procesi u kojima vještačka inteligencija postaje moćno oružje za manipulaciju javnim mnjenjem, širenje dezinformacija i narušavanje demokratskog procesa. Vještačka inteligencija sve češće se koristi u pokušajima miješanja u izbore uz pomoć sve sofisticiranijih rješenja koje birači često nijesu u stanju da prepoznaju.

Deepfake, manipulacija i dezinformacije

Tehnologija deepfake predstavlja ozbiljnu prijetnju po regularnost izbora, jer omogućava stranim akterima da kreiraju lažne video i audio snimke koji političare prikazuju kako govore ili rade stvari koje nikada nijesu uradili. Ova tehnologija koristi napredne algoritme poznate kao generativne protivničke mreže (Generative Adversarial Networks – GAN), koje kroz međusobno „rivalstvo“ neuronskih mreža sve preciznije usavršavaju lažne snimke.

Tokom predsjedničkih izbora u SAD 2020. čula su se prva ozbiljna upozorenja da bi deepfake snimci mogli da budu iskorišćeni za širenje dezinformacija o kandidatima i manipulaciju biračima, a još 2018. deepfake snimci, koji su ciljano diskreditovali evropske političare, pokazali su koliko ova tehnologija može da bude opasna za demokratske procese. Uz pomoć ovakvih lažnih snimaka moguće je širiti neistine, narušavati reputaciju i oblikovati javno mnjenje ubacivanjem izmišljenih izjava u autentične govore.

AI takođe pojačava domet i efikasnost kampanja dezinformacija, jer omogućava brzo kreiranje i masovno širenje lažnog sadržaja. Botovi koji koriste vještačku inteligenciju mogu da generišu i šire lažne vijesti, objave na društvenim mrežama, obmanjujuće mimove i grafikone. Zahvaljujući vještačkoj inteligenciji i obradi prirodnog jezika tekstovi ovakvih sadržaja mogu da zvuče potpuno prirodno, zbog čega je teško utvrditi da je riječ o lažnim objavama koje nijesu bazirane na činjenicama.

Istraživanja (Pennycook & Rand, 2018) su pokazala da se lažne vijesti šire brže od pravih informacija na društvenim mrežama, zbog čega strani akteri koriste ovu prednost tako što angažuju AI botove da komuniciraju sa stvarnim korisnicima, pojačavaju podjele u društvu i šire lažne narative. Tokom predsjedničkih izbora u SAD 2016. godine, operativci povezani sa Rusijom koristili su AI botove za širenje političke propagande, ostvarivši značajan uticaj na birače.

Mikrotargetiranje, botovi i lažne vijesti

Sposobnost vještačke inteligencije da analizira ogromne količine podataka omogućava precizno usmjereno političko oglašavanje. Praćenjem aktivnosti na društvenim mrežama, istorije pretraga i potrošačkih navika, vještačka inteligencija ima mogućnost da grupiše birače prema psihološkim profilima i na osnovu toga prilagodi poruke tako da ciljano utiče na njihove strahove, predrasude ili emocije.

Jedan od najpoznatijih primjera zloupotrebe ovakvih metoda bio je skandal sa kompanijom Cambridge Analytica, koji je otkrio je kako je analiza podataka korišćena da bi se uticalo na izbore u SAD 2016. godine. Kompanija je prikupljala lične podatke od miliona korisnika Facebooka kako bi kreirala mikrotargetirane političke oglase i poruke, sa ciljem da utiče na neodlučne birače u ključnim regijama.

Mogućnosti koje u ovoj oblasti danas pruža vještačka inteligencija učinile bi proces znatno preciznijim i efikasnijim. Osim toga, mikrotargetiranje uz pomoć ove tehnologije može da se koristi i za obeshrabrivanje birača, širenjem dezinformacija koje podrivaju povjerenje u izborni proces.

AI botovi manipulišu javnim diskursom tako što preplavljuju društvene mreže lažnim interakcijama – lajkovima i komentarima – kako bi vještački pojačali određene narative. Ovi botovi koriste algoritme društvenih mreža koji favorizuju sadržaje sa visokom interakcijom, čime dezinformacije izgledaju popularnije i vjerodostojnije nego što zaista jesu.

Istraživanje (Howard et al. 2018) pokazalo je da su tokom izbora u SAD 2016. automatizovani nalozi imali ključnu ulogu u širenju politički pristrasnog sadržaja. Slična taktika primijećena je i tokom izbora za Evropski parlament 2019. godine, kada su botovi generisani uz pomoć vještačke inteligencijepojačavali podjelu među biračima i favorizovali određene kandidate.

Napredak u ovoj vrsti tehnologije omogućio je kreiranje potpuno izmišljenih, a toliko realističnih vijesti kojima nije nimalo jednostavno utvrditi tačnost dok se detaljnije ne obrati pažnja na druge pojedinosti, poput linkova koji vode ka stranicama koje oponašaju medijske sadržaje.

Širenje ovakvih vijesti na društvenim mrežama odvija se mnogo većom brzinom nego kada je u pitanju informativni sadržaj koji je istinit. Lažni informativni portali, čija zaglavlja često liče na poznate medijske stranice, koriste ovu dinamiku objavljivanjem senzacionalističkih naslova i sadržaja koji obmanjuju birače i manipulišu javnim mnjenjem.

Sajber napadi i ometanje izborne infrastrukture

AI se koristi za sprovođenje sofisticiranijih sajber napada na izborne sisteme, a phishing šeme bazirane na vještačkoj inteligenciji u stanju su da prevare institucije i navedu ih da otkriju osjetljive podatke o biračima, dok algoritmi mašinskog učenja mogu da identifikuju i iskoriste bezbjednosne ranjivosti u izbornoj infrastrukturi.

Tokom predsjedničkih izbora u SAD 2016. godine, ruski hakeri su koristili napredne alate za upad u sistem Demokratskog nacionalnog komiteta (DNC), objavljujući hiljade mejlova kako bi uticali na kampanju. Mogućnosti koje u toj oblasti postoje danas predstavljaju rastuću prijetnju demokratskim procesima širom svijeta.

DDoS napadi pokrenuti uz pomoć vještačke inteligencije mogu da paralizuju sisteme povezane s izborima, poput sajtova za registraciju birača i platformi za objavu rezultata. Ovi napadi preplavljuju servere automatskim saobraćajem, onemogućavajući biračima pristup ključnim informacijama i podrivajući povjerenje u izborni proces.

Agencija Evropske unije za sajber bezbjednost (ENISA) upozorila je da bi AI-pokretani sajber napadi mogli biti korišćeni za ometanje izbora napadima na kritičnu digitalnu infrastrukturu. Tokom predsjedničkih izbora u Francuskoj 2017. godine, zvaničnici su uspješno odbranili sistem od ovakvih napada, no kako su mogućnosti da se oni izvedu na mnogo sofisticiraniji način u međuvremenu postale znatno veće, rastao je i broj potencijalnih prijetnji koje ugrožavaju druge demokratije.

Drugim riječima, vještačka inteligencija se već godinama aktivno koristi za manipulaciju i miješanje u izborne procese, od deepfake snimaka i lažnih vijesti do sajber napada i mikrotargetiranja birača, što omogućava stranim akterima da utiču na rezultate i podrivaju demokratiju, bez jasnog načina da se to efikasno spriječi.

----------

Reference:

Pennycook, G., & Rand, D. G. (2019). Fighting misinformation on social media using crowdsourced judgments of news source quality. Proceedings of the National Academy of Sciences.

Howard, P. N., Ganesh, B., & Liotsiou, D. (2018). The IRA, social media, and political polarization in the United States, 2012–2018. University of Oxford.

Friggeri, A., Adamic, L., Eckles, D., & Cheng, J. (2014). Rumor cascades. Proceedings of the International AAAI Conference on Web and Social Media, 8(1), 101–110. https://doi.org/10.1609/icwsm.v8i1.14559.

Komentari (0)

POŠALJI KOMENTAR