OpenAI se aktivno bori protiv zloupotrebe veštačke inteligencije koju koriste hakerske grupe iz nekoliko zemalja za online prevare i širenje lažnih informacija. Kompanija koristi sopstvene AI alate da brzo otkrije i zaustavi ove zlonamerne aktivnosti.
OpenAI je razotkrio uznemirujuću realnost – moćna veštačka inteligencija sve češće završava u rukama državnih sajber kriminalaca. Kina, Rusija, Severna Koreja i Iran koriste AI kao svoje novo oružje u digitalnom ratu, vodeći sofisticirane kampanje koje prete da potkopaju globalnu bezbednost i poverenje na internetu.
U poslednja tri meseca, OpenAI je uspešno ugasio deset velikih mreža koje su zloupotrebljavale njihove AI alate, pokazujući svoju posvećenost sprečavanju onlajn pretnji. Ova akcija predstavlja jedan od najvažnijih primera kako tehnološke kompanije mogu preuzeti vodeću ulogu u suzbijanju sajber kriminala.
Lažni profili i propagandne mašinerije
Kineske hakerske grupe pokrenule su brojne kampanje širenja lažnih vesti i polarizujućih poruka na društvenim mrežama poput TikToka i X-a. Pod operacijama poput „Sneer Review“ i „Uncle Spam“, kreiraju se lažni profili koji često prikazuju američke veterane, ciljajući da destabilizuju društvene debate i politički dijalog.
Ove kampanje ne samo da manipulišu informacijama, već i stvaraju duboke podele u društvu, izazivajući strah i nepovjerenje. Korišćenje AI u ove svrhe predstavlja novu dimenziju sajber ratovanja, gde je digitalna laž jednako moćna kao i oružje.
AI u službi sajber špijunaže i krađe podataka
Severnokorejski hakeri koriste veštačku inteligenciju da kreiraju lažne biografije i prijave za poslove širom sveta, najverovatnije sa ciljem prikupljanja poverljivih informacija. Ove sofisticirane prevare omogućavaju im da zaobiđu bezbednosne barijere i pristupe osetljivim IT sistemima.
S druge strane, ruske hakerske grupe razvijaju malvere uz pomoć AI, planiraju sajber napade i izvode operacije poput „ScopeCreep“ usmerene na krađu podataka. Njihove aktivnosti predstavljaju ozbiljnu pretnju globalnoj sajber bezbednosti i zahtevaju hitnu međunarodnu reakciju.
Foto: Unsplash.com
Operacije prevare zasnovane na AI
Jedan od najozbiljnijih slučajeva zloupotrebe AI u prevarama dolazi iz Kambodže, gde je grupa nazvana „Wrong Number“ koristila veštačku inteligenciju da prevede i personalizuje poruke koje obećavaju lake zarade. Žrtvama se nudi posao sa visokim primanjima za jednostavne aktivnosti poput lajkovanja na društvenim mrežama, da bi potom tražili novac za navodne nagrade.
Ova prevara je delovala na više jezika i usmeravala žrtve na aplikacije poput WhatsApp-a i Telegram-a, pokazujući koliko su savremene tehnologije efikasne u globalnom širenju kriminalnih šema.
OpenAI na udaru zakona i etike
Pored tehnoloških izazova, OpenAI se suočava i sa pravnim bitkama. Nedavna sudska odluka u SAD nalaže kompaniji da sačuva korisničke razgovore ChatGPT-ja, kao deo spora oko navodnog kršenja autorskih prava. Izdavači tvrde da su njihovi tekstovi korišćeni bez dozvole za obuku AI modela, što ugrožava njihov poslovni model.
OpenAI upozorava da ova naredba predstavlja ozbiljan rizik po privatnost korisnika, koji često dele osetljive informacije u poverenju. Ova dilema naglašava potrebu za balansom između zaštite autorskih prava i očuvanja digitalne privatnosti u eri veštačke inteligencije.
Autor: Marija Radić