Ushtarë ukrainas të paraqitur duke qarë, të krijuar me inteligjencë artificiale

Илустрација: Вистиномер

Klipet janë krijuar me mjetin “Sora” – një model i inteligjencës artificiale i zhvilluar nga OpenAI. Megjithatë, në videon e ushtarit të ri ukrainas që qan, logo-ja e “Sora”-s nuk është e dukshme. Videoja përbëhet nga dy klipe të shkurtra: njëri zgjat katër sekonda, ndërsa tjetri 10 sekonda, të montuara bashkë. Fakti që klipet janë kaq të shkurtra është tregues se videoja është gjeneruar nga inteligjenca artificiale, sepse shumica e modeleve mund të prodhojnë xhirime të pandërprera vetëm deri në 10 sekonda.

 

Shkruan: Mirosllava Simonovska

Djem të rinj të përlotur, të veshur me uniformë ushtarake dhe të paraqitur si “rekrutë ukrainas”, kanë pushtuar rrjetet sociale në mbarë botën. Fytyrat e tyre duken të dëshpëruara, të frikësuara dhe të mbushura me panik. Këto video virale pretendojnë se tregojnë rekrutë të rinj ukrainas ndërsa udhëtojnë me një mjet ushtarak drejt fushëbetejës.

“Nuk dua të vdes!”, “23-vjeçari qan ndërsa udhëton drejt frontit”thuhet në përshkrimin e videove, të cilat kanë dhjetëra mijëra shikime. 

Por kjo është vetëm një fushatë e re dezinformimi e krijuar me inteligjencë artificiale. Profile të rreme në rrjetet sociale i shpërndajnë këto video virale me përkthime në gjuhë të ndryshme. Klipet synojnë të paraqesin një “mobilizim të detyruar” në Ukrainë të djemve 22 dhe 23-vjeçarë, megjithëse një analizë më e kujdesshme dhe më e thelluar tregon se parregullsitë vizuale në video janë rezultat i inteligjencës artificiale. Konkretisht, helmetat e vendosura gabimisht që nuk përputhen me standardet e pajisjeve ushtarake ukrainase, mungesa e emrit në uniformë, si dhe shqiptimi i gabuar i vendit “Çasiv Jar”, tipik për “zërat” e inteligjencës artificiale.

Qëllimi është të lëkundet morali i ukrainasve dhe i mbështetësve të tyre, duke paraqitur gjoja ushtarë të rinj, të frikësuar ose të munduar, të “detyruar” në luftë. Kur njerëzit bien nën ndikimin e këtyre videove realiste, por të rreme, ata fillojnë të dyshojnë në gjithçka, dhe e vërteta bëhet më e vështirë për t’u dalluar. Fakti që videot publikohen në platforma ndërkombëtare në shumë gjuhë tregon se ato synojnë grupe të ndryshme në vendet perëndimore – me qëllim të ulet mbështetja për Ukrainën në shtetet ku qarkullojnë këto video, duke manipuluar emocionet e qytetarëve dhe duke i bërë të ndjejnë keqardhje për ushtarët si të rekrutuar me forcë. Në këtë mënyrë synohet të krijohet disonancë njohëse, pra mosbesim ndaj vendimeve të qeverive perëndimore për të mbështetur të drejtën e Ukrainës për vetëmbrojtje.

Sipas një deklarate të Qendrës për Luftë kundër Dezinformimit (një organ i lidhur me Sigurinë Kombëtare të Ukrainës dhe Këshillin e Sigurisë), fytyra në video i përket një shtetasi rus, e jo një ukrainasi. Bëhet fjalë për Vladimir Jereviç Ivanov nga Shën Petersburgu, i cili përdor pseudonimin online Kussia88.

Videoja e krijuar me AI, ku shfaqet Ivanov, fillimisht ishte publikuar në kanalin e TikTok-ut – @fantomoko, i cili tani është fshirë – së bashku me dhjetëra video të tjera të ngjashme të krijuara me inteligjencë artificiale që paraqesin “ushtarë të Ukrainës që qajnë në automjete ushtarake”.

Siç publikoi “Euronews”, mosha për mobilizim në Ukrainë është mes 25 dhe 60 vjeç, dhe jo 23, siç pretendohet në videon e gjeneruar me inteligjencë artificiale.

Mosha minimale u ul nga 27 në 25 vjeç në prill të vitit të kaluar, me qëllim rritjen e numrit të trupave në kushtet e pushtimit të plotë rus. Ata që janë nën moshën 25 vjeç, siç pretendohet për djalin në video, mund të paraqiten vetëm vullnetarisht, shkruan Euronews.

Klipet janë krijuar me mjetin “Sora” – një model i inteligjencës artificiale i zhvilluar nga OpenAI. Megjithatë, në videon e ushtarit të ri ukrainas që qan, nuk shihet vula e “Sora”-s. Videoja përbëhet nga dy klipe të shkurtra: njëri katër sekonda dhe tjetri 10 sekonda, të montuara së bashku. Fak­ti që klipet janë të shkurtra është tregues se videoja është gjeneruar nga inteligjenca artificiale, pasi shumica e modeleve mund të prodhojnë xhirime të vazhdueshme vetëm deri në 10 sekonda.

Ndërkohë që lufta me dezinformata vazhdon në frontin e rrjeteve sociale, bëhet gjithnjë e më e vështirë të dallohen videot e rreme të krijuara me inteligjencë artificiale – dhe gjithnjë e më e lehtë të besohet në to.



 

Të gjitha komentet dhe vërejtjet në lidhje me këtë dhe artikujt e tjerë të Vërtetmatës-it, kërkesat për korrigjime dhe sqarime, si dhe sugjerimet për verifikimin e deklaratave të politikanëve dhe premtimeve të partive politike, mund t’i dorëzoni përmes këtij formulari

Your email address will not be published.