Hulumtim në Fokus: Një mori chatbot-ësh të inteligjencës artificiale – fronti i radhës në luftën kundër demokracisë
Një “grup i inteligjencës artificiale” keqdashëse përkufizohet si një rrjet agjentësh chatbot-esh të kontrolluar nga një inteligjencë artificiale e centralizuar që ruajnë identitete unike (ose profile online me kujtime dhe preferenca të vetme nga ndërveprimet e kaluara), koordinohen drejt qëllimeve të përbashkëta dhe përshtaten vazhdimisht me përgjigjet autentike të përdoruesve të vërtetë në rrjetet sociale. Ndërsa “grupet e inteligjencës artificiale” përbëjnë një kërcënim real dhe serioz, autorët thonë se përgjigjja nuk duhet të jetë një “Ministri e së Vërtetës” – që të kujton “1984”-ën e Orwell-it – por përkundrazi t’i bëjnë operacione të tilla sa më të kushtueshme për ata që i krijojnë ato.
Nga: Matej Trojaçanec
Në të kaluarën, shpesh shkruanim për të ashtuquajturat “ferma troll” ruse, të cilat ishin agjitatorë të organizuar online që identifikonin ankesa në vende të tjera dhe më pas futeshin në debate online me qëllim që të ndeznin pasionet dhe të krijonin sa më shumë përçarje midis përdoruesve të rrjeteve sociale online. Ata mbështeteshin kryesisht te njerëzit që postonin dhe komentonin manualisht përmbajtje nxitëse në Facebook dhe Twitter. Dhjetë vjet më vonë, ky model duket pothuajse plotësisht i vjetëruar.
Sipas një raporti të ri (i disponueshëm këtu) të botuar në revistën prestigjioze shkencore “Science”, e ardhmja e dezinformimit do të jetë e automatizuar, por do të jetë gjithashtu e adaptueshme dhe frikshëm efikase duke përdorur chatbotë të ndryshëm të bazuar në inteligjencën artificiale. Autorët paralajmërojnë se “tufa agjentësh bashkëpunues dhe keqdashës të IA-së” së shpejti mund të manipulojnë besimet dhe sjelljet e përdoruesve të internetit “në një nivel të gjerë të popullsisë” duke përshtatur përmbajtjen që ata publikojnë për grupe specifike të synuara dhe me mesazhe unike.
Çfarë janë tufat e inteligjencës artificiale dhe si mund ta dëmtojnë demokracinë?
Artikulli e përcakton një “grup të inteligjencës artificiale” keqdashëse si një rrjet agjentësh chatbotë të kontrolluar nga një inteligjencë artificiale e centralizuar që mbajnë identitete unike (ose profile online me kujtime dhe preferenca të vetme nga ndërveprimet e kaluara), koordinohen drejt qëllimeve të përbashkëta dhe përshtaten vazhdimisht me përgjigjet autentike të përdoruesve të vërtetë në rrjetet sociale. Ndryshe nga profilet tradicionale të botëve që kopjojnë dhe publikojnë të njëjtin mesazh, grupet e inteligjencës artificiale mund të gjenerojnë përmbajtje të larmishme, të vetëdijshme për kontekstin në të cilin publikohet. Qëllimi është të krijohet një konsensus në dukje sikur të ishte nga përdorues autentikë për një qëllim të caktuar që mund të ndikojë në opinionin publik.
Siç shkruajnë autorët, këto sisteme mund të “koordinohen në mënyrë autonome, të depërtojnë në komunitetet online dhe të prodhojnë në mënyrë efikase konsensus” – i njohur ndryshe si “prodhimi i pëlqimit”. Duke “imituar në mënyrë përshtatëse dinamikën shoqërore njerëzore, ato mund të kërcënojnë demokracinë” dhe proceset demokratike.
Në revistën e teknologjisë dhe kulturës WIRED, ata e përshkruajnë këtë lloj të ri kërcënimi si më poshtë:
…në vend të dhomave plot me troll të paguar, një person i vetëm me qasje në mjetet më të fundit të inteligjencës artificiale do të jetë në gjendje të komandojë “grupe inteligjence artificiale” me mijëra llogari në mediat sociale, secila prej të cilave krijon postime që duket se janë bërë nga njeriu dhe evoluojnë e përshtaten në kohë reale.
Rezultati është një formë lufte ndikimi që është më e shpejtë, më e lirë dhe më e vështirë për t’u zbuluar sesa të gjitha format e mëparshme të përpjekjeve joautentike ose “të ngjashme me robotët” për të ndikuar në opinionin publik.
Nga fermat e trollëve te shoqëritë sintetike
Lind pyetja, çfarë do të thotë kjo praktikë? Ashtu si kur përdoren mjete të bazuara në IA – ChatGPT, Claude, etj., që mbajnë mend të gjitha bisedat dhe ndërveprimet tuaja, dhe bazuar në to ju japin përgjigje unike, edhe “grupet e IA-së” do të jenë në gjendje të përshtasin mesazhet e tyre bazuar në ndërveprimet e mëparshme në Twitter. Domethënë, për të pasur qëndrueshmëri të brendshme sikur të ishte një profil autentik i një përdoruesi real, ata do të jenë në gjendje të mbajnë mend bisedat e mëparshme, të përdorin zhargon, të kenë “preferencat” e tyre dhe të publikojnë mesazhe me gabime.
Me fjalë të tjera, mesazhet nga llogaritë e rreme do të shkruhen në një mënyrë të tillë që sistemet aktuale të moderimit të automatizuara nuk do t’i dallojnë ato nga mesazhet nga përdoruesit real.
Tufat e inteligjencës artificiale mund të kryejnë miliona teste mikro-A/B, të përhapin variante fituese me shpejtësinë e makinës dhe të përsërisin shumë më shpejt se njerëzit, shkruajnë autorët e raportit shkencor.
WIRED citon Jonas Kunst, një nga bashkautorët e punimit:
Po kalojmë në një fazë të re të luftës së informacionit në platformat e mediave sociale, ku përparimet teknologjike e kanë bërë të vjetëruar qasjen klasike ndaj botëve.
Frika nuk është vetëm se do të ketë më shumë gënjeshtra dhe dezinformata, por një realitet i ri shoqëror sintetik. Me këtë nënkuptojmë dy gjëra. E para është fakti se, sipas Qendrës Kërkimore Pew, një e katërta e përdoruesve të X (ish Twitter) krijojnë 97 përqind të përmbajtjes së publikuar në platformë. Me fjalë të tjera, një numër i vogël përdoruesish krijojnë konsensusin.
E dyta është fakti se teoria e “internetit të vdekur”, pra besimi se shumica dërrmuese e trafikut të internetit – postimet, komentet dhe llogaritë e përdoruesve, janë zëvendësuar nga botët dhe përmbajtja e gjeneruar nga IA ose, më thjesht, se njerëzit nuk e formësojnë më drejtimin e internetit.
Me fjalë të tjera, meqenëse pothuajse e gjithë përmbajtja në platformat online krijohet nga një pakicë llogarish përdoruesish, tani ekziston mundësia që ato zëra ose përdorues autentikë të mund të zëvendësohen edhe nga “tufat e IA-së”, të cilat mund të punojnë pa ndërprerje dhe të krijojnë përmbajtje të re dhe pa u ndalur. Dhe në këtë mënyrë të krijojnë, siç e quajnë studiuesit, një “konsensus të sajuar”.
Demokracia nuk kërkon të vërtetën e përsosur, por kërkon diçka më të brishtë: zëra të pavarur. “Mençuria e turmave” varet nga pavarësia midis gjykimeve. Nëse një aktor i vetëm mund të flasë përmes mijëra deklaratave joautentike, konsensusi i dukshëm i turmës pushon së qeni informues.
Rezultati më i rrezikshëm nuk është një gënjeshtër e vetme virale, është një konsensus sintetik: iluzioni se “të gjithë po e thonë këtë”, i cili mund të shtrembërojë në heshtje besimet dhe normat, shkruan Jay Van Bavel, një nga autorët e raportit.
Democracy doesn’t require perfect truth—but it does require something more fragile: independent voices. The “wisdom of crowds” depends on independence between judgments. If a single actor can speak through thousands of inauthentic accounts, the apparent consensus of the crowd… pic.twitter.com/dX0lVz8gSU
— Jay Van Bavel, PhD (@jayvanbavel) January 27, 2026
Përgjigje të mundshme për problemin e “tufave të inteligjencës artificiale”
Autorët shkruajnë se përgjigja ndaj këtij lloj kërcënimi nuk duhet të jetë një “Ministri e së Vërtetës” – duke përmendur “1984”-ën e Orwell-it – përmes së cilës dikush do të paragjykonte se çfarë është e vërtetë dhe çfarë jo. Në vend të kësaj, është e nevojshme që operacione të tilla të bëhen sa më të kushtueshme për ata që i krijojnë ato.
Në mënyrë specifike, një përparësi duhet të jetë zbulimi i koordinimit statistikisht të pamundur të llogarive dhe publikimi i koordinuar. Në vend të “pastrimit” episodik të llogarive pasi operacione të tilla të bëhen virale, platformat (dhe organet rregullatore) duhet të mbështesin monitorimin e vazhdueshëm të sjelljes anormale dhe të koordinuar. Dhe, për të zvogëluar abuzimin, këto sisteme duhet të lidhen me masa transparence dhe auditime të pavarura.
Një përparësi e dytë, sipas autorëve, duhet të jetë e ashtuquajtura “testim stresi” përmes simulimeve. Siç thonë ata, meqenëse “qentë mbikëqyrës” do të mbeten gjithmonë prapa nëse reagojnë vetëm ndaj taktikave të djeshme, simulimet mund të ndihmojnë në testimin e sistemeve të zbulimit, zbulimin e “modeleve” të tilla dhe defekteve dhe boshllëqeve të mundshme në mekanizmat mbrojtës.
Një përparësi e tretë është forcimi i prejardhjes së llogarive të përdoruesve pa “vrarë” anonimitetin. Qëllimi është të krijohet një sistem përmes të cilit do të jetë e mundur të konfirmohet se një llogari është autentike, pra se një përdorues i vërtetë qëndron pas saj, por që përdoruesi mbetet anonim. Kjo sepse, sipas autorëve, politikat e identifikimit të vërtetë mund të dëmtojnë disidentët në shoqëri të caktuara dhe denoncuesit, identiteti i të cilëve nuk duhet të zbulohet. Me fjalë të tjera, të krijohet një sistem përmes të cilit krijimi masiv i llogarive të rreme të përdoruesve do të bëhet shumë i kushtueshëm, duke ruajtur njëkohësisht privatësinë e vetë përdoruesve.
Të gjitha komentet dhe vërejtjet në lidhje me këtë dhe artikujt e tjerë të Vërtetmatës-it, kërkesat për korrigjime dhe sqarime, si dhe sugjerimet për verifikimin e deklaratave të politikanëve dhe premtimeve të partive politike, mund t’i dorëzoni përmes këtij formulari