Bota e teknologjisë përgatitet të përballet me kërcënimin më të fundit ndaj zgjedhjeve.Përdorimi në rrjete sociale i videove të rreme që mund të besohen si të vërteta, mund të shkaktojë kaos në votime
Pamjet e heroinës së filmave “Star Wars”, Princeshës Leia të rilindur dhe Robert DeNiros të rinuar janë iluzione që i mahnisin spektatorët në kinema. Por shqetësimi se e njëjta teknologji që shndërron pamjen e tyre, mund të përdoret për të shkaktuar kaos në zgjedhje po bën që të merren masa për të ndaluar në median sociale përdorimin e këtyre metodave për të krijuar imazhe dhe video të rreme të njerëzve të njohur dhe në një garë për të zhvilluar instrumente për t’i zbuluar ato.
“Po hyjmë në një periudhë kur armiqtë tanë mund të na bëjnë të besojnë se dikush mund të thotë çdo gjë dhe kurdo”.
Që nga viti 2018 kur aktori Jordan Peele paraqiti një simulim të Barack Obamës, kufiri mes të vërtetës dhe së rremes është bërë edhe më i paqartë.
Të ashtuquajturat “Deepfakes”përdorin inteligjencën artificiale për të kombinuar disa burime imazhesh, për të krijuar një iluzion bindës. Gjithkush mund të ketë qasje tek kjo teknologji që po zhvillohet me shpejtësi dhe ka gjasa të mashtrojë edhe shikuesit më të kujdesshëm. Dhe kjo po shkakton shqetësime në këtë vit zgjedhjesh presidenciale.
“Këto imazhe të sajuara u mundësojnë keqdashësve të mbjellin kaos, përçarje ose krizë dhe ata kanë aftësinë që të sabotojnë fushata të tëra, madje edhe presidencën”, thotë ligjvënësi demokrat Adam Schiff,
Kryetar i Komisionit të Dhomës së Përfaqësuesve për Zbulimin.
Kompanitë e mediave sociale kanë nxjerrë njoftime të shumta, duke thënë se do t’i heqin imazhet dhe videot e rreme që synojnë manipulimin e votuesve.
Por së pari duhet t’i gjejnë dhe për këtë qëllim ka filluar një garë dixhitale për të krijuar mjetet e duhura.
Hany Farid, një ekspert dixhital shqetësohet për një sulm të mundshëm videosh të rreme në ditët e fundit të fushatës.
“Një nga mënyrat që kjo mund të bëhet është që 48 orë ose 24 orë para natës së zgjedhjeve, para një votimi paraprak, të nxjerrin një video dëmtuese të një kandidati që duket sikur thotë diçka që nuk e ka thënë kurrë, diçka ofensive ose e paligjshme”, thotë ai.
Ekipi i tij po i trajnon programet e Inteligjencës Artificiale që të mund të diktojnë videot e rreme, duke i ekspozuar ndaj videove të shumta të çdo kandidati presidencial, në mënyrë që të mësohen me gjestet e tyre të veçanta.
“Marrim një video dhe i studiojmë fytyrat me kujdes. Për shembull, kutia blu tregon se si e lëviz kokën, shigjetat lazer që dalin nga sytë tregon se nga po shikon. Dhe më pas mund t’i përdorim këto gjestikulacione për të dalluar një video të sajuar nga e vërteta”, thotë analisti Farid.
“Ne shpresojmë ta vëmë këtë teknologji në shërbim të gazetarëve dhe t’i lejojmë ata që kur videot të fillojnë të postohen, të përcaktojnë nëse janë të vërteta”, thotë ai.
Edhe fondacioni i Inteligjencës Artificiale, po bashkohet me këtë përpjekje.
“Modeli është në gjendje të diktojë se cila pjesë e videos është e sajuar”, thotë Delip Rao i këtij fondacioni. Firma teknologjike e San Franciskos, krijon personalitete artificiale që i quan të dobishme,
“Së shpejti mund të shkoj kudo me ty”.
Si për shembull një shembëlltyre e Deepak Chopra-s, por ata kanë një mandate që njëkohësisht të nxjerrim mjete identifikuese.
“Ne e pranojmë dëmin e mundshëm që krijojnë këto lloj teknologjish”, thotë Rao.
Meqenenëse asnjë metodë nuk dallon të gjitha llojet e videove të rreme, fondacioni po krijon një platformë të quajtur “Reality Defender”, që kombinon instrumenta diktuese nga shumë studiues që publiku do të jetë në gjednje t’i përdorë.
“Ky do të jetë misioni ynë për të luftuar keqinformimin. Sepse u jep mundësinë njerëzve nga fusha të ndryshme të bashkëpunojnë”, thotë Rao.
Konsumatorët e medias online do të kenë një rol të rëndësishëm për frenimin e disiniformimit. Ndalimi nga Facebook i këtyre videove, mund të mos përfshijë të tjera si montazhi i vitit të kaluar ku dukej sikur Nancy Pelosit po i merrej goja, që u shpërnda gjerësisht.
“Konsumatorët duhet të jenë më kritikë ndaj përmbajtjes që konsumojnë dhe përhapin”, thotë Farid. Në të ardhmen, ruajtja e vërtetësisë do të varet nga të gjithë ne.