Deepfakes përdor të mësuarit makinerik për të sajuar ngjarje që nuk kanë ndodhur kurrë. Gjersa janë zbavitëse dhe krijuese, ekzistojnë shqetësime të ngutshme në lidhje me implikimet shoqërore dhe politike të kësaj teknologjie që po zhvillohet me shpejtësi transmeton Gazeta e Re.
Deepfakes kanë filluar të shfaqen kudo nga shkëmbimet e fytyrave të famshme virale deri te imitimet e liderëve politikë.
Miliona njerëz morën shijen e tyre të parë të teknologjisë kur panë ish-presidentin amerikan Barack Obama duke përdorur një shpjegues për të përshkruar presidentin e atëhershëm Donald Trump, ose formën e aktorit Bill Hader që po zhvendosej në një shfaqje bisede të natës vonë.
Në fillim të kësaj jave, mediat sociale u futën në një furi pasi në aktorin Tom Cruise u shfaqën mashtrime të thella në një seri videosh TikTok që duket se e tregon atë duke bërë një mashtrim magjik dhe duke luajtur golf, të gjitha me një butësi që dukeshin jashtëzakonisht realiste.
Çfarë janë ‘deepfakes’?
Një ‘deepfakes’ është një video ose klip audio i gjeneruar nga inteligjenca artificiale (AI) e një personi real që bën ose thotë gjëra të trilluara. Një kompjuter përdor algoritme të “mësimit të thellë” për të mësuar lëvizjet ose tingujt e dy regjistrimeve të ndryshme dhe t’i kombinojë ato dhe të prodhojë media të rreme me pamje realiste.
Ekzistojnë disa metoda për të krijuar ‘deepfake’.
Më e zakonshmja mbështetet në përdorimin e rrjeteve të thella nervore që përfshijnë auto-kodues që përdorin një teknikë të ndërrimit të fytyrës. Programi autoencoder ka për detyrë të studiojë videoklipe për të kuptuar se si duket një person nga një sërë këndesh dhe nga kushtet mjedisore, dhe më pas e harton atë person në një individ në një video të synuar duke gjetur tipare të përbashkëta.
Një formë tjetër e të mësuarit makinerik e njohur është e njohur si Generative Adversarial Networks (GANs), të cilat mbështeten në studimin e sasive të mëdha të të dhënave për të zbuluar dhe përmirësuar çdo defekt në mashtrim të thellë gjatë raundeve të shumta, duke e bërë atë edhe më të vështirë për tu dekoduar.
Vetë teknologjia nuk është asgjë e re. Është pjesë e asaj se si studiot kryesore të rrjetit Hollywood përfshijnë aktorë në role pasi ata kanë vdekur dhe një pjesë kryesore të mënyrës se si bëhen filmat 3D. Është gjithashtu mënyra se si kompanitë e lojrave lejojnë lojtarët të kontrollojnë atletët e tyre të preferuar.
Ajo që është e re është se procesi është bërë më i lirë dhe i arritshëm gjerësisht.
Sasia e përmbajtjes së mashtrimit të thellë po rritet me një shpejtësi alarmante: teknologjitë e DeepTrace numëruan 7,964 video video të rreme në internet në fillim të vitit 2019, dhe deri në fund të vitit ajo ishte gati dyfishuar në 14,678.
Që kur deepfakes u shfaqën në fund të vitit 2017, disa aplikacione dhe softuerë që gjenerojnë deepfakes si laboratori DeepFace, FakeApp dhe Face Swap janë bërë të disponueshëm dhe ritmi i inovacionit vetëm është përshpejtuar.
Në vitin 2019, Amazon njoftoi se pajisjet Alexa mund të flasin me zërat e personave të famshëm. Në Instagram, videot e rreme të artistëve virtualë të mbështetur nga paratë e Silicon Valley mund të sjellin miliona ndjekës dhe të ardhura pa paguar talent për të performuar. Dhe në Kinë, një media e mbështetur nga qeveria prezantoi një spiker virtual të lajmeve që do të punonte “pa u lodhur” 24 orë gjatë gjithë kohës.
Gjithnjë e më shumë, fillestarët po përpiqen të komercializojnë deepfakes duke licensuar teknologjinë për mediat sociale dhe firmat e lojrave.
Por keqpërdorimet e mundshme për mashtrime të thella janë të mëdha. Ekziston shqetësimi se në duar të gabuara, teknologjia mund të përbëjë një kërcënim të sigurisë kombëtare duke krijuar lajme të rreme dhe video mashtruese dhe të falsifikuara.
Instituti Brookings përmblodhi rrezen e rreziqeve politike dhe sociale që paraqesin hile të thella, nga: “shtrembërimi i ligjërimit demokratik; manipulimi i zgjedhjeve; gërryerjen e besimit në institucione; dobësimi i gazetarisë; përkeqësimi i ndarjeve shoqërore; minimi i sigurisë publike; dhe shkaktimi i dëmit të vështirë për të riparuar reputacionin e individëve të shquar, duke përfshirë zyrtarë të zgjedhur dhe kandidatë për zyre”.
Për momentin, shqetësimi më i ngutshëm ka qenë rrëmbimi i fytyrave të grave në videot ‘revenge porn’. Në fakt, sipas një raporti të DeepTrace, pornografia përbën 96 përqind të videove të rreme të gjetura në internet.
Përshtypjet dixhitale gjithashtu kanë filluar të kenë pasoja financiare. Në ShBA, një falsifikim audio i një CEO thuhet se mashtroi një kompani prej 10 milion dollarësh dhe në MB një firmë energjie u mashtrua në një transferim mashtrues prej 243 milion dollarësh.
Një nga zgjidhjet për të luftuar rritjen e pabesueshme të deepfakes, ka qenë kthimi te vetë AI.
Sensity, një platformë e inteligjencës për kërcënime vizuale që zbaton të mësuarit thellë për monitorimin dhe zbulimin e fake deep, ka krijuar një platformë zbulimi që monitoron mbi 500 burime ku gjasat për të gjetur deepfakes me qëllim të keq janë të mëdha.
Përtej mjeteve juridike teknologjike, ka oreks në rritje për të kërkuar dëmshpërblim legjislativ për të luftuar përhapjen e mashtrimeve të thella.
Kalifornia miratoi një ligj në 2019 që e bënte të paligjshme krijimin dhe shpërndarjen e rreme të politikanëve brenda 60 ditëve nga zgjedhjet. Por zbatimi i ndalimeve është më lehtë të thuhet sesa të bëhet, duke pasur parasysh anonimitetin e internetit.
Rrugë të tjera ligjore mund të marrin formën e shpifjes dhe të drejtën e publicitetit, por zbatueshmëria e tyre e gjerë mund të kufizojë ndikimin e saj.
Në planin afatshkurtër, përgjegjësia do të duhet të bjerë mbi supe të gjigantëve të mediave sociale si Facebook dhe Twitter.
Siç argumentojnë studiuesit ligjorë Bobby Chesney dhe Danielle Citron, marrëveshjet e kushteve të shërbimit të platformave teknologjike janë “dokumentet e vetme më të rëndësishme që rregullojnë fjalimin dixhital në botën e sotme”, duke i bërë politikat e përmbajtjes së këtyre kompanive “mekanizmin më të dukshëm të përgjigjes” nga të gjithë distopia jonë e thellë e rreme që përparon me shpejtësi. /Gazeta e Re.