.png)
Dirbtinis intelektas ir „deepfake“ vaizdo įrašai:
kada tai, ką matome, yra netikra?
Dirbtinis intelektas (DI) geba vis daugiau, šiandien matome ne tik sugeneruotus tekstus ar paveikslėlius, bet ir realistiškai atrodančius video. Vaizdo įrašai gali pertekti judančius, kalbančius žmones, atkurti veidą, balsą, emocijas. Ir daro tai taip įtikinamai, kad atpažinti, kas tikra, o kas sukurta, darosi vis sunkiau. Iš pirmo žvilgsnio – tai technologinis progresas. Bet kartu ir iššūkis mūsų gebėjimui atskirti tikrovę nuo dirbtinai sukurto turinio.
DI video tampa vis tikslesni, įtikinamesni, ir ne visada aišku, ar tai tikrai matytas politikas, mokytojas ar giminaitis, ar tiesiog labai tikroviškai atkurta jų versija.
Būtent todėl tampa svarbu žinoti, kaip atpažinti Dirbtinio intelekto video. Ypač kai kalbame apie informacijos patikimumą, visuomenės saugumą ir kritinio mąstymo ugdymą.
Išmanusis vaizdo klastojimas arba gilusis padirbinys (angl. deepfake) – tai pažangių technologijų pagrindu sukurtas vaizdo ar garso įrašas, kuriame imituojami veiksmai ar pasisakymai, kurie niekada realiai neįvyko. Tokie įrašai dažniausiai kuriami pasitelkiant Dirbtinį intelektą ar giluminio mokymosi metodus, tačiau gali būti generuojami ir kitomis vaizdo apdorojimo technologijomis.
Kodėl svarbu mokėti atpažinti netikrus video?
Dirbtinio intelekto sukurti vaizdo įrašai, dar vadinami „deepfake“, gali būti naudojami ne tik pramogai, bet ir klaidinimui. Tokie įrašai pasitelkiami skleisti suklastotą informaciją, manipuliuoti emocijomis ar formuoti neteisingą nuomonę.
Ypač pažeidžiami žmonės, kuriems Dirbtinio intelekto galimybės dar mažai pažįstamos. Pavojus slypi ne pačioje technologijoje, o mūsų gebėjime ją suprasti. Jei matome žmogų kalbantį ekrane, mūsų smegenys natūraliai pasitiki tuo, ką regi. O kai vaizdas yra netikras, bet profesionaliai padarytas, jį atpažinti tampa sunku.
Netikri video gali atrodyti visiškai įtikinamai: girdime pažįstamą balsą, matome atpažįstamą veidą, o turinys – emociškai paveikus. Tokia informacija sklinda greitai, o jos poveikis gali būti didesnis nei rašytinio žodžio.
Būtent dėl šios priežasties gebėjimas kritiškai vertinti vaizdo turinį tampa skaitmeninio raštingumo dalimi. Jis svarbus ne tik žurnalistams ar technologijų ekspertams. Tai įgūdis, kurio reikia kiekvienam, kuris naršo internete, žiūri naujienas ar dalijasi informacija su kitais.
Į ką atkreipti dėmesį?
Yra keli požymiai, galintys padėti atskirti ar vaizdo įrašas sukurtas naudojant Dirbtinį intelektą:
1. Lūpų ir garso nesutapimas
Vienas iš ženklų, kad tai gali būti deepfake video – nesutapimas tarp lūpų judesių ir garso. Balsas gali šiek tiek vėluoti arba būti per greitas. Dažnai jis skamba nenatūraliai, monotoniškai, be kvėpavimo pauzių ar intonacinių niuansų. Toks kalbėjimas primena įrašytą tekstą, o ne gyvą kalbą.
2. Nenatūrali veido mimika
Veido išraiška dažnai būna pernelyg lygi, be mikrojudesių, kartais pasikartojanti ar net sustingusi. Emocijos, nors vizualiai atkurtos, atrodo paviršutiniškos. DI sugeneruoti veidai gali šypsotis arba išreikšti pyktį be jokios įtampos raumenyse. Žiūrint ilgiau, kyla pojūtis, kad „kažkas ne taip“, net jei sunku tiksliai pasakyti, kas.
3. Keistas mirksėjimas
Deepfake video dažnai išduoda akys. Personažai gali mirksėti per dažnai, pernelyg tolygiai arba visai nemirksėti. Žvilgsnis kartais klaidžioja be aiškios krypties arba per ilgai fiksuojasi į vieną tašką.
4. Nenatūralūs judesiai
Kartais judesiai atrodo per sklandūs, be inercijos, o kartais per daug kampuoti ir trūkčiojantys. Kūno kalba nesiderina su tuo, kas sakoma, o laikysena būna nenatūraliai statiška arba pasyvi. Dažnai trūksta kvėpavimo ar realaus judėjimo dinamikos.
5. Nelogiškos veiksmo pasekmės
Su AI sukurtuose vaizdo įrašuose dažnai trūksta tikroviškos sąveikos su aplinka. Pavyzdžiui, jei žmogus valgo, maistas išlieka lėkštėje nepaliestas. Jei personažas kažką laiko ar liečia, objektas nepakinta. Veiksmas vyksta, bet jo pasekmių nematyti. Sukurtas su DI turinys dažnai atkartoja paviršių, bet praleidžia priežasties ir pasekmės ryšį.
6. Netikslumai detalėse ir proporcijose
Pradingsta arba pakinta smulkios detalės. Žmogaus veidas DI vaizdo pradžioje gali atrodyti vienaip, o pabaigoje jau turėti kitokią nosį, akių spalvą ar net plaukų formą. Kartais deformuojasi kūno dalys, pirštai tampa per ilgi, delnai neproporcingi. Fonas gali atrodyti išplaukęs ar keistai susiliejęs su žmogaus figūra. Tokie neatitikimai ne visada matomi iš pirmo žvilgsnio, bet sukelia įspūdį, kad vaizdas – netikras.
7. Šviesos ar spalvų neatitikimai
Deepfake video dažnai pažeidžia realaus pasaulio dėsnius. Šešėliai gali kristi keistomis kryptimis, nesutapti su šviesos šaltiniu arba visai dingti. Daiktai juda taip, tarsi neturėtų svorio: krenta per greitai, per lėtai arba visai ne taip, kaip tai vyksta realybėje. Kartais šviesa tarsi „nepataiko“ ant žmogaus veido ar objektų, o aplinkos tonai būna pernelyg ryškūs arba keistai nuplauti. Aplinka atrodo nenatūraliai sterili.
Nė vienas požymis savaime dar nėra įrodymas. Bet jų visuma leidžia kritiškai pažvelgti į matomą vaizdą ir, svarbiausia, neleisti savęs lengvai apgauti.
Ką galime padaryti?
Jei norime būti atsparūs netikram vaizdiniam turiniui, svarbu ne tik patiems mokėti jį atpažinti, bet ir padėti tai suprasti kitiems.
Svarbiausia – kalbėtis, dalintis patirtimi. Ne pamokslaujant, o paprastai paaiškinant, kas yra „deepfake“, kaip jis veikia, kodėl svarbu būti budriems. Ypač tai svarbu vyresniems žmonėms, kurie mažiau susiduria su Dirbtiniu intelektu.
Verta parodyti realius vaizdo įrašų pavyzdžius, tiek sugeneruotus su DI, tiek tikrus. Tik taip formuojasi vizualinis pojūtis, kurio neįmanoma perduoti vien žodžiais.
Keli paprasti, bet veiksmingi dalykai:
• Kalbėkime apie „deepfake“ su artimaisiais, ypač tais, kuriems DI vis dar skamba kaip tolima sąvoka.
• Rodykime pavyzdžius, parodytas skirtumas išlieka atmintyje geriau nei paaiškinimas.
• Skatinkime tikrinti šaltinius: kas paskelbė, kur tai publikuota, ar turinys siejamas su patikimais šaltiniais.
Maži pokalbiai kuria didesnį atsparumą.
Kritinis mąstymas – ypač reikalingas
Dirbtinio intelekto video – nei grėsmė, nei stebuklas. Tai įrankis. O kaip ir kiekvienas įrankis, jis gali būti naudingas arba pavojingas, priklausomai nuo to, kas ir kaip jį naudoja.
Gebėjimas atskirti tikrą nuo netikro tampa ne tik technologiniu įgūdžiu, bet ir būtina skaitmeninio raštingumo dalimi.
Pamatę įrašą, kuriame viešas asmuo sako ar daro kažką keisto, verta stabtelėti, įsižiūrėti ir paklausti savęs: ar jis tikrai taip pasakytų? Ar reklamuotų abejotiną investavimo platformą, siūlytų neaiškų žaidimą ar kviestų greitai praturtėti? Kritinis klausimas gali apsaugoti ne tik nuo klaidos, bet ir nuo apgaulės.
Technologijos tobulėja, bet kartu turi augti ir mūsų gebėjimas jas suprasti. Tam reikia tik noro domėtis, tikrinti ir kalbėtis.
Jei bent vienas žmogus, perskaitęs šį tekstą, pasidalins juo su savo tėvais ar seneliais, jau bus padaryta daugiau, nei gali atrodyti. Nes didžiausia apsauga šiais laikais – kritinis mąstymas.
Sandra Klevinskaitė, skaitmeninės komunikacijos specialistė, intelektūra. technologijų edukatorė.