otrdiena, 25. novembris
SākumsSabiedrībaZiņu detektīvs: kā lielvaras izmanto mākslīgo intelektu propagandas izplatīšanai

Ziņu detektīvs: kā lielvaras izmanto mākslīgo intelektu propagandas izplatīšanai

Radio SWH raidījumu ciklā “Ziņu detektīvs” Agnese Vasermane šoreiz pievēršas jaunākajiem pētījumiem par to, kā mākslīgā intelekta tērzēšanas rīki tiek izmantoti informatīvajā telpā, un kā tie paši kļūst par propagandas atkārtotājiem. Pētnieki brīdina: MI rīki ne tikai izplata kļūdas un neprecizitātes, bet arī atkārto sankcionētu valstu mediju vēstījumus, nonākot tiešā konfliktā ar Eiropas Savienības regulējumu.

Stratēģiskā dialoga institūta pētījums, ko publicējis WIRED, atklāj, ka vadošie MI tērzēšanas rīki, tostarp ChatGPT, Gemini, Copilot un citi, atbildot uz jautājumiem par karu Ukrainā, aptuveni 18% gadījumu atkārto propagandu no ar Kremli saistītām vai valsts finansētām struktūrām. Pētnieki aicinājuši Eiropas Komisiju precizēt, kā uz šādām MI atbildēm attiecas ES sankciju regulējums, ja MI reproducē aizliegtu saturu.

Par šo problēmu brīdina arī NATO StratCom COE direktors Jānis Sārts, kurš sarunā ar Radio SWH norāda, ka MI rīki tiek izmantoti ļoti mērķtiecīgi: “Nu šeit ir divas lietas. Pirmkārt, jāskatās ķīniešu modeļi. Tie ir ļoti specifiski trenēti – uz Komunistiskās partijas ideoloģiju. (…) Otrs ir metodoloģijas, kuras tiek realizētas, lai novirzītu lielo valodas modeļu rezultātus tā, lai viņi drīzāk paņemtu no interneta šos Krievijas naratīvos balstītos vēstījumus.”

Sārts uzsver, ka problēma pastiprinās brīdī, kad MI tiek savienots ar internetu: “Kopš interneta pieejamības parādās vairāki fenomeni. Vai tā ir “data void” problēma, vai arī internetā tiek noliktas Krievijas naratīva saites visvarbūtīgākajās vietās – vairāk liktu uz otro.”

Savukārt Hārvardas Kenediju skolas pētnieku jaunākais pētījums, ko publicējis Misinfore Review, rāda nedaudz citu perspektīvu. Pēc 416 MI atbilžu audita viņi secina, ka ievainojamības biežāk izriet nevis no ārvalstu manipulācijas, bet gan no “datu tukšumiem” (data voids) – tēmām un nišām, kur internetā ir ļoti maz uzticamas informācijas. Šādos gadījumos MI aizpilda tukšumu ar neprecizitātēm, novecojušu vai nepārbaudītu saturu.

Taču Jānis Sārts šai interpretācijai nepiekrīt: “Es šim līdz galam nevaru piekrist. Modeļi, kas ir atdalīti no interneta, mazāk ietekmējami. Pirms savienošanas ar internetu viņi varēja atrast visu un sniegt svārstības, bet daudz mazāk tos varēja ietekmēt Krievijas naratīvi.”

Vai mākslīgā intelekta satura marķēšana strādā?

Izpētes platforma Indikator atgādina, ka pēdējo divu gadu laikā lielās tehnoloģiju kompānijas solīja atzīmēt MI radītu saturu ar redzamu marķējumu. Taču pirmais audits rāda – solījumi nav izpildīti.

Pētnieki trīs nedēļu laikā publicēja 500 ziņojumus, kas saturēja MI radītus attēlus un video platformās Instagram, LinkedIn, Pinterest, TikTok un YouTube. Pareizi marķēti tika tikai aptuveni 30% šo materiālu.

Par īpaši ievainojamu grupu šajā kontekstā tiek minēti pusaudži – raita organizācija ABC norāda, ka tieši jaunie lietotāji visbiežāk nespēj atšķirt reālus video no mākslīgi radītiem. Tomēr, attīstoties tehnoloģijām, šī problēma arvien vairāk attiecas arī uz citām vecuma grupām.

“Ziņu detektīvs” ir Radio SWH raidījumu cikls, kurā žurnāliste Agnese Vasermane pēta un skaidro aktuālākās viltus ziņas un dezinformācijas tendences Latvijā un pasaulē. Raidījums skan katru trešdienu un piektdienu pēc plkst. 12.00 Radio SWH ēterā. Projektu atbalsta Vācijas vēstniecība Rīgā.

LĪDZĪGI RAKSTI

KOMENTĀRI

0 Komentāri
Jaunākie
Vecākie Populārākie
Inline Feedbacks
Rādīt visus komentārus

CITI LASA

Piedošanas konceptam nav noilguma: kā bērni apgūst atvainošanos un kāda loma tajā ir vecākiem

Kad bērni sastrīdas vai nodara pāri viens otram, vecāku pirmā reakcija bieži ir automātiska – “Pasaki piedod!”. Taču bērns nereti to izdara mehāniski, nesaprotot...

POPULĀRĀKIE