ИН4С

ИН4С портал

„Снимци Меденице носе снажне индикације АИ манипулације, али компресија отежава коначан суд“

1 min read

Истраживач, медијски експерт и предсједник удружења НаративАИ – Центар за медијске иновације на Балкану, Александар Манасиев, оцијенио је у разговору за Портал РТЦГ да први видео-снимци који се приписују одбјеглом Милошу Меденици показују „снажне индикације“ да је ријеч о АИ-генерисаном садржају, уз процијењену вјероватноћу од око 80 одсто, али упозорава да без оригиналних фајлова није могуће донијети апсолутан закључак.

Манасиев наглашава да код процјене аутентичности не постоји један једини доказ који сам по себи потврђује да је садржај генерисан вјештачком интелигенцијом.

„Не постоји један индикатор који сам по себи представља доказ. Поуздана процјена се увијек заснива на комбинацији више елемената – визуелних, аудио и контекстуалних. Код видеа се анализира понашање лица у односу на главу и окружење, синхронизација покрета усана са говором, стабилност коже, очију и свјетла, као и временска конзистентност кроз више кадрова“, објашњава Манасиев.

Проблем, додаје, настаје када су снимци снажно компресовани, снимани у слабом освјетљењу и више пута поново објављивани.

„Тада се дио форензичких трагова губи или постаје тешко уочљив“, истиче Манасиев.

Аудио још осјетљивији од видеа

Према његовим ријечима, аудио сегмент је често још осјетљивији за манипулацију.

Као илустрацију наводи случај словачке новинарке Монике Тодове из листа „Denník N“, гдје је АИ-генерисани аудио коришћен како би се створио утисак аутентичног разговора.

„Савремени алати могу веома увјерљиво имитирати глас, интонацију и емоционални тон, али и даље гријеше у суптилним детаљима – у ритму говора, паузама, дисању и контексту у којем се поједине реченице користе. Управо су те нијансе кључне за озбиљну анализу, али их није лако препознати без искуства и упоредног материјала“, каже Манасиев.

Он упозорава и на могућност софистицираније манипулације, да једна особа прочита текст на чистом црногорском језику, са локалним дијалектом и природном интонацијом, након чега се тај снимак користи за тренирање модела који имитира глас друге особе.

„Дијалекат, ритам и нагласак већ постоје у основном снимку, док се АИ користи искључиво за промјену гласа. Резултат може бити врло увјерљив, али и изразито манипулативан садржај“, наводи Манасиев.

Први снимци Меденице – 80% вјероватноће АИ манипулације

Говорећи конкретно о снимцима Милоша Меденице, Манасиев каже да анализа првих видео-клипова указује на снажне индикације да је ријеч о АИ-генерисаном садржају.

„Процијењена вјероватноћа је око 80 одсто. Код каснијих снимака ти индикатори су слабије изражени, али то не представља доказ њихове аутентичности. Напротив, показује колико квалитет изворног материјала, ниво компресије и услови снимања утичу на могућност поуздане детекције“, истиче Манасиев.

Према његовим ријечима, све упућује на то да су креатори видеа добро упознати са процесом верификације.

<

„Снажна компресија и слабо освјетљење, готово као да су снимци направљени мобилним телефоном старим десет година, могу бити свјесно коришћени како би се отежало откривање евентуалне манипулације“, каже Манасиев.

Парадокс је, додаје, у томе што такав квалитет материјала онемогућава да се са сигурношћу докаже и да су снимци аутентични, али и да су лажни.

„То је типичан ефекат намјерно манипулисаног начина дистрибуције садржаја“, наводи Манасиев.

Контекст и канал дистрибуције кључни за процјену

Манасиев наглашава да техничка анализа није довољна без разматрања ширег контекста.

„Треба анализирати да ли се особа која се појављује у снимцима раније оглашавала на овакав начин, да ли је имала праксу објављивања видео-порука или јавних коментара, и ако није, зашто се то дешава управо сада“, објашњава Манасиев.

Једнако је важно, додаје, питање канала дистрибуције.

„У конкретном случају садржај се не појављује путем раније познатог или директно повезаног канала те особе, већ преко профила на платформи X, при чему није јасно ко стоји иза тог налога и са којом намјером. Таква комбинација нејасног извора, временског момента и техничких ограничења материјала додатно појачава сумњу и указује на потребу за крајње опрезним тумачењем садржаја“, истиче Манасиев.

Технологија напредује брже од детекције

Он подсјећа да су данас АИ-генерисане фотографије често лакше уочљиве због анатомски нелогичних детаља или неправилних одраза, док су видео и аудио знатно комплекснији јер укључују кретање и континуитет кроз вријеме.

„Кључ је у комбинацији техничких алата и људске форензичке процјене. Међутим, већина озбиљнијих алата се плаћа и захтијева техничко знање“, наводи Манасиев.

Додатни проблем је што јавност готово никада нема приступ оригиналним фајловима, већ само компресованим верзијама са друштвених мрежа, без метаподатака.

„Када постоји оригинални материјал, анализа може бити релативно брза и прецизна. Када се ради о ре-уплоадованим и компресованим снимцима без извора, процес се често завршава процјеном вјероватноће, а не апсолутним закључком. У таквим случајевима говоримо о процентима, не о потпуној сигурности“, објашњава Манасиев.

„Deepfake“ у уживо преносима могућ, али…

Када је ријеч о примјени „Deepfake“ технологије у уживо преносима, Манасиев наводи да је теоретски могуће изводити замјену лица (фаце-сwап) и синтетички генерисати говор у реалном времену.

Ипак, упозорава да такви сценарији захтијевају озбиљну техничку инфраструктуру и строго контролисане услове снимања.

„У пракси се зато често прибјегава ниској резолуцији, слабом освјетљењу и ограниченом кадру, како би се прикрили технолошки недостаци и отежало уочавање евентуалних неправилности“, наводи Манасиев.

Релевантне институције треба да се огласе

Он сматра да би у оваквим ситуацијама требало да се огласе релевантне институције, попут центара за сајбер безбједност или националних ЦЕРТ-ова.

„Њихова улога није да пресуде, већ да стручно објасне шта се може, а шта не може поуздано утврдити, чиме се смањује простор за спекулације и дезинформације у јавности“, каже Манасиев.

Кључни проблем, наглашава Манасиев, представља чињеница да технологија за креирање „Deepfake“ садржаја постаје све доступнија и квалитетнија, док системи за њихово откривање не напредују истим темпом.

„Управо тај несклад данас је највећи изазов, не само за новинаре и истраживаче, већ и за институције и друштво у цјелини“, закључио је Манасиев.

Подсјетимо, до сада је на једном профилу платформе X објављено седам видеа са наводним Милошем Меденицом.

Из Управе полиције су тим поводом реаговали тврдећи да је видео лажан.

Он се од 28. јануара налази у бјекству, након што га је Виши суд у Подгорици у првостепеном поступку осудио на десет година и два мјесеца затвора.




Придружите нам се на Вајберу и Телеграму:

     

Слични текстови

1 thoughts on “„Снимци Меденице носе снажне индикације АИ манипулације, али компресија отежава коначан суд“

  1. Čovjek koristi termin “ čisti crnogorski“ jezik. Američki lingvisti tvrde da je veća razlika između crnačkog engleskog u Njujorku u odnosu na engleski u istom gradu koji govori stanovništvo bijele rase nego što je razlika između srpskog, crnogorskog, bošnjačkog i hrvatskog jezika, pa nikom ne pada na pamet da tvrdi da stanovnici Njujorka govore bilo kojim drugim jezikom do engleskim. Samo mali narodi svoju sreću vide u prokletstvu malih razlika.

Оставите одговор

Ваша адреса е-поште неће бити објављена. Неопходна поља су означена *