Истражување во фокус: Роеви од ВИ четботови – следниот фронт во војната против демократијата

Фото: колаж направен во Канва

Злонамерен „ВИ-рој“ се дефинира како мрежа од четбот-агенти контролирани од централизирана вештачка интелигенција коишто одржуваат уникатни идентитети (или онлајн профили со единечни сеќавања и преференци од минатите интеракции), се координираат кон заеднички цели и континуирано се прилагодуваат на автентичните одговори на вистински корисници на социјалните мрежи. Иако „ВИ-роевите“ претставуваат вистинска и сериозна закана, авторите велат дека одговорот не треба да биде „Министерство за вистина“- асоцирајќи на Орвеловата „1984“, туку да се направат ваквите операции што е можно поскапи за оние што ги креираат

Злонамерен „ВИ-рој“ се дефинира како мрежа од четбот-агенти контролирани од централизирана вештачка интелигенција коишто одржуваат уникатни идентитети (или онлајн профили со единечни сеќавања и преференци од минатите интеракции), се координираат кон заеднички цели и континуирано се прилагодуваат на автентичните одговори на вистински корисници на социјалните мрежи. Иако „ВИ-роевите“ претставуваат вистинска и сериозна закана, авторите велат дека одговорот не треба да биде „Министерство за вистина“- асоцирајќи на Орвеловата „1984“, туку да се направат ваквите операции што е можно поскапи за оние што ги креираат

 

Пишува: Матеј Тројачанец

 

Во минатото често се пишуваше за т.н. руските „трол-фарми“, коишто беа организирани онлајн агитатори и ги идентификуваат поплаките во други земји и потоа се вметнуваат во онлајн дебати, со цел да ги разгорат страстите и да направат што е можно поглем раздор кај корисниците на онлај социјалните мрежи. Тие главно  се потпираа на луѓе кои рачно објавуваа и коментираа потпалива содржина на Фејсбук и Твитер. Десет години подоцна, тој модел веќе изгледа речиси целосно застарен. 

Според новиот извештај (достапна верзија тука) објавен во престижното научно списание „Science“, иднината на дезинформациите ќе биде автоматизирана како и досега, но и ќе биде адаптивна и застрашувачки ефикасна со користење на различните четботови базирани на вештачка интелигенција. Авторите предупредуваат дека „роеви од колаборативни, злонамерни агенти на вештачка интелигенција“ наскоро би можеле да манипулираат со верувањата и однесувањата на интернет корисниците „на ниво на целата популација“ преку приспособување на своијата содржината што ја објавуваат кон конкретни целни групи и со уникатни пораки.

 

Што се ВИ-роеви и како можат да ѝ наштетат на демократијата?

Во научниот труд злонамерен „ВИ-рој“ се дефинира како мрежа од четбот-агенти контролирани од централизирана вештачка интелигенција коишто одржуваат уникатни идентитети (или онлајн профили со единечни сеќавања и преференци од минатите интеракции), се координираат кон заеднички цели и континуирано се прилагодуваат на автентичните одговори на вистински корисници на социјалните мрежи. За разлика од традиционалните ботовски профили кои ја копираат и објавуваат истата порака, ВИ-роевите може да генерираат разновидна содржина, свесна за контекстот во кој се објавува. Целта е да направат привиден консензус како тоа да е од автентични корисници за дадена цел со која би можело да се влијае на општото мислење 

Како што пишуваат авторите, овие системи можат „автономно да се координираат, да се инфилтрираат во онлајн заедниците и ефикасно да изработат консензус“ – односно познато како „производство на согласност“ (анг. „Manufacturing consent“). Со „адаптивно имитирање на човечката социјална динамика, тие може да ја загрозат демократијата“ и демократските процеси.

Во WIRED магазинот за технологија и култура, овој нов тип на закана го опишуваат вака:

…наместо соби полни со платени тролови, едно лице со пристап до најновите алатки за вештачка интелигенција ќе може да командува со „ВИ-роеви“ од илјадници кориснички сметки на социјалните медиуми, од кои секоја создава објави кои делуваат како да се креирани од луѓе и се развива и адаптира во реално време.

Резултатот е форма на битка за влијание што е побрза, поевтина и потешка за откривање од сите претходни форми на неавтентични или „ботовски“ обиди за влијание на јавното мислење.

 

Од фарми на тролови до синтетички општества

Се наметнува прашањето што значи ова пракса? Исто како што при користење на алатките базирани на ВИ – Четџипити (ChatGPT), Клод (Claude) итн. ги помнат сите ваши разговори и интеракции, па базирано на нив ви даваат уникатни одговори, така и „ВИ-роевите“ ќе можат да ги адаптираат своите пораки врз база на претходни интеракции на твитер. Односно, да имаат интерна конзистентност како божем се работи за автентичен профил на вистински корисник, ќе можат да памтат претходни разговори, да користат сленг, да имаат сопствени „преференции“ и да објавуваат пораки со грешки.

Со други зборови, пораките од лажните сметки ќе бидат така напишани што сегашните автоматизирани системи за модерација нема да ги разликуваат од пораките на вистинските корисници.

ВИ-роевите можат да прават милиони микро-А/Б тестови, да ги пропагираат победничките варијанти со брзина на машина и да итерираат многу побрзо од луѓето, пишуваат авторите на научниот извештај.

WIRED го цитира Јонас Кунст, еден од коавторите на трудот:

Се движиме во нова фаза на информатичка војна на платформите на социјалните медиуми каде што технолошкиот напредок го направи класичниот пристап кон ботови застарен.

Стравот не е само дека ќе има повеќе лаги и дезинформации, туку нова синтетичка општествена реалност. Под ова мислиме на две работи. Првото е фактот што, според Пју истражувачкиот центар, една четвртина од корисниците на Х (поранешен Твитер) создаваат 97 отсто од објавените содржини на платформата. Односно, мала бројка на корисници го креираат консензусот. 

Второ е фактот што теоријата за „мртов интернет“, односно верувањето дека огромното мнозинство од интернет сообраќајот – објавите, коментарите и корисничките сметки, се заменети со ботови и содржина генерирана со ВИ или, поедноставно, дека луѓето повеќе не го обликуваат правецот на интернетот.

Со други зборови, бидејќи речиси цела содржина на онлајн платформите ја креираат малцинство од кориснички сметки, сега постои можноста и тие автентични гласови односно корисници и да се заменат со „ВИ-роеви“, што може деноноќно да работат и без престан да создаваат нови и нови содржини. И со тоа да направат, како што истражувачите го нарекуваат, „фабрикуван консензус“.

Демократијата не бара совршена вистина, но бара нешто покревко: независни гласови. „Мудроста на толпата“ зависи од независноста меѓу проценките. Ако еден единствен актер може да зборува преку илјадници неавтентични искази, очигледниот консензус на толпата престанува да биде информативен.

Најопасниот исход не е една вирална лага, тоа е синтетички консензус: илузијата дека „сите го кажуваат ова“, што може тивко да ги искриви верувањата и нормите пишува Џеј Ван Бавел, еден од авторите на извештајот.

 

Можни одговори за проблемот со „ВИ-роевите“

Авторите пишуваат дека одговорот на ваквиот тип на заканата не треба да биде „Министерство за вистина“ – повикувајќи се на Орвеловата „1984“, преку кое ќе се прејудицира што е вистина, а што не. Туку, потребно е да се направат ваквите операции што е можно поскапи за оние што ги креираат. 

Поточно, еден приоритет треба биде детектирање на статистички неверојатна координација на сметки и координирано објавување. Наместо епизодни „чистки“ на сметки откако ваквите операции ќе станат вирални, платформите (и регулаторните тела) треба да се залагаат за континуирано следење на аномални и координирани однесувања. А, за да се намали злоупотребата, овие системи треба да се поврзат со мерки за транспарентност и независни ревизии.

Втор приоритет, според авторите, треба да бидат т.н. „стрес тестирања“ преку симулации. Како што велат, бидејќи „чуварите“ секогаш ќе заостануваат ако реагираат само на вчерашните тактики, симулациите може да помогнат во тестирањето на системите за детекција, откривањето на ваквите „шеми“ и на можни дефекти и пропусти во одбранбените механизми.

Трет приоритет е зајакнување на потеклото на корисничките сметки без „убивање“ на анонимноста. Целта е да се направи систем преку кој ќе може да се потврди дека некоја сметка е автентична, т.е. дека зад неа стои вистински корисник, но истата да остане анонимна. Ова е затоа што, според авторите, политиките за вистинска идентификација можат да им наштетат на дисидентите во одредени општества и свиркачите чии идентитети не треба да се откријт. Со други зборови, да се направи систем преку кој масовното лажно создавање на кориснички сметки ќе стане прескапо, а воедно и ќе се зачувува приватноста на самите корисници.

 

 

 

 

 

Сите коментари и забелешки поврзани со овој и другите написи на Вистиномер, барањата за корекции и појаснувања, како и предлозите за проверка на изјавите на политичарите и ветувањата на политичките партии, можете да ги доставите преку овој формулар

Оставете реакција