Реклама / Ads
0| 11729 |13.06.2025 СВЯТ

„Платен съм, за да съм тук“ – но не и в действителност. Дезинформацията и протестите в САЩ

.
Източник: ЕПА/БГНЕС
Протестиращ, който признава, че „е платен, за да бъде тук“. Войник от Националната гвардия, който се снима как го замерят с „балони, пълни с олио“. Млад мъж, който заявява намерение за „мирен протест“, преди да хвърли коктейл „Молотов“.
 

Това са част от нещата, които не се случват по улиците на Лос Анджелис тази седмица. Но може и да си помислите, че се случват — ако се информирате чрез изкуствен интелект, пише The Independent.

 

Вирусно разпространение на фалшификати, създадени с AI


Фалшиви видеа, снимки и „факти“ за продължаващите протести в Лос Анджелис, създадени с изкуствен интелект, се разпространяват мълниеносно в социалните мрежи — особено в социалната платформа X (бившият Twitter), собственост на Илон Мъск.

 

Създадени чрез свободно достъпен софтуер за видео- и изображение-генериране, тези напълно синтетични фрагменти от възмущение обикновено потвърждават предварително съществуващ разказ за протестите — например, безпочвената идея, че те са тайно финансирани и снабдени от външни сили.

 

И макар някои да са технически обозначени като пародии, много потребители не виждат тези уточнения и приемат реалистично изглеждащото съдържание за истински кадри от мястото на събитията.

 

Примери за фалшиви видеа


„Здравейте всички! Боб от Националната гвардия съм. Останете на линия – ще ви покажа как подготвяме оборудването си за овладяване на тълпи преди днешното обгазяване“, казва симулиран войник във вирусно TikTok видео, което бе опровергано от France24.

 

„Екипче! Боб пак съм, това е лудост! Хвърлят по нас балони с олио, вижте!“, продължава той.

 

Друго фалшиво видео, публикувано в X, показва мъж-инфлуенсър с прекалено чиста тениска сред ожесточени сблъсъци. „Защо се бунтуваш?“ — пита той маскиран човек. „Не знам, платиха ми да съм тук и просто искам да троша неща“ — отговаря мнимият протестиращ.







AI проверява сам себе си — и греши


Междувременно чатботове като ChatGPT на OpenAI и Grok (вграден в X) дават грешна информация в отговор на въпроси за събитията в Лос Анджелис.

 

И двата бота погрешно твърдят, че снимките с войници от Националната гвардия, спящи на пода в Лос Анджелис тази седмица, „вероятно произхождат“ от Афганистан през 2021 г., според CBS News.

 

Също така, според същото издание, AI твърди, че вирусна снимка на палет с тухли — представяна от десни дезинформационни източници като „доказателство за външно финансиране“ — е направена по време на протестите в ЛА. В действителност, снимката е от улица в Ню Джърси, но дори след като ботовете са коригирани, продължават да настояват за своята версия.

 

Старо оръжие с нови средства


AI-фалшификатите са само нов инструмент в добре познатата оркестра на дезинформацията. Рециклирани снимки от стари протести, изображения извън контекст или дори кадри от видеоигри — всичко това се използва масово от търговците на възмущение поне от 2020 г. насам. Сред разпространителите им е и сенаторът републиканец Тед Круз, който има дълга история с подобни публикации.

 

„Дронове-хищници“ и културната война


В същото време се разпространяват и слухове, че граничната служба (CBP) използва дронове-хищници за наблюдение на протестиращи в Лос Анджелис.

 

„Снимките винаги са могли да се манипулират — това го знаем отдавна“, казва Джеймс Коен, професор по медийна грамотност в Queens College (CUNY), пред Politico.


„Но при видеата... като общество сме свикнали да им вярваме. Досега нямахме причина да мислим, че видеа могат да бъдат фалшифицирани в такъв мащаб“.







Фалшификати за дясната и за лявата публика


Повечето от разгледаните от The Independent видеа явно са насочени към консервативна публика — целят да засилят десни послания. Но поне един TikTok акаунт с над 300 000 гледания към сряда вечерта е насочен към прогресивна аудитория, внушавайки солидарност с имигрантите.

Някои видеа са очевидни шеги. Други са нееднозначно шеговити. Често има етикет, че видеото е генерирано с AI, но в повечето случаи тази важна информация лесно се пропуска.

 

Законова блокада на регулациите


За съжаление, проблемът вероятно ще се влоши. Основен законопроект на републиканците — „Големият Красив Закон“ — включва мораториум върху всякаква държавна регулация на AI, което ще забрани намеса от страна на щатските правителства за срок от 10 години.

 

Как да разпознаем фалшификат


Въпреки че AI-видеата понякога изглеждат напълно реални, има начини да ги разпознаем. Обикновено са подозрително гладки и лъскави, сякаш произлизат от същата стилизирана вселена като прочутата реклама на Pepsi с Кендъл Дженър. Герои във видеата често са неестествено красиви, сякаш създадени от колаж от модни фотосесии.

 

Better Business Bureau препоръчва да се вглеждаме в детайли като пръсти и копчета, които често не изглеждат реалистично. Надписите също често са нечетливи — смесица от букви или имитации на букви.

 

Фоновите фигури може да се държат странно, да се повтарят или да се движат по физически невъзможен начин. Ако се съмнявате — потърсете информация в надеждни медии или при утвърдени журналисти.

 

Най-важният съвет: внимавайте с потвърждаващото пристрастие


Най-вече — внимавайте с видеа, които „перфектно“ потвърждават вече съществуващите ви убеждения. Възможно е просто да са прекалено добри, за да са истина.

Реклама / Ads
Уважаеми читатели, разчитаме на Вашата подкрепа и съпричастност да продължим да правим журналистически разследвания.

Моля, подкрепете ни.
Donate now Visa Mastercard Visa-electron Maestro PayPal Epay
Реклама / Ads
ОЩЕ ПО ТЕМАТА
. 5| 53665 |11.06.2025 Румънският президент: Единственият език, който Русия разбира, е този на силата . 0| 2444 |11.06.2025 Пробив в търговските преговори между Китай и САЩ . 2| 11889 |10.06.2025 ChatGPT "отиде на кино" в цял свят . 0| 2824 |10.06.2025 Тежки снеговалежи и студове в Южна Африка, има жертви

КОМЕНТАРИ

Реклама / Ads