„Платен съм, за да съм тук“ – но не и в действителност. Дезинформацията и протестите в САЩ

Това са част от нещата, които не се случват по улиците на Лос Анджелис тази седмица. Но може и да си помислите, че се случват — ако се информирате чрез изкуствен интелект, пише The Independent.
Вирусно разпространение на фалшификати, създадени с AI
Фалшиви видеа, снимки и „факти“ за продължаващите протести в Лос Анджелис, създадени с изкуствен интелект, се разпространяват мълниеносно в социалните мрежи — особено в социалната платформа X (бившият Twitter), собственост на Илон Мъск.
Създадени чрез свободно достъпен софтуер за видео- и изображение-генериране, тези напълно синтетични фрагменти от възмущение обикновено потвърждават предварително съществуващ разказ за протестите — например, безпочвената идея, че те са тайно финансирани и снабдени от външни сили.
И макар някои да са технически обозначени като пародии, много потребители не виждат тези уточнения и приемат реалистично изглеждащото съдържание за истински кадри от мястото на събитията.
Примери за фалшиви видеа
„Здравейте всички! Боб от Националната гвардия съм. Останете на линия – ще ви покажа как подготвяме оборудването си за овладяване на тълпи преди днешното обгазяване“, казва симулиран войник във вирусно TikTok видео, което бе опровергано от France24.
„Екипче! Боб пак съм, това е лудост! Хвърлят по нас балони с олио, вижте!“, продължава той.
Друго фалшиво видео, публикувано в X, показва мъж-инфлуенсър с прекалено чиста тениска сред ожесточени сблъсъци. „Защо се бунтуваш?“ — пита той маскиран човек. „Не знам, платиха ми да съм тук и просто искам да троша неща“ — отговаря мнимият протестиращ.
AI проверява сам себе си — и греши
Междувременно чатботове като ChatGPT на OpenAI и Grok (вграден в X) дават грешна информация в отговор на въпроси за събитията в Лос Анджелис.
И двата бота погрешно твърдят, че снимките с войници от Националната гвардия, спящи на пода в Лос Анджелис тази седмица, „вероятно произхождат“ от Афганистан през 2021 г., според CBS News.
Също така, според същото издание, AI твърди, че вирусна снимка на палет с тухли — представяна от десни дезинформационни източници като „доказателство за външно финансиране“ — е направена по време на протестите в ЛА. В действителност, снимката е от улица в Ню Джърси, но дори след като ботовете са коригирани, продължават да настояват за своята версия.
Старо оръжие с нови средства
AI-фалшификатите са само нов инструмент в добре познатата оркестра на дезинформацията. Рециклирани снимки от стари протести, изображения извън контекст или дори кадри от видеоигри — всичко това се използва масово от търговците на възмущение поне от 2020 г. насам. Сред разпространителите им е и сенаторът републиканец Тед Круз, който има дълга история с подобни публикации.
„Дронове-хищници“ и културната война
В същото време се разпространяват и слухове, че граничната служба (CBP) използва дронове-хищници за наблюдение на протестиращи в Лос Анджелис.
„Снимките винаги са могли да се манипулират — това го знаем отдавна“, казва Джеймс Коен, професор по медийна грамотност в Queens College (CUNY), пред Politico.
„Но при видеата... като общество сме свикнали да им вярваме. Досега нямахме причина да мислим, че видеа могат да бъдат фалшифицирани в такъв мащаб“.
Фалшификати за дясната и за лявата публика
Повечето от разгледаните от The Independent видеа явно са насочени към консервативна публика — целят да засилят десни послания. Но поне един TikTok акаунт с над 300 000 гледания към сряда вечерта е насочен към прогресивна аудитория, внушавайки солидарност с имигрантите.
Някои видеа са очевидни шеги. Други са нееднозначно шеговити. Често има етикет, че видеото е генерирано с AI, но в повечето случаи тази важна информация лесно се пропуска.
Законова блокада на регулациите
За съжаление, проблемът вероятно ще се влоши. Основен законопроект на републиканците — „Големият Красив Закон“ — включва мораториум върху всякаква държавна регулация на AI, което ще забрани намеса от страна на щатските правителства за срок от 10 години.
Как да разпознаем фалшификат
Въпреки че AI-видеата понякога изглеждат напълно реални, има начини да ги разпознаем. Обикновено са подозрително гладки и лъскави, сякаш произлизат от същата стилизирана вселена като прочутата реклама на Pepsi с Кендъл Дженър. Герои във видеата често са неестествено красиви, сякаш създадени от колаж от модни фотосесии.
Better Business Bureau препоръчва да се вглеждаме в детайли като пръсти и копчета, които често не изглеждат реалистично. Надписите също често са нечетливи — смесица от букви или имитации на букви.
Фоновите фигури може да се държат странно, да се повтарят или да се движат по физически невъзможен начин. Ако се съмнявате — потърсете информация в надеждни медии или при утвърдени журналисти.
Най-важният съвет: внимавайте с потвърждаващото пристрастие
Най-вече — внимавайте с видеа, които „перфектно“ потвърждават вече съществуващите ви убеждения. Възможно е просто да са прекалено добри, за да са истина.
Моля, подкрепете ни.





