Реклама / Ads
Frognews

НОВИНИ И АНАЛИЗИ

0| 981 |26.02.2026 НОВИНИ

AI като шперц: Хакер открадна 150 GB правителствени данни с чатбота Claude

.
Източник: БГНЕС
Неизвестен хакер е използвал чатбота с изкуствен интелект Claude на Anthropic, за да атакува мексикански правителствени агенции и да открадне 150 GB данни, съобщава Bloomberg. Според разследването те включват данъчна информация, идентификационни данни на служители и друга чувствителна официална информация.
 

По данни на компанията за киберсигурност Gambit Security атаките са започнали през декември и са продължили около месец. Нападателят е използвал Claude, за да открива уязвимости в правителствените мрежи, да създава скриптове за експлоатирането им и да планира автоматизацията на кражбата на данни. Първоначално чатботът е отказвал да изпълнява злонамерени заявки, но хакерът е успял да заобиколи ограниченията чрез специфични команди. В резултат системата е генерирала хиляди подробни доклади с готови за изпълнение планове, включително конкретни вътрешни цели и идентификационни данни, които биха могли да подпомогнат атаката.

 

Твърди се, че паралелно с това нападателят е използвал и ChatGPT на OpenAI, за да събира информация как да се придвижва в компютърни мрежи, какви права за достъп са необходими и как да намали риска от разкриване.

 

При собствен анализ експертите от Gambit Security са открили поне 20 уязвимости в AI системите, които не са били публично оповестени.

 

AI като шперц в ръцете на хакерите

 

Изкуственият интелект все по-често се превръща в основен инструмент в арсенала на киберпрестъпници и държавно подкрепяни хакерски групи. По същият начин, както шперцът е важна част от оборудването на един крадец.

 

В края на 2025 г. именно Anthropic разкри един от първите мащабни примери за т.нар. „агентски“ кибератаки, при които AI инструментът Claude Code е бил използван за автоматизиране на прониквания в повече от 30 организации по света, включително финансови институции и технологични компании. Според компанията зад атаките вероятно стоят структури с държавна подкрепа, като подозренията са насочени към Китай. Системата е поела между 80 и 90% от работата, която обичайно би изисквала цял екип специалисти, и я е изпълнявала със скорост, недостижима за човек.

 

През февруари 2024 г. съвместен доклад на Microsoft и OpenAI предупреждава, че хакерски групи, свързвани с Русия, Северна Корея, Иран и Китай, вече използват ChatGPT за оптимизиране на операциите си. Руската група Forest Blizzard например е използвала модела за проучване на сателитни комуникационни протоколи и радарни технологии, докато китайската Charcoal Typhoon го е прилагала за писане на скриптове за автоматизация и за превод на специализирани документи. Според доклада AI не е създал нов тип „супер вирус“, но значително е съкратил времето за подготовка на атаки и е помогнал за изготвянето на фишинг имейли без езикови грешки – фактор, който увеличава тяхната убедителност.

f Сподели t Tweet
Реклама / Ads
Уважаеми читатели, разчитаме на Вашата подкрепа и съпричастност да продължим да правим журналистически разследвания.

Моля, подкрепете ни.
Donate now Visa Mastercard Visa-electron Maestro PayPal Epay
Реклама / Ads
ОЩЕ ПО ТЕМАТА
. 6| 2785 |15.09.2025 Изследване: AI чатботове могат да превърнат фишинга в индустрия за масови измами . 0| 2847 |08.08.2025 OpenAI пусна GPT-5: следваща крачка към изкуствения разум . 2| 14618 |04.08.2025 ChatGPT пуска „режим за учене“, за да ограничи преписването с изкуствен интелект . 0| 2826 |25.06.2025 Как мисли ИИ? „Вериги от мисъл“ разкриват странни (и опасни) пътеки в разсъжденията на моделите

КОМЕНТАРИ

Реклама / Ads