AI като шперц: Хакер открадна 150 GB правителствени данни с чатбота Claude
По данни на компанията за киберсигурност Gambit Security атаките са започнали през декември и са продължили около месец. Нападателят е използвал Claude, за да открива уязвимости в правителствените мрежи, да създава скриптове за експлоатирането им и да планира автоматизацията на кражбата на данни. Първоначално чатботът е отказвал да изпълнява злонамерени заявки, но хакерът е успял да заобиколи ограниченията чрез специфични команди. В резултат системата е генерирала хиляди подробни доклади с готови за изпълнение планове, включително конкретни вътрешни цели и идентификационни данни, които биха могли да подпомогнат атаката.
Твърди се, че паралелно с това нападателят е използвал и ChatGPT на OpenAI, за да събира информация как да се придвижва в компютърни мрежи, какви права за достъп са необходими и как да намали риска от разкриване.
При собствен анализ експертите от Gambit Security са открили поне 20 уязвимости в AI системите, които не са били публично оповестени.
AI като шперц в ръцете на хакерите
Изкуственият интелект все по-често се превръща в основен инструмент в арсенала на киберпрестъпници и държавно подкрепяни хакерски групи. По същият начин, както шперцът е важна част от оборудването на един крадец.
В края на 2025 г. именно Anthropic разкри един от първите мащабни примери за т.нар. „агентски“ кибератаки, при които AI инструментът Claude Code е бил използван за автоматизиране на прониквания в повече от 30 организации по света, включително финансови институции и технологични компании. Според компанията зад атаките вероятно стоят структури с държавна подкрепа, като подозренията са насочени към Китай. Системата е поела между 80 и 90% от работата, която обичайно би изисквала цял екип специалисти, и я е изпълнявала със скорост, недостижима за човек.
През февруари 2024 г. съвместен доклад на Microsoft и OpenAI предупреждава, че хакерски групи, свързвани с Русия, Северна Корея, Иран и Китай, вече използват ChatGPT за оптимизиране на операциите си. Руската група Forest Blizzard например е използвала модела за проучване на сателитни комуникационни протоколи и радарни технологии, докато китайската Charcoal Typhoon го е прилагала за писане на скриптове за автоматизация и за превод на специализирани документи. Според доклада AI не е създал нов тип „супер вирус“, но значително е съкратил времето за подготовка на атаки и е помогнал за изготвянето на фишинг имейли без езикови грешки – фактор, който увеличава тяхната убедителност.
Моля, подкрепете ни.