AI-атака стала реальностью: Google подтвердила первый в истории взлом с применением языковой модели
В понедельник Google сообщила, что её специалисты по безопасности сорвали атаку криминальной группировки, которая использовала искусственный интеллект для поиска неизвестной уязвимости в чужой инфраструктуре. Это первый публично задокументированный случай, когда AI применялся для создания готового эксплойта в реальной атаке - не в лабораторных условиях, а против живой цели.
Что именно произошло
Злоумышленники планировали масштабную операцию, опираясь на уязвимость, которую обнаружили с помощью большой языковой модели. Брешь позволяла обойти двухфакторную аутентификацию в популярном инструменте системного администрирования. Google назвала это zero-day эксплойтом - атакой, которая использует уязвимость, о существовании которой разработчики ещё не знают. Google уведомила пострадавшую компанию и правоохранительные органы и смогла нейтрализовать операцию до причинения какого-либо ущерба.
Какая именно языковая модель использовалась - не установлено. Google лишь сообщила, что это с высокой вероятностью не её собственный Gemini и не Claude от Anthropic.
Кто стоит за атакой
Конкретная группировка не названа. Google сообщила, что признаков причастности государственных структур нет, однако группы, связанные с Китаем и Северной Кореей, активно исследуют аналогичные методы.
По мнению аналитиков, именно криминальные хакеры - а не государственные шпионы - выигрывают от AI больше всего. Главный аналитик Google Threat Intelligence Джон Халтквист объяснил это так: идёт гонка между атакующими и защитниками - кто быстрее доберётся до нужных данных или успеет запустить ransomware. AI даёт огромное преимущество в скорости поиска и эксплуатации уязвимостей.
Реакция в сети
После публикации Google в X и Reddit разгорелись масштабные дискуссии. Часть из них - предсказуемая паника вокруг «AI-взлома инфраструктуры», «автономного поиска эксплойтов» и даже «Cyber-AGI». Отдельным триггером стал недавний анонс модели Anthropic Mythos, продемонстрировавшей высокие способности в обнаружении уязвимостей - хотя к данной атаке она отношения не имеет.
Что это меняет
Джон Халтквист подытожил происходящее коротко: «Это здесь. Эра AI-уязвимостей и эксплуатации уже наступила».
В долгосрочной перспективе AI-инструменты, способные писать код, сделают инфраструктуру безопаснее - особенно для больниц, школ и других уязвимых организаций. Однако прямо сейчас существуют триллионы строк программного кода, которые могут оказаться под угрозой, если AI начнёт искать в них бреши. На устранение всех этих уязвимостей уйдут годы, и этот процесс требует координации на государственном уровне. До тех пор мир, вероятно, станет опаснее, а не безопаснее.
Сегодняшний инцидент - счёт один к нулю в пользу защиты. Но это лишь первый раунд.
Комментарии
Вот мы и перешли черту. Если раньше обсуждения взломов с помощью ИИ были на уровне теоретических угроз и киберпанк-романов, то официальное подтверждение от Google - это серьезный звоночек для всей индустрии безопасности. Теперь "гонка вооружений" между хакерами и защитными системами выходит на уровень скоростей, которые человеку просто не под силу контролировать вручную. Ждем массового внедрения ИИ-агентов уже на стороне защиты, иначе мы просто не вывезем этот темп.
Чтобы оставить комментарий, войдите в аккаунт.