1 Октября, 2025 Среда по 3 октября

Форум GIS DAYS 2025

Москва

Кибербезопасность нового уровня

Форум GIS DAYS 2025 – ежегодный форум по информационной безопасности для бизнеса и государства.

Студенческий день

Бизнес-день

Форум GIS DAYS объединяет экспертов, регуляторов, бизнес, интеграторов, разработчиков. На одной площадке в рамках открытого диалога спикеры будут обсуждать настоящее и будущее информационной безопасности.

Участники поделятся опытом и знаниями с каждым участником мероприятия. Запланированы интерактивные мероприятия, батлы, профессиональная премия, выступление звезды и многое другое.

Подробности и регистрация на официальном сайте форума.


Программа

Основной зал

10:00–10:05 — Приветственное слово учредителя компании «Газинформсервис» Валерия Пустарнакова.

10:05–11:00 — Пленарное заседание «Искусственный интеллект в бизнесе, разработке и ИБ-продуктах».

11:00–13:00 — Бизнес-трек компании «Газинформсервис». «Классика и авангард».

14:00–14:30 — Театральный трек.

14:30–16:30 — Технический трек. «Оптимум защиты, или Броня за 7 шагов».

16:30–17:15 — ИБ-Пророки: 2-ой сезон, дискуссия о прогнозировании в ИБ.

17:15–18:00 — Дискуссия «Обзор изменения законодательства в сфере ИБ».

18:00–18:45 — Питч-сессия финалистов проекта «Биржа ИБ- и ИТ-стартапов».

18:45–19:00 — Награждение победителя проекта «Биржа ИБ- и ИТ-стартапов». Подведение итогов форума.

19:00–20:00 — Писатель и драматург Александр Цыпкин читает свои рассказы.

Зал параллельного трека

11:15–12:00 — Круглый стол «NGFW, итоги полугодия».

12:00–13:00 — Технический трек «Безопасность цифрового будущего».

13:00–15:15 — Сессия «Актуальные вопросы безопасности».

15:15–17:45 — Сессия «Киберустойчивость».

Ведущая BUSINESS DAY:
Алина Танатарова
ведущая РБК Отрасли
Модератор пленарной сессии:
Сергей Краснов
ведущий телеканала РБК

Противостояние искусственных интеллектов: главные вызовы для кибербезопасности

Стремительное развитие искусственного интеллекта кардинально меняет ландшафт киберугроз, ставя перед отраслью принципиально новые вызовы. Ключевые риски и будущее регулирования технологии ведущие эксперты обсудили в рамках пленарного заседания «Искусственный интеллект в бизнесе, разработке и ИБ-продуктах» на форуме GIS DAYS 2025, который прошел 1-3 октября в Москве и Санкт-Петербурге.

В дискуссии приняли участие заместитель министра цифрового развития, связи и массовых коммуникаций Александр Шойтов, заместитель генерального директора – технический директор «Газинформсервис» Николай Нашивочников, генеральный директор Positive Technologies Денис Баранов, генеральный директор Security Vision Руслан Рахметов, заместитель генерального директора «ИнфоТеКС» Дмитрий Гусев, директор центра технологий кибербезопасности ГК «Солар» Иван Вассунов и и.о. директора направления «Безопасность цифровых технологий» АНО «Цифровая экономика» Николай Ляпичев. Модератором сессии выступил журналист телеканала РБК Сергей Краснов.

Эксперты сошлись во мнении, что главная угроза исходит от стремительности развития ИИ, которая позволяет автоматизировать и масштабировать атаки до невиданных ранее масштабов. «Противостояние ИИ против ИИ» становится новой реальностью, в которой злоумышленники уже активно используют нейросети для создания более качественных фишинговых писем и перебора векторов атак в реальном времени. Как отметил Иван Вассунов, уже зафиксированы случаи, когда в ходе DDoS-атаки за несколько часов менялось до 80 векторов, что невозможно сделать вручную.

Генеральный директор Positive Technologies Денис Баранов предположил, что к концу следующего года хакерские группировки смогут атаковать целые отрасли «по площадям» с использованием как специализированных копайлотов, так и полноценных мультиагентных систем. А главным системным риском Баранов видит кадровый аспект: нынешнее поколение разработчиков может стать последним, способным адекватно проверять код, сгенерированный нейросетью. В будущем, по его мнению, это может привести к «слепой вере в технологию».

«Нас действительно ждет огромная проблема с контролем качества входных данных, которое обеспечить, в принципе, невозможно. Сейчас мы приходим к этапу принятия того, что есть что-то, контроль качества чего мы не сможем вообще никак обеспечить, если хотим идти с максимальной эффективностью».

Мысль о кадровых рисках развил Иван Вассунов, подчеркнувший, что на рынке труда уже начался ощутимый тренд на «вымывание джунов» — младших специалистов, чьи стандартизированные задачи теперь может выполнять ИИ-ассистент. По его словам, это создает серьезный парадокс для системы образования, которая должна готовить выпускников, способных сразу выполнять более сложные задачи, минуя начальный этап накопления опыта. Он подчеркнул, что пока искусственный интеллект в разработке играет роль именно помощника, а не самостоятельного агента, и полная ответственность за результат по-прежнему лежит на человеке.

«Мы сейчас находимся на этапе, когда ИИ может быть применен как ассистент для мидл- или сеньор-разработчика, который должен полностью отвечать за тот результат, который сгенерирован ИИ. Считать этот код своим, уметь его защищать, полностью брать ответственность на себя».

По прогнозу Вассунова, в ближайший год на рынке труда вырастет спрос на новые профессии, такие как MLSecOps-инженеры и архитекторы, которые будут выстраивать процессы безопасной разработки и эксплуатации ИИ-моделей в крупных компаниях.

Более скептическую позицию в отношении краткосрочных изменений высказал Николай Нашивочников из компании «Газинформсервис». По его мнению, в ближайшие 2-3 года кардинальной трансформации профессий не произойдет, так как ИИ пока может эффективно автоматизировать лишь 15-20% рутинных функций в центрах мониторинга, таких как кластеризация и обогащение данных. Он считает, что прорыва в ближайшее время ждать не стоит, и основной задачей остается повышение квалификации существующих специалистов, чтобы они могли работать с новыми инструментами.

С ним согласился Дмитрий Гусев, отметивший, что пока не видит возможности полноценно применять большие языковые модели непосредственно в средствах защиты из-за фундаментальных проблем с доверием к данным для их обучения. По его словам, LLM будут внедряться в первую очередь для оптимизации работы первой линии техподдержки, ускоряя формирование ответов на типовые запросы, но не для принятия критически важных решений в области безопасности.

«В части применения больших языковых моделей внутри наших продуктов, да и, наверное, российских в целом, я лично не вижу возможности применить LLM здесь и сейчас. Есть большие проблемы, связанные с обучением этих моделей данным. Я скептически отношусь к тому, что LLM в ближайшем будущем войдут в состав средств защиты информации».

Генеральный директор Security Vision Руслан Рахметов также разделил мнение о том, что современное применение ИИ, как правило, сосредоточено на автоматизации рутинных операций.

«Мы давно и повсеместно используем ML в наших продуктах как помощников и движемся к созданию комплексной модели — единого окна помощника, где можно решать вопросы и по текущим инцидентам безопасности, и по лучшим мировым практикам».

Участники конференции обсудили работу регулятора и подчеркнули его значение: они отметили, что риски ИИ возникают как от его неправомерного применения, так и от необдуманного внедрения без мер безопасности. Ключевой технической проблемой была названа верифицируемость ИИ-моделей, которые часто работают как «черный ящик». В связи с этим, по мнению участников, особую важность приобретает работа созданного в 2023 году Консорциума исследований безопасности технологий искусственного интеллекта. Было подчеркнуто, что его деятельность, включая разработку концепции реестра доверенных технологий ИИ и формирование перечня угроз, является необходимым шагом для решения этой сложной задачи.

По итогам дискуссии эксперты пришли к выводу, что отрасль кибербезопасности находится на пороге новой «гонки вооружений». Хотя в ближайший год революции в ИТ-сфере не ожидается, уже сейчас необходимо закладывать фундамент для будущего: разрабатывать подходы к регулированию, внедрять практики безопасной разработки и кардинально менять систему подготовки кадров. В противном случае, через несколько лет индустрия может оказаться неготовой к миру, где и атаки, и защита будут полностью вестись искусственным интеллектом, а дефицит специалистов, способных контролировать этот процесс, станет критическим.