Юбилейный партнерский проект группы компаний ЛАНИТ и «Ъ»
Как технологии ЛАНИТ обеспечивают непрерывность бизнес-процессов и ускоряют time-to-market

Интеграция перемен

К 2024 году в России стало очевидно, что к IT-компаниям относятся не только профильные вендоры решений, но и организации всех ключевых отраслей экономики. Цифровизация промышленности, энергетики, телекоммуникационной отрасли и других сделала IT-продукты неотъемлемой частью развития бизнеса. Переход в цифру остается и драйвером роста российского IT-рынка. По данным совместного исследования Института статистических исследований и экономики знаний НИУ ВШЭ и Минцифры РФ, объем реализации собственных продуктов и услуг в IT по итогам прошлого года составил почти 3,1 трлн руб. при ежегодном росте на 26%.

Еще один значимый фактор роста рынка — динамичное импортозамещение, запущенное в 2022 году и не снижающее своих темпов во всех отраслях. Согласно данным экспертов консалтинговой компании «Технологии доверия» (бывшая PwC, «ТеДо»), это дополнительный аргумент для обоснования экономической целесообразности сделать цифровой переход именно сейчас. «Бизнес продолжает фокусироваться на вопросах эффективности, одновременно инвестируя время и усилия в IT-продукты, стараясь апробировать передовые технологии: искусственный интеллект (ИИ), машинное обучение, цифровые решения для автоматизации процессов и многое другое»,— перечисляют в «ТеДо».

В этом процессе незаменимыми помощниками бизнесу становятся компании в области информационных технологий. Именно они готовы выступить экспертами по цифровому развитию и определить вектор движения участников рынка, подобрать необходимые IT-продукты и бесшовно внедрить их в уже существующую инфраструктуру, не останавливая работу организации.

В 2024 году группе компаний ЛАНИТ, лидеру российской отрасли информационных технологий, исполняется 35 лет. За каждым годом работы компании стоят колоссальный опыт и экспертиза. Сегодня ЛАНИТ — это десятки партнеров и профессиональная команда, которая уже составляет более 14,5 тыс. человек.

ЛАНИТ с помощью технологий помогает бизнесу отвечать на вызовы времени и перестраивать процессы. Решения группы обеспечивают отказоустойчивость бизнес-критичных сервисов, высокий уровень производительности и обработки данных, резервное копирование информации, а также сокращение периода от идеи создания продукта до его вывода на рынок (time-to-market).

«Ъ» и ЛАНИТ представляют проект о развитии российского бизнеса в 2024 году, его потребностях и целях, а также технологиях, которые помогают компаниям достичь их.

Непрерывное управление рисками

Компании, не способные предотвращать возможные инциденты и работать на опережение, могут столкнуться с серьезными финансовыми потерями, утратой репутации и юридическими последствиями.

Управление рисками в IT-сфере включает комплекс сложных мер, направленных на снижение вероятности возникновения аварий и минимизацию их последствий. Одним из ключевых аспектов является создание отказоустойчивой цифровой среды, а также настройка резервного копирования данных, обеспечивающего восстановление критически важных систем и информации в случае сбоя. Не менее важное направление — системы мониторинга инфраструктуры, позволяющие оперативно реагировать на потенциальные угрозы, а надежная защита персональных данных исключает несанкционированный доступ к ним. О том, какие способы контроля за цифровыми рисками существуют на российском рынке и как их применить,— в интервью экспертов группы ЛАНИТ.

О создании надежной IT-среды и роли облачных технологий

Анатолий Трифонов
Руководитель направления облачных услуг компании «Онланта» (разработчик сервиса OnCloud)
Когда горизонт планирования сократился до нескольких месяцев, облака стали незаменимы
Почему бизнес сейчас проявляет повышенное внимание к вопросам отказоустойчивости IT-инфраструктуры?

Цифровизация предъявляет новые требования к IT-инфраструктуре: ее надежности, гибкости, масштабируемости и, как следствие, доступности информационных систем. Любой, даже незначительный сбой способен повлечь за собой убытки для бизнеса. При этом обеспечение непрерывной работы — это многослойный и непростой процесс. За всеми самыми передовыми цифровыми сервисами, в том числе с использованием технологий искусственного интеллекта, стоит базовая инфраструктура центров обработки данных (ЦОД), привычное нам электричество и системы охлаждения. Только в ЦОДах к ним предъявляются повышенные требования к надежности, и каждая из этих систем многократно резервируется, проходит регулярный контроль и обслуживание. Второе, что требуется для бесперебойной работы,— это оборудование и программное обеспечение. Третье важное условие — объединение всего перечисленного в надежную отказоустойчивую архитектуру с учетом необходимого резервирования мощностей. Четвертое — автоматизация процессов, позволяющая исключить сбои из-за человеческого фактора, а также быстро адаптировать инфраструктуру под меняющиеся требования. Последнее и самое главное — высококвалифицированная команда.

Чем объясняется важность резервного копирования данных и инфраструктуры?

Резервное копирование критичных данных должно быть, и на этом всегда хочется поставить точку.

Согласно мировой статистике, 90% компаний не выживают после потери данных: часть из них закрывается сразу, часть банкротится в течение двух лет после подобного события.

Происходит это вне зависимости от того, привели к инциденту кибератака или технический сбой. Это относится как к малому, так и к среднему, крупному бизнесу. Есть золотое правило резервного копирования «3-2-1»: у вашей инфраструктуры должно быть три резервные копии, которые хранятся на двух разных носителях, один из которых — на физически удаленной площадке. Работая над проектами, мы всегда руководствуемся этим требованием.

Какую роль в этом играют облачные технологии?

В облаках используются лучшие мировые практики построения инфраструктур, высокопроизводительное оборудование, что обеспечивает его доступность. Количество и объем услуг можно менять в любой момент без каких-либо ограничений. Также облако можно рассматривать в качестве долговременного хранилища без необходимости внесения изменений в собственную инфраструктуру, а автоматизированное копирование данных позволяет сконцентрироваться на ключевых задачах бизнеса, не переживая за сохранность информации.

Среди множества предложений на рынке важно выбрать то, которое полностью отвечает потребностям бизнеса. Облако OnCloud базируется на лучших отечественных и зарубежных решениях, что позволяет ему из года в год показывать высочайший уровень доступности.

Сталкиваетесь ли вы сейчас с повышенным спросом на услуги миграции на виртуальные хранилища и перевода разработки в облака и что его стимулирует?

Если говорить о спросе на облачные сервисы, то за последние годы можно выделить три переломных момента, способствующих его росту. Первый наступил в 2020 году во время пандемии. Переход на удаленную работу потребовал от бизнеса перестройки бизнес-процессов, переноса физических серверов в облака, которые обеспечивают легкий доступ к данным из любой точки мира. Второй переломный момент произошел уже в нашей стране в 2022 году: организации были вынуждены в сжатые сроки перестраивать всю инфраструктуру, при этом обращаясь к отечественным облачным сервисам. И наконец, третий переломный момент происходит прямо сейчас. Проникновение цифровизации во все сферы деятельности вынуждает компании чаще обращаться к облачным решениям для увеличения своих мощностей, распределения нагрузки, ускоренной разработки продуктов и в целом реализации собственных бизнес-целей. Рост спроса на услуги российских облачных провайдеров в настоящее время составляет 30–40% год к году.

От каких компаний сейчас больше всего запросов?

Выделю два типа компаний. Первые — это организации, которые долгое время использовали зарубежные сервисы и с 2022 года запустили процесс миграции на отечественные продукты. Второй тип — компании, которые до сих пор находятся в процессе отделения от иностранного капитала и локализуются в России. Им также требуются полностью российские решения, хотя до настоящего времени они ориентировались на зарубежные.

Существует мнение, что миграция в облачный сервис — это дорого. Так ли это?

Оценивая окупаемость облачных сервисов, правильно соотносить затраты с выбранной IT-стратегией развития компании как в краткосрочной, так и в долгосрочной перспективе. Должны учитываться масштаб самой организации, устойчивость ее бизнеса, а также стабильность экономики страны и в целом мира.

Во многих компаниях сейчас принят горизонт планирования лишь на несколько месяцев, а инвестиции в облака как раз позволяют получить эффект здесь и сейчас.

Модель оплаты pay-as-you-go (заказчик оплачивает только тот объем ресурсов, который использовал) давно стала стандартом для рынка облачных сервисов.

Насколько трудно клиентам организовать собственную работу в облаке OnCloud?

Все сложные процессы для конечного пользователя сводятся к сервису по одной кнопке. Если он хочет сделать резервную копию одной из систем, достаточно выбрать ее и нажать на «Старт». После чего он может быть уверен, что вся информация будет гарантированно сохранена от потери. Все происходит в режиме реального времени. При необходимости можно развернуть копии данных на любой из созданных ранее точек восстановления. Также есть возможность подключить автоматизированный сервис: с заданной периодичностью система автоматически разворачивает инфраструктуру из резервной копии в изолированном контуре и проверяет, что сервисы успешно стартуют и данные восстановились. Так пользователь знает, что инцидент не приведет к фатальным последствиям: информация в любом случае сохранится.

до
30
%
снижение затрат на поддержку инфраструктуры предприятия
от
15
минут
время разворачивания облачного сервиса OnCloud
99,999
%
фактический уровень доступности сервисов OnCloud за последние три года

О системах мониторинга и рисках, которые они способны предотвратить

Максим Гречнев
Руководитель отдела интеллектуальных платформ компании «ЛАНИТ-Проекты»
Современной компании отслеживать работу IT-систем в ручном режиме уже невозможно
Какую роль сейчас играют системы мониторинга в обеспечении надежности хранения и обработки данных компаний?

Надежность информационных систем — это комплексный показатель, который зависит от отказоустойчивости таких компонентов IT-системы, как оборудование и программное обеспечение, и организации процессов, непосредственно влияющих на сохранность информации, например резервирования мощностей или копирования данных. Однако даже самые неуязвимые системы могут дать сбой. В этом случае в компании запускается процесс устранения инцидентов, существенную роль в котором играют инструменты мониторинга. Они позволяют уменьшить время обнаружения и диагностики аварий, сократить совокупное время простоя систем. В итоге снижаются убытки компании, возникающие из-за непредвиденных инцидентов.

Как выглядит процесс современного мониторинга систем?

Решения для мониторинга построены на одинаковых принципах. В первую очередь эти продукты собирают данные о состоянии информационных систем. Сведения аккумулируются из разных источников в зависимости от того, что является объектом мониторинга. Во-вторых, данные обрабатываются и агрегируются в едином хранилище для последующего анализа. Например, на этом этапе генерируются оповещения для службы технической поддержки. На выходе система должна предоставить человеку информацию в понятном виде: графическом или текстовом, на экране компьютера, смартфона или даже видеостены, с обозначенными риск-факторами и данными для диагностики. Так как продукты мониторинга предназначены для быстрого обнаружения сбоя и реагирования, то и сами они должны работать в режиме реального времени.

Решения для мониторинга сегодня — это сложные IT-системы с применением современных технологий, возможностью хранения больших данных и их обработки.
Говоря о сбоях, что мы имеем в виду? Что, например, может зафиксировать система мониторинга?

Представим, что объект мониторинга — это серверная. В этом случае к аварии может привести сгоревший порт коммутатора, то есть физическая неисправность, или нехватка свободного места на диске сервера для обработки значимых данных: диск перестанет принимать и обрабатывать новую информацию. Другие угрозы могут возникнуть на уровне приложений: мобильных, сайтов компаний, прикладного программного обеспечения. Например, пользователю может некорректно отображаться веб-страница сайта или будет увеличено время загрузки приложения. Инструменты мониторинга это своевременно отлавливают. Также спросом пользуются системы, которые контролируют инженерную инфраструктуру — например, они фиксируют температуру в помещении. В подобных продуктах для отслеживания параметров окружающей среды применяются технологии интернета вещей. Если же компания-заказчик обеспокоена возросшими киберрисками, то система настраивается на реагирование по событиям ИБ — например, на оформление банковских карт без согласия держателя данных.

Какие задачи, включая мониторинг, можно автоматизировать, а что требует участия IT- и ИБ-специалистов?

В процессе реагирования на угрозы и сбои специалисты играют ключевую роль. Они определяют, что именно является причиной неисправности и как следует поступить. А вот задачи по регулярной проверке работы систем и параметров их бесперебойного функционирования как раз берут на себя инструменты мониторинга.

В ручном режиме даже в небольшой компании отслеживать все процессы невозможно, а исправная работа оборудования критична для всех организаций.
Среди отраслей есть различия по видам мониторинга и запросам самих компаний?

В зависимости от того, что является объектом мониторинга, можно выделить три профильных класса решений. Первый — это инфраструктурный мониторинг. Система проверяет исправность работы серверов, ЦОДов, коммутаторов, офисного оборудования. Этот вид мониторинга необходим практически любой компании среднего и крупного бизнеса. Второй — мониторинг приложений, особенно актуальный для В2С-сегмента: компании продают свои услуги через интернет, и им важно качество работы мобильных приложений, интернет-сервисов. Третий класс — это зонтичный мониторинг, наиболее сложный и покрывающий работу большой распределенной инфраструктуры. Такие системы актуальны для крупных компаний из-за масштабов и разнообразия существующего IT-ландшафта.

Можете рассказать о внедрении подобной системы зонтичного мониторинга на конкретном примере?

К нам обратилась X5 Group (сеть магазинов «Пятерочка», «Перекресток», «Чижик» и др.). Продукты IT-мониторинга у них были достаточно давно, но тем не менее нам были поставлены задачи унификации и консолидации данных из всех систем. На момент начала проекта сбои отслеживали более 30 разных решений. Централизованная служба поддержки была сильно загружена, обрабатывая информацию от каждой из них по различным каналам. Увеличились риски упустить что-то критически значимое, время обнаружения сбоев росло. Для таких ситуаций существует класс решений зонтичного мониторинга. Система как бы находится над всеми остальными IT-продуктами, которые используются в компании, подключается к ним и аккумулирует все данные. Таким образом, те самые разрозненные источники передают информацию в одну централизованную систему. У отдела поддержки, службы эксплуатации и руководства появляется единственный источник данных. Решением для X5 Group стал продукт нашего партнера — полностью отечественное решение Monq.

Проект дорабатывался под запросы заказчика?

Основные пользователи системы — это специалисты поддержки и эксплуатации X5 Group. По их запросам мы дополнили функционал системы, благодаря чему коллеги сократили время устранения сбоев и повысили доступность своих IT-сервисов. Мы в этом проекте выступали как эксперты и компания-интегратор, которая знает, как такого рода системы создавать, как их настраивать, развертывать, как правильно организовывать работу для того, чтобы достигать поставленных целей заказчика.

до
90
%
сокращение времени устранения аварий
от
2
недель
время первоначального запуска системы
от
1
года
срок возврата инвестиций в создание системы

О построении современных систем защиты данных и роли ИИ в кибербезопасности

Дмитрий Медведев
Директор департамента прикладных решений «ЛАНИТ-ТЕРКОМ»
Для продвинутой защиты следует комбинировать готовые продукты и собственные решения
Об усилении защиты информации многие задумались в пандемию: тогда во многих компаниях полностью перестроили все бизнес-процессы. Какие особенности хранения данных появились за это время и какие не теряют актуальность?

Пандемия представляла серьезный вызов для многих областей экономики, включая IT. Одновременно произошло множество бизнес-трансформаций, но можно выделить несколько изменений, ставших трендами. Первое — это гибкость и мобильность. Организации вынужденно перевели сотрудников на удаленный режим, и до сих пор многие используют гибридные модели работы, сочетающие как удаленную, так и офисную занятость. Переход потребовал соответствующих инструментов для управления и координации, но помимо этого — гибкости как руководителей, так и подчиненных.

Второе важное изменение — с массовым переходом на удаленную работу возросли угрозы кибербезопасности. Как следствие, возникла необходимость улучшения систем ИБ, повышения осведомленности сотрудников о рисках. Третье изменение — это глобальная цифровизация.

Пандемия утвердила цифровизацию как неотъемлемый элемент успешного бизнеса.

Она стимулировала компании к ускоренному внедрению цифровых решений. Широкое распространение получили облачные сервисы, продукты с использованием технологий искусственного интеллекта (ИИ).

Какие способы защиты данных наиболее востребованы у бизнеса?

Многие организации используют виртуальные частные сети. Для обеспечения надежного соединения между удаленными сотрудниками и корпоративной сетью применяется VPN. Кроме этого, политика безопасности компаний включает в себя правила аутентификации и авторизации, управление и контроль прав доступа пользователей к системам на основе корпоративной ролевой модели, регулярный мониторинг и аудит. Усовершенствовались технические средства для защиты от таких внешних угроз, как вредоносное программное обеспечение, атаки по модели «отказ в обслуживании» (DDoS-атака), фишинг и т. д. Заметен тренд на рост безопасности документооборота.

Назовите ключевые риски сохранения безопасности данных.

Прежде всего, не следует полагаться полностью на готовые решения: для создания продвинутой защиты следует комбинировать как готовые продукты, так и собственные разработки для мониторинга и контроля. Также стоит обратить внимание на фишинг и социальную инженерию: злоумышленники маскируются под надежные источники, чтобы обмануть пользователей и получить доступ к конфиденциальной информации. Эти атаки остаются самыми распространенными. Человеческий фактор — еще один из наиболее значимых рисков безопасности: неосторожное обращение с данными, ошибки в конфигурировании систем и недостаточное обучение сотрудников могут привести к утечкам данных и компрометации IT-систем.

Вы упомянули комбинирование систем защиты. Это вопрос интеграции. Как она сейчас организуется и насколько сложна?

Для начала необходимо оценить сложность организации процессов в каждой компании. При наличии уже проверенных решений мы прибегаем к так называемой тонкой интеграции. Добавляем собственные системы только там, где это критично для данных, требующих дополнительной защиты. Однако этот подход сопряжен с расходом большого количества времени на анализ текущих систем и выявление потенциальных уязвимостей.

Если же говорить о защите в целом, то здесь вместе с готовыми решениями мы можем добавлять и собственные продукты. Использование многоступенчатой защиты позволяет обеспечивать контроль доступа к данным на разных уровнях и предотвращать несанкционированный доступ к конфиденциальной информации.

Как помогает ИИ в защите информации? Какие угрозы он может выявлять уже сейчас, а что научится делать в ближайшем будущем?

Есть много инструментов, которые базируются на нейронных сетях, различных алгоритмах ИИ с использованием больших языковых моделей.

ИИ может анализировать потоки данных и идентифицировать аномальное поведение: в корпоративных сетях, внутренней структуре и процессах.

Также ИИ способен автоматизировать реагирование на кибератаки: заблокировать подозрительный трафик, изолировать подозрительные устройства в сети и восстановить данные после инцидента. Кроме этого, алгоритмы машинного обучения могут применяться для анализа исторических данных о кибератаках и предсказания вероятности будущих инцидентов.

ИИ также помогает обезопасить и документооборот...

Применение больших языковых моделей, работающие с большим количеством параметров (LLM), дает возможность предотвратить распространение конфиденциальной информации и персональных данных. Отчасти LLM могут контролировать действия сотрудников, например, вовремя остановить несанкционированное копирование или отправку данных. В нашей компании сейчас как раз разрабатываются системы, позволяющие выявлять и ограничивать распространение данных. Если сотрудник по ошибке решит отправить персональную или конфиденциальную информацию в мессенджере или по почте, то большие языковые модели автоматически заменят эти данные в тексте на нечувствительные (те, что можно распространять публично). При этом смысл предложения или абзаца сохранится: все будет выглядеть так, будто пользователь самостоятельно изменил формулировки.

В каких отраслях сейчас наиболее востребованы сервисы с применением ИИ для обеспечения безопасности и почему?

Во всех отраслях, в которых конфиденциальность данных имеет высокое значение и утечка информации может привести к серьезным последствиям. Подобные продукты применяются в финансовой сфере, здравоохранении, технологических компаниях, госучреждениях и на производствах. Однако несмотря на огромные возможности ИИ, полностью довериться ему нельзя. ИИ действует на основе данных, которые ему представляются пользователями, и подвержен ошибкам или искажениям. В некоторых ситуациях требуется вмешательство сотрудника для принятия решений, ведь именно человек может учитывать контекст конкретной ситуации и руководствоваться этическими нормами. Искусственный интеллект сейчас стоит воспринимать как инструмент, работающий на основе алгоритмов и все еще требующий постоянного контроля со стороны человека.

на
40
%
снижение затрат на управление безопасностью за счет автоматизации процессов
на
60
%
сокращение времени анализа и идентификации угроз
на
25
%
уменьшение количества реагирований на ложные угрозы

Высокая скорость обработки данных

Объем рынка работы с большими данными по итогам 2024 года Центром стратегический разработок (ЦСР) предварительно оценивается в 95 млрд руб., а к 2030 году он может достичь 234 млрд руб.

Все больше организаций применяют driven-data-подход — то есть принятие решений и построение стратегии на основании анализа больших данных. Такие компании точно прогнозируют как свои потребности, так и запросы своих клиентов, а также могут оптимизировать внутренние процессы и снизить риски. Однако применение driven-data-подхода требует от бизнеса не просто сбора качественных больших данных, но и современной аналитики, в том числе с применением профильных инструментов для обработки информации. «Ъ» обсудил с экспертом группы ЛАНИТ, как бизнесу изменить работу с данными, научиться их анализу и начать конвертировать информацию в прибыль и рост.

О роли больших данных и data-driven-подходе

Дмитрий Изместьев
Исполнительный директор CleverData
Сейчас мы на том этапе развития, когда данные стали прямым источником дохода бизнеса
Большие данные называют «новой нефтью». Но все ли данные так высоко ценятся?

Данные и нефть — это хорошая аналогия. Но хочу напомнить, что долгое время нефть для людей скорее была проклятием, чем подарком, как минимум потому, что мешала земледелию. С большими данными дело обстоит примерно так же. С одной стороны, чем больше данных организация аккумулирует, тем лучше. С другой — нужны ресурсы и знания, чтобы их грамотно использовать. В большинстве случаев компании собирают информацию о клиентах как непереработанную нефть, не извлекая из нее пользы.

Задача многих организаций сейчас — это научиться использовать накопленные данные всеми возможными способами.

Если говорить о CleverData, то мы имеем дело с данными о клиентах наших компаний-заказчиков. Помогаем извлекать выгоду из собранной информации, выводить бизнес на новый уровень.

В числе ваших клиентов — компании из разных отраслей. Отличаются ли их запросы к вам?

У всех одна задача: компании хотят обладать подробной информацией о клиентах, чтобы сделать общение с ними еще более персонализированным. Для любого бизнеса важно, чтобы рассылки от лица бренда были прочитаны целевой аудиторией, а не отправились в корзину. Требуется адаптация контента под запросы и ожидания конкретных групп людей. Подобная персонализация однозначно увеличивает эффективность рассылок, но для этого требуется анализ больших данных и построение умных моделей на их основе.

Использование умных моделей позволяет не просто собрать необходимые идентификаторы аудитории, но и грамотно их использовать. Например, не предлагать человеку, который только что вышел с техосмотра автомобиля, скидку в 20% на обслуживание — это сообщение придет с опозданием и вызовет только раздражение. Однако подобных ситуаций легко избежать, если сделать рассылку о скидке в определенный момент — например, по истечении полугода с предыдущего посещения клиентом автосалона.

Многие компании для этого закупали данные на специализированных биржах. Такой подход до сих пор работает?

Действительно, бывает так, что своих данных компаниям недостаточно для полноценного анализа. Возникает потребность обогатить базы данных информацией, которую собирает другая компания из совершенно иной отрасли. Для этого существуют биржи данных, в которых процесс передачи информации максимально безопасный и обезличенный. Однако эта концепция устарела. Запросы бизнеса становятся все сложнее: одной лишь покупки новой базы данных недостаточно компаниям для достижения бизнес-целей и сохранения конкурентного преимущества на рынке. Сегодня от биржи ждут не просто выгрузку информации, а еще и ее анализ, проведенный с конкретной целью.

В CleverData часто поступают такие запросы, и могу сказать, что это направление в ближайшее время будет активно развиваться. При этом пожелания компаний будут все более специфическими. Если раньше запрос был на целевую аудиторию — к примеру, людей, регулярно покупающих молоко, то сейчас пожелания компаний намного конкретнее. Требуется аудитория, потребляющая молоко 1,8% жирности, путешествующая раз в год и предпочитающая определенную марку автомобиля. Компании уходят от сбора общих данных, важна детализация, чтобы получить точечного клиента,— запросы на сегменты становятся все более кастомными.

Для маркетинговых целей многие используют CDP-платформы. Расскажите о принципах их работы.

CDP расшифровывается как Customer Data Platform (платформа клиентских данных). В качестве примера рассмотрим работу нашей CDP-платформы — CleverData Join. Во-первых, она представляет собой сегментированное хранилище данных, собираемых компанией о каждом клиенте. Во-вторых, она анализирует эту информацию и выдает ее уже в обработанном виде — к примеру, создает профиль 360 (обновляемую в реальном времени клиентскую базу). CleverData Join также предоставляет информацию о пользовательской истории. Это может быть история взаимодействия клиента с компанией, отклик на предложения и т. д., а также какие-то юридические моменты, например согласия пользователя на обработку тех или иных данных, которые он давал на онлайн-ресурсах организации.

Вторая важная особенность платформы — возможность формировать профиль клиента, даже если человек не прошел авторизацию на сайте компании. Это стало возможным благодаря постоянному анализу всех действий пользователей на разных ресурсах и выявлению типичного для каждого человека поведения.

Еще один наш продукт, к которому мы наблюдаем повышенный интерес,— это CleverData Tag Manager. Это инструмент, позволяющий отслеживать поведение пользователей на сайте и управлять тегами, размещенными на интернет-ресурсе через свой интерфейс, не внося изменений в код сайта.

Приведите пример использования платформы CleverData Join.

Представим сеть гипермаркетов товаров для строительства и ремонта. Если дома — ремонт или простая перестановка мебели, то на сайт магазина в разное время, вероятно, заходят все члены семьи. Однако у них могут быть разные запросы: пока один изучает раздел с сантехникой или осветительными приборами, другой выбирает мягкую мебель и шторы. CleverData Join позволяет выявить таких людей — узнать, что два человека, изучающие товары на сайте компании, являются членами одной семьи. Исходя из этого маркетологи сети строительных гипермаркетов смогут сделать обоим персонализированные предложения.

Какие направления работы с данными сейчас наиболее востребованы и какие, возможно, появятся новые в ближайшее время?

Наблюдается общий тренд на глубокую персонализацию коммуникаций, основанную на data-driven-подходе — принятии решений на основе больших данных. Это позволяет увеличить конверсию e-mail-рассылок или других маркетинговых активностей. Этот же подход может быть использован и внутри компании — например, при принятии топ-менеджментом управленческих решений.

90
%
компаний, использующих CDP-платформы, удовлетворены достижением маркетинговых целей
10-20
%
это экономия годового маркетингового бюджета за счет использования data-driven-подхода
5-7
%
такое увеличение продаж обеспечивает персонализация коммуникаций для продуктовых компаний

Сокращение time-to-market

Ценность IT-решений и передовых разработок в 2024 году состоит не только в их функциональности, но и времени, которое было потрачено на процесс их создания. Стремление к быстрому выводу продуктов на рынок стимулирует спрос на автоматизацию процессов, в том числе использование инструментов DevOps (development & operations — методология для интеграции всех рабочих процессов при создании ПО), применение облачных технологий для быстрого масштабирования инфраструктуры, а также внедрения технологий искусственного интеллекта. Выражение «время — деньги» обретает в IT-отрасли прямой смысл.

Эксперты группы ЛАНИТ знают, как применение профессиональных инструментов позволяет компаниям сократить время разработки IT-продуктов, повысить их качество при выводе на рынок и поддерживать бесперебойную работу на протяжении всего жизненного цикла решения.

О технологиях, которые ускоряют создание и вывод нового продукта на рынок

Роман Почиталкин
Бизнес-партнер «ЛАНИТ — Би Пи Эм» (разработчик продукта «Каркас»)
Развитие IT-решений неразрывно связано со временем их разработки
Почему показатель time-to-market сейчас важен для российских компаний? Как изменился спрос на решения, способствующие быстрой разработке, за последние два года?

Чем выше в компании уровень проникновения IT, тем больше зависимость основного бизнеса от технологий и тем важнее сократить время вывода новых продуктов и быстрее начать получать прибыль. По-настоящему оценить значение time-to-market многие компании смогли во времена пандемии: было необходимо в кратчайшие сроки перевести все офлайн-услуги и сервисы в онлайн. Но и события последних лет приводили организации к ситуациям, когда время играло против них, и было критически важно создавать продукты в сжатые сроки.

Компании из каких отраслей к вам обращаются чаще всего? С какими задачами они приходят?

В числе наших основных клиентов — организации из финансовой сферы. Финтех в России развивается опережающими темпами по сравнению со многими другими отраслями, и конкуренция между игроками рынка жесточайшая.

Решения для ускорения разработки — большое преимущество для любого банка, ведь каждый из них постоянно предлагает пользователю новые продукты.

Наш продукт «Каркас» наиболее актуален для крупных компаний, в которых значительную долю занимает собственная разработка, имеется большая команда и одновременно реализуются много проектов.

Говоря о time-to-market, какие временные отрезки мы имеем в виду? На сколько можно сократить время разработки и вывода продукта?

Я скептически отношусь к усредненным расчетам на основе статистики для оценки сложных проектов. Это более применимо для типовых задач и коробочных решений, а к нам обращается крупный бизнес, который их не использует. Наши заказчики разрабатывают продукты под потребности своих компаний и со своими уникальными характеристиками. Могу сказать, что уже на старте проекта с использованием наших решений команда точно выиграет минимум месяц. А дальше все зависит от задачи и выбранных подходов.

Опишите, пожалуйста, работу с использованием «Каркаса»? Какие задачи он решает, а какие остаются на стороне команды?

Наиболее показательно будет рассматривать проект создания корпоративной системы на основе open-source и микросервисной архитектуры, над которым работает команда из нескольких десятков разработчиков. В первую очередь для этого решения необходим фундамент — структура приложения. Один из компонентов «Каркаса» решает именно эту задачу и снимает необходимость с архитектора делать все с нуля. Он представляет собой готовую структуру приложения, спроектированную с учетом лучших мировых практик и нашего опыта разработки крупных корпоративных систем. Крайне важно учитывать, что ошибки на данном этапе могут иметь крайне печальные последствия.

Далее потребуется решить еще две задачи, которые стали золотым стандартом для организаций с развитым IT,— это контейнеризация для встраивания вашего решения в IT-инфраструктуру и создание сборочных конвейеров для автоматизации процесса подготовки и установки поставок. На этих этапах необходимо привлечение опытных DevOps-инженеров и разработчиков из команды, но с помощью «Каркаса» и готовых конфигураций участие специалистов сводится к минимуму, а вся настройка занимает считаные дни.

Все это позволяет не тратить время и ресурсы на подготовительные работы и в максимально сжатые сроки приступить к разработке.

Еще одним важным преимуществом «Каркаса» является наличие конвенций разработки и инструментов проверки их соблюдения, которые не пропустят код, если он содержит ошибки и не соответствует требованиям.

Как описанный вами подход влияет на формирование команды?

Поскольку «Каркас» фактически задает определенные стандарты, то процесс разработки становится более упорядоченным и понятным. Это снижает входной порог и позволяет привлекать для решения задач начинающих специалистов. Проект запускают квалифицированные эксперты, а развивают более молодые. По опыту наших проектов расходы на разработку могут сократиться до 30%. Кроме этого, такой подход способствует равномерному распределению ресурсов: одна задача не требует вовлечения сразу всех высококвалифицированных и дорогостоящих экспертов.

Имеет ли смысл на высококонкурентном рынке выпускать сначала Minimum Viable Product (MVP), а уже потом дорабатывать его? Или пользователи ждут все и сразу?
Основная проблема, с которой мы сталкиваемся,— это завышенные ожидания от первой версии продукта.

Клиентам бывает тяжело принять ограничения, с которыми придется мириться, пока продукт будет обрастать функционалом. Избыточные требования приводят к росту стоимости и сроков разработки MVP — минимально жизнеспособного продукта. Поэтому наши эксперты помогают найти наиболее простые способы решения бизнес-задач, чтобы проверка продуктовой гипотезы не превратилась в «стройку века».

Но у экономии времени тоже есть свои недостатки. В этом случае при создании MVP не уделяется времени на проектирование системы с учетом стратегии развития продукта, и в будущем может потребоваться дорогостоящий рефакторинг.

При принятии решения обязательно стоит учитывать все эти факторы.

Наш опыт подтверждает, что итерационный подход более эффективен, чем создание полнофункционального продукта сразу. А использование «Каркаса» позволяет не только быстро приступить к разработке MVP, но и впоследствии развивать целевое решение без затрат на устранение технического долга и за счет использования оптимальных архитектурных подходов.

Ваши решения работают на основе технологии Open Source. Как контролировать его развитие и гарантировать безопасность конечным пользователям?

Библиотеки, которые входят в состав «Каркаса», подобраны с учетом совместимости версий и проверены на наличие угроз. Но так как для поддержки работоспособности и добавления новых функций им требуются постоянные обновления, мы добавили этапы сканирования на уязвимости. Поэтому даже если по ошибке кто-то из команды попытается внедрить опасный код в разрабатываемое решение, он просто не пройдет проверку.

до
50
%
сокращение TTM на создание MVP и до 20% на подготовку полнофункциональной версии
на
30
%
сокращение расходов на разработку с использованием «Каркаса»
до
75
%
сокращение трудозатрат DevOps-инженеров

Об автоматизации тестирования IT-продуктов с применением искусственного интеллекта

Владимир Лаврентьев
Технический директор «ЛАНИТ Экспертиза»
Грамотно обученные нейросети делают тестирование IT-систем доступнее и качественнее
Почему тестирование программ и приложений сейчас так востребовано? Все ли дело в импортозамещении и ускоренном выводе продуктов на рынок, или есть другие драйверы этого направления?

Основными драйверами являются, с одной стороны, требования к скорости разработок и выводу продукта на рынок, с другой — высокие пользовательские ожидания. Тестирование же позволяет выявить и исправить проблемы интерфейса до того, как продукт увидят люди.

Важно отметить, что тестирование проводится не только перед выводом продукта на рынок, но и после очередного обновления интерфейса или функционала.

Многие приложения сейчас обновляются каждые две недели.

Что мы в целом понимаем под автоматизированным тестированием?

Автоматизированное тестирование проводится с использованием программного обеспечения для управления тестами, сравнения фактических результатов с ожидаемыми и создания отчетов. Процесс включает в себя автоматизацию различных видов тестов, в том числе функциональных, нагрузочных, интеграционных и UI-тестов (user interface — интерфейс, обеспечивающий передачу данных между программой и пользователем). В целом такой подход позволяет выполнить большее количество тестов за короткие сроки.

Возможно ли полностью исключить привлечение функциональных тестировщиков к процессу? Если да, то при каких условиях?

Функциональные тестировщики как IT-специалисты проверяют работу приложения, создают тестовые сценарии. Дальше есть два варианта. Они могут в ручном режиме пройти все сценарии, то есть представить себя на месте будущего пользователя и пройти весь путь. Или же использовать для этого уникальные автоматизированные скрипты. В этом случае им не придется проверять все сценарии самим. Они получат результат в виде отчета.

При этом написание тестовых сценариев, достаточных для того, чтобы проверить весь функционал продукта и качество его работы, все равно остается на стороне людей.

Как происходит тестирование простого IT-решения, например, не рассчитанного на широкое использование и высокие пользовательские нагрузки? И чем оно отличается от тестирования более масштабной системы или приложения?

Различий много. Для простых решений количество сценариев, достаточных для их проверки, будет меньше. Также для простых проектов будет характерно больше ручного тестирования и меньше автоматизации.

Для масштабных систем могут, напротив, потребоваться дополнительные тесты. Цель этих проверок — узнать, не привели ли внесенные изменения к новым ошибкам в уже протестированных частях программы.

Сколько времени это может занять?

На начальном этапе автоматизированное тестирование занимает от нескольких часов до двух-трех дней. Приложения обновляются раз в две недели, а значит, и тестирование повторяется.

Для автоматизации была разработала платформа NeuroControl. Какие задачи она решает?

NeuroControl — платформа для автоматизации тестирования любых мобильных и desktop-приложений. Сейчас мы можем констатировать, что на российском рынке аналогов ей нет, есть только зарубежные решения с очень дорогими лицензиями, при этом не всегда подходящие для отечественных продуктов (например, есть ограничения по языкам программирования). Ценность NeuroControl — именно в тестировании desktop-приложений, где ранее невозможно было свести процесс автоматического тестирования до запуска одной кнопки, одной команды. Одним из крупных внедрений для нас стало сотрудничество с департаментом информационных технологий Москвы. Также платформу уже используют многие банки.

250
+
реализованных проектов
458
инженеров по тестированию в штате «ЛАНИТ Экспертизы»
35
регионов присутствия

OnCloud
Российский облачный сервис для любых задач: от стартапа до инфраструктуры предприятия
Облачный сервис от «Онланты» позволяет построить ИТ-инфраструктуру компании на базе облачной модели предоставления сервисов. В OnCloud можно перенести ИТ-инфраструктуру любого масштаба, а для управления мощностями в облачной среде не нужно покупать специальное оборудование и ПО
Подробнее
M3 AТМ Monitoring System
Программный комплекс для мониторинга работоспособности банкоматов
M3 ATM MonitoringSystem позволяет удаленно контролировать техническое состояние устройств самообслуживания, оперативно получать исчерпывающую информацию о событиях, происходящих на устройствах: поломках, инцидентах, транзакциях
Подробнее
CleverData Join
Платформа сбора и управления клиентскими данными для персонализации маркетинговых кампаний
CleverData Join -CDP корпоративного класса для сбора, анализа, обогащения и сегментирования больших объемов данных клиентов. Применима для автоматизации рекламных коммуникаций, тестирования гипотез
Подробнее
Каркас
Решение для ускорения процесса разработки и вывода продукта на рынок
«Каркас» представляет собой комплексное решение для быстрой разработки и запуска приложений, спроектированных с учетом лучших мировых практик и опыта компании  «ЛАНИТ-Би ПиЭм» по созданию крупных корпоративных систем. Использование «Каркаса» позволяет рационально использовать ИТ-команды и сократить время разработки продуктов
Подробнее
NeuroControl
Платформа для автоматизации тестирования любых мобильных и desktop приложений
Решение распознает элементы UI-интерфейса с использованием методов Computer Vision и нейросетей. Координаты распознанных элементов и их атрибуты могут быть использованы любым типовым фреймворком автоматизации
Подробнее