К 2024 году в России стало очевидно, что к IT-компаниям
относятся не только профильные вендоры решений,
но и организации всех ключевых отраслей экономики.
Цифровизация промышленности, энергетики, телекоммуникационной отрасли
и других сделала IT-продукты неотъемлемой частью развития
бизнеса. Переход в цифру остается и драйвером роста
российского IT-рынка. По данным совместного исследования
Института статистических исследований и экономики знаний НИУ ВШЭ
и Минцифры РФ, объем реализации собственных продуктов
и услуг в IT по итогам прошлого года составил почти 3,1 трлн
руб. при ежегодном росте на 26%.
Еще один значимый
фактор роста рынка — динамичное импортозамещение,
запущенное в 2022 году и не снижающее своих темпов
во всех отраслях. Согласно данным экспертов консалтинговой
компании «Технологии доверия» (бывшая PwC,
«ТеДо»), это дополнительный аргумент для обоснования
экономической целесообразности сделать цифровой переход именно сейчас.
«Бизнес продолжает фокусироваться на вопросах эффективности,
одновременно инвестируя время и усилия в IT-продукты,
стараясь апробировать передовые технологии: искусственный интеллект
(ИИ), машинное обучение, цифровые решения для автоматизации процессов
и многое другое»,— перечисляют
в «ТеДо».
В этом процессе незаменимыми
помощниками бизнесу становятся компании в области информационных
технологий. Именно они готовы выступить экспертами по цифровому
развитию и определить вектор движения участников рынка, подобрать
необходимые IT-продукты и бесшовно внедрить их в уже существующую
инфраструктуру, не останавливая работу организации.
В 2024
году группе компаний ЛАНИТ, лидеру российской отрасли информационных
технологий, исполняется 35 лет. За каждым годом работы компании стоят
колоссальный опыт и экспертиза. Сегодня ЛАНИТ — это десятки партнеров
и профессиональная команда, которая уже составляет более 14,5 тыс.
человек.
ЛАНИТ с помощью технологий помогает бизнесу
отвечать на вызовы времени и перестраивать процессы. Решения группы
обеспечивают отказоустойчивость бизнес-критичных сервисов, высокий
уровень производительности и обработки данных, резервное копирование
информации, а также сокращение периода от идеи создания продукта до его вывода на рынок
(time-to-market).
«Ъ» и ЛАНИТ представляют проект о
развитии российского бизнеса в 2024 году, его потребностях и целях, а
также технологиях, которые помогают компаниям достичь их.
Компании, не способные предотвращать возможные инциденты и работать на
опережение, могут столкнуться с серьезными финансовыми потерями,
утратой репутации и юридическими последствиями.
Управление
рисками в IT-сфере включает комплекс сложных мер, направленных на
снижение вероятности возникновения аварий и минимизацию их
последствий. Одним из ключевых аспектов является создание
отказоустойчивой цифровой среды, а также настройка резервного
копирования данных, обеспечивающего восстановление критически важных
систем и информации в случае сбоя. Не менее важное направление —
системы мониторинга инфраструктуры, позволяющие оперативно реагировать
на потенциальные угрозы, а надежная защита персональных данных
исключает несанкционированный доступ к ним. О том, какие способы
контроля за цифровыми рисками существуют на российском рынке и как их
применить,— в интервью экспертов группы ЛАНИТ.
Цифровизация предъявляет новые требования к IT-инфраструктуре: ее надежности, гибкости, масштабируемости и, как следствие, доступности информационных систем. Любой, даже незначительный сбой способен повлечь за собой убытки для бизнеса. При этом обеспечение непрерывной работы — это многослойный и непростой процесс. За всеми самыми передовыми цифровыми сервисами, в том числе с использованием технологий искусственного интеллекта, стоит базовая инфраструктура центров обработки данных (ЦОД), привычное нам электричество и системы охлаждения. Только в ЦОДах к ним предъявляются повышенные требования к надежности, и каждая из этих систем многократно резервируется, проходит регулярный контроль и обслуживание. Второе, что требуется для бесперебойной работы,— это оборудование и программное обеспечение. Третье важное условие — объединение всего перечисленного в надежную отказоустойчивую архитектуру с учетом необходимого резервирования мощностей. Четвертое — автоматизация процессов, позволяющая исключить сбои из-за человеческого фактора, а также быстро адаптировать инфраструктуру под меняющиеся требования. Последнее и самое главное — высококвалифицированная команда.
Резервное копирование критичных данных должно быть, и на этом всегда хочется поставить точку.
Происходит это вне зависимости от того, привели к инциденту кибератака или технический сбой. Это относится как к малому, так и к среднему, крупному бизнесу. Есть золотое правило резервного копирования «3-2-1»: у вашей инфраструктуры должно быть три резервные копии, которые хранятся на двух разных носителях, один из которых — на физически удаленной площадке. Работая над проектами, мы всегда руководствуемся этим требованием.
В облаках используются лучшие мировые практики построения
инфраструктур, высокопроизводительное оборудование, что
обеспечивает его доступность. Количество и объем услуг можно
менять в любой момент без каких-либо ограничений. Также облако
можно рассматривать в качестве долговременного хранилища без
необходимости внесения изменений в собственную инфраструктуру, а
автоматизированное копирование данных позволяет сконцентрироваться
на ключевых задачах бизнеса, не переживая за сохранность
информации.
Среди множества предложений на рынке важно
выбрать то, которое полностью отвечает потребностям бизнеса.
Облако OnCloud базируется на лучших отечественных и зарубежных
решениях, что позволяет ему из года в год показывать высочайший
уровень доступности.
Если говорить о спросе на облачные сервисы, то за последние годы можно выделить три переломных момента, способствующих его росту. Первый наступил в 2020 году во время пандемии. Переход на удаленную работу потребовал от бизнеса перестройки бизнес-процессов, переноса физических серверов в облака, которые обеспечивают легкий доступ к данным из любой точки мира. Второй переломный момент произошел уже в нашей стране в 2022 году: организации были вынуждены в сжатые сроки перестраивать всю инфраструктуру, при этом обращаясь к отечественным облачным сервисам. И наконец, третий переломный момент происходит прямо сейчас. Проникновение цифровизации во все сферы деятельности вынуждает компании чаще обращаться к облачным решениям для увеличения своих мощностей, распределения нагрузки, ускоренной разработки продуктов и в целом реализации собственных бизнес-целей. Рост спроса на услуги российских облачных провайдеров в настоящее время составляет 30–40% год к году.
Выделю два типа компаний. Первые — это организации, которые долгое время использовали зарубежные сервисы и с 2022 года запустили процесс миграции на отечественные продукты. Второй тип — компании, которые до сих пор находятся в процессе отделения от иностранного капитала и локализуются в России. Им также требуются полностью российские решения, хотя до настоящего времени они ориентировались на зарубежные.
Оценивая окупаемость облачных сервисов, правильно соотносить затраты с выбранной IT-стратегией развития компании как в краткосрочной, так и в долгосрочной перспективе. Должны учитываться масштаб самой организации, устойчивость ее бизнеса, а также стабильность экономики страны и в целом мира.
Модель оплаты pay-as-you-go (заказчик оплачивает только тот объем ресурсов, который использовал) давно стала стандартом для рынка облачных сервисов.
Все сложные процессы для конечного пользователя сводятся к сервису по одной кнопке. Если он хочет сделать резервную копию одной из систем, достаточно выбрать ее и нажать на «Старт». После чего он может быть уверен, что вся информация будет гарантированно сохранена от потери. Все происходит в режиме реального времени. При необходимости можно развернуть копии данных на любой из созданных ранее точек восстановления. Также есть возможность подключить автоматизированный сервис: с заданной периодичностью система автоматически разворачивает инфраструктуру из резервной копии в изолированном контуре и проверяет, что сервисы успешно стартуют и данные восстановились. Так пользователь знает, что инцидент не приведет к фатальным последствиям: информация в любом случае сохранится.
Надежность информационных систем — это комплексный показатель, который зависит от отказоустойчивости таких компонентов IT-системы, как оборудование и программное обеспечение, и организации процессов, непосредственно влияющих на сохранность информации, например резервирования мощностей или копирования данных. Однако даже самые неуязвимые системы могут дать сбой. В этом случае в компании запускается процесс устранения инцидентов, существенную роль в котором играют инструменты мониторинга. Они позволяют уменьшить время обнаружения и диагностики аварий, сократить совокупное время простоя систем. В итоге снижаются убытки компании, возникающие из-за непредвиденных инцидентов.
Решения для мониторинга построены на одинаковых принципах. В первую очередь эти продукты собирают данные о состоянии информационных систем. Сведения аккумулируются из разных источников в зависимости от того, что является объектом мониторинга. Во-вторых, данные обрабатываются и агрегируются в едином хранилище для последующего анализа. Например, на этом этапе генерируются оповещения для службы технической поддержки. На выходе система должна предоставить человеку информацию в понятном виде: графическом или текстовом, на экране компьютера, смартфона или даже видеостены, с обозначенными риск-факторами и данными для диагностики. Так как продукты мониторинга предназначены для быстрого обнаружения сбоя и реагирования, то и сами они должны работать в режиме реального времени.
Представим, что объект мониторинга — это серверная. В этом случае к аварии может привести сгоревший порт коммутатора, то есть физическая неисправность, или нехватка свободного места на диске сервера для обработки значимых данных: диск перестанет принимать и обрабатывать новую информацию. Другие угрозы могут возникнуть на уровне приложений: мобильных, сайтов компаний, прикладного программного обеспечения. Например, пользователю может некорректно отображаться веб-страница сайта или будет увеличено время загрузки приложения. Инструменты мониторинга это своевременно отлавливают. Также спросом пользуются системы, которые контролируют инженерную инфраструктуру — например, они фиксируют температуру в помещении. В подобных продуктах для отслеживания параметров окружающей среды применяются технологии интернета вещей. Если же компания-заказчик обеспокоена возросшими киберрисками, то система настраивается на реагирование по событиям ИБ — например, на оформление банковских карт без согласия держателя данных.
В процессе реагирования на угрозы и сбои специалисты играют ключевую роль. Они определяют, что именно является причиной неисправности и как следует поступить. А вот задачи по регулярной проверке работы систем и параметров их бесперебойного функционирования как раз берут на себя инструменты мониторинга.
В зависимости от того, что является объектом мониторинга, можно выделить три профильных класса решений. Первый — это инфраструктурный мониторинг. Система проверяет исправность работы серверов, ЦОДов, коммутаторов, офисного оборудования. Этот вид мониторинга необходим практически любой компании среднего и крупного бизнеса. Второй — мониторинг приложений, особенно актуальный для В2С-сегмента: компании продают свои услуги через интернет, и им важно качество работы мобильных приложений, интернет-сервисов. Третий класс — это зонтичный мониторинг, наиболее сложный и покрывающий работу большой распределенной инфраструктуры. Такие системы актуальны для крупных компаний из-за масштабов и разнообразия существующего IT-ландшафта.
К нам обратилась X5 Group (сеть магазинов «Пятерочка», «Перекресток», «Чижик» и др.). Продукты IT-мониторинга у них были достаточно давно, но тем не менее нам были поставлены задачи унификации и консолидации данных из всех систем. На момент начала проекта сбои отслеживали более 30 разных решений. Централизованная служба поддержки была сильно загружена, обрабатывая информацию от каждой из них по различным каналам. Увеличились риски упустить что-то критически значимое, время обнаружения сбоев росло. Для таких ситуаций существует класс решений зонтичного мониторинга. Система как бы находится над всеми остальными IT-продуктами, которые используются в компании, подключается к ним и аккумулирует все данные. Таким образом, те самые разрозненные источники передают информацию в одну централизованную систему. У отдела поддержки, службы эксплуатации и руководства появляется единственный источник данных. Решением для X5 Group стал продукт нашего партнера — полностью отечественное решение Monq.
Основные пользователи системы — это специалисты поддержки и эксплуатации X5 Group. По их запросам мы дополнили функционал системы, благодаря чему коллеги сократили время устранения сбоев и повысили доступность своих IT-сервисов. Мы в этом проекте выступали как эксперты и компания-интегратор, которая знает, как такого рода системы создавать, как их настраивать, развертывать, как правильно организовывать работу для того, чтобы достигать поставленных целей заказчика.
Пандемия представляла серьезный вызов для многих областей
экономики, включая IT. Одновременно произошло множество
бизнес-трансформаций, но можно выделить несколько изменений,
ставших трендами. Первое — это гибкость и мобильность. Организации
вынужденно перевели сотрудников на удаленный режим, и до сих пор
многие используют гибридные модели работы, сочетающие как
удаленную, так и офисную занятость. Переход потребовал
соответствующих инструментов для управления и координации, но
помимо этого — гибкости как руководителей, так и
подчиненных.
Второе важное изменение — с массовым переходом на
удаленную работу возросли угрозы кибербезопасности. Как следствие,
возникла необходимость улучшения систем ИБ, повышения
осведомленности сотрудников о рисках. Третье изменение — это
глобальная цифровизация.
Она стимулировала компании к ускоренному внедрению цифровых решений. Широкое распространение получили облачные сервисы, продукты с использованием технологий искусственного интеллекта (ИИ).
Многие организации используют виртуальные частные сети. Для обеспечения надежного соединения между удаленными сотрудниками и корпоративной сетью применяется VPN. Кроме этого, политика безопасности компаний включает в себя правила аутентификации и авторизации, управление и контроль прав доступа пользователей к системам на основе корпоративной ролевой модели, регулярный мониторинг и аудит. Усовершенствовались технические средства для защиты от таких внешних угроз, как вредоносное программное обеспечение, атаки по модели «отказ в обслуживании» (DDoS-атака), фишинг и т. д. Заметен тренд на рост безопасности документооборота.
Прежде всего, не следует полагаться полностью на готовые решения: для создания продвинутой защиты следует комбинировать как готовые продукты, так и собственные разработки для мониторинга и контроля. Также стоит обратить внимание на фишинг и социальную инженерию: злоумышленники маскируются под надежные источники, чтобы обмануть пользователей и получить доступ к конфиденциальной информации. Эти атаки остаются самыми распространенными. Человеческий фактор — еще один из наиболее значимых рисков безопасности: неосторожное обращение с данными, ошибки в конфигурировании систем и недостаточное обучение сотрудников могут привести к утечкам данных и компрометации IT-систем.
Для начала необходимо оценить сложность организации процессов в
каждой компании. При наличии уже проверенных решений мы прибегаем
к так называемой тонкой интеграции. Добавляем собственные системы
только там, где это критично для данных, требующих дополнительной
защиты. Однако этот подход сопряжен с расходом большого количества
времени на анализ текущих систем и выявление потенциальных
уязвимостей.
Если же говорить о защите в целом, то здесь вместе с
готовыми решениями мы можем добавлять и собственные продукты.
Использование многоступенчатой защиты позволяет обеспечивать
контроль доступа к данным на разных уровнях и предотвращать
несанкционированный доступ к конфиденциальной информации.
Есть много инструментов, которые базируются на нейронных сетях, различных алгоритмах ИИ с использованием больших языковых моделей.
Также ИИ способен автоматизировать реагирование на кибератаки: заблокировать подозрительный трафик, изолировать подозрительные устройства в сети и восстановить данные после инцидента. Кроме этого, алгоритмы машинного обучения могут применяться для анализа исторических данных о кибератаках и предсказания вероятности будущих инцидентов.
Применение больших языковых моделей, работающие с большим количеством параметров (LLM), дает возможность предотвратить распространение конфиденциальной информации и персональных данных. Отчасти LLM могут контролировать действия сотрудников, например, вовремя остановить несанкционированное копирование или отправку данных. В нашей компании сейчас как раз разрабатываются системы, позволяющие выявлять и ограничивать распространение данных. Если сотрудник по ошибке решит отправить персональную или конфиденциальную информацию в мессенджере или по почте, то большие языковые модели автоматически заменят эти данные в тексте на нечувствительные (те, что можно распространять публично). При этом смысл предложения или абзаца сохранится: все будет выглядеть так, будто пользователь самостоятельно изменил формулировки.
Во всех отраслях, в которых конфиденциальность данных имеет высокое значение и утечка информации может привести к серьезным последствиям. Подобные продукты применяются в финансовой сфере, здравоохранении, технологических компаниях, госучреждениях и на производствах. Однако несмотря на огромные возможности ИИ, полностью довериться ему нельзя. ИИ действует на основе данных, которые ему представляются пользователями, и подвержен ошибкам или искажениям. В некоторых ситуациях требуется вмешательство сотрудника для принятия решений, ведь именно человек может учитывать контекст конкретной ситуации и руководствоваться этическими нормами. Искусственный интеллект сейчас стоит воспринимать как инструмент, работающий на основе алгоритмов и все еще требующий постоянного контроля со стороны человека.
Объем рынка работы с большими данными по итогам 2024 года Центром
стратегический разработок (ЦСР) предварительно оценивается в 95 млрд
руб., а к 2030 году он может достичь 234 млрд руб.
Все больше
организаций применяют driven-data-подход — то есть принятие решений и
построение стратегии на основании анализа больших данных. Такие
компании точно прогнозируют как свои потребности, так и запросы своих
клиентов, а также могут оптимизировать внутренние процессы и снизить
риски. Однако применение driven-data-подхода требует от бизнеса не
просто сбора качественных больших данных, но и современной аналитики,
в том числе с применением профильных инструментов для обработки
информации. «Ъ» обсудил с экспертом группы ЛАНИТ, как бизнесу изменить
работу с данными, научиться их анализу и начать конвертировать
информацию в прибыль и рост.
Данные и нефть — это хорошая аналогия. Но хочу напомнить, что долгое время нефть для людей скорее была проклятием, чем подарком, как минимум потому, что мешала земледелию. С большими данными дело обстоит примерно так же. С одной стороны, чем больше данных организация аккумулирует, тем лучше. С другой — нужны ресурсы и знания, чтобы их грамотно использовать. В большинстве случаев компании собирают информацию о клиентах как непереработанную нефть, не извлекая из нее пользы.
Если говорить о CleverData, то мы имеем дело с данными о клиентах наших компаний-заказчиков. Помогаем извлекать выгоду из собранной информации, выводить бизнес на новый уровень.
У всех одна задача: компании хотят обладать подробной информацией
о клиентах, чтобы сделать общение с ними еще более
персонализированным. Для любого бизнеса важно, чтобы рассылки от
лица бренда были прочитаны целевой аудиторией, а не отправились в
корзину. Требуется адаптация контента под запросы и ожидания
конкретных групп людей. Подобная персонализация однозначно
увеличивает эффективность рассылок, но для этого требуется анализ
больших данных и построение умных моделей на их основе.
Использование умных моделей позволяет не просто собрать
необходимые идентификаторы аудитории, но и грамотно их
использовать. Например, не предлагать человеку, который только что
вышел с техосмотра автомобиля, скидку в 20% на обслуживание — это
сообщение придет с опозданием и вызовет только раздражение. Однако
подобных ситуаций легко избежать, если сделать рассылку о скидке в
определенный момент — например, по истечении полугода с
предыдущего посещения клиентом автосалона.
Действительно, бывает так, что своих данных компаниям недостаточно
для полноценного анализа. Возникает потребность обогатить базы
данных информацией, которую собирает другая компания из совершенно
иной отрасли. Для этого существуют биржи данных, в которых процесс
передачи информации максимально безопасный и обезличенный. Однако
эта концепция устарела. Запросы бизнеса становятся все сложнее:
одной лишь покупки новой базы данных недостаточно компаниям для
достижения бизнес-целей и сохранения конкурентного преимущества на
рынке. Сегодня от биржи ждут не просто выгрузку информации, а еще
и ее анализ, проведенный с конкретной целью.
В CleverData часто
поступают такие запросы, и могу сказать, что это направление в
ближайшее время будет активно развиваться. При этом пожелания
компаний будут все более специфическими. Если раньше запрос был на
целевую аудиторию — к примеру, людей, регулярно покупающих молоко,
то сейчас пожелания компаний намного конкретнее. Требуется
аудитория, потребляющая молоко 1,8% жирности, путешествующая раз в
год и предпочитающая определенную марку автомобиля. Компании
уходят от сбора общих данных, важна детализация, чтобы получить
точечного клиента,— запросы на сегменты становятся все более
кастомными.
CDP расшифровывается как Customer Data Platform (платформа
клиентских данных). В качестве примера рассмотрим работу нашей
CDP-платформы — CleverData Join. Во-первых, она представляет собой
сегментированное хранилище данных, собираемых компанией о каждом
клиенте. Во-вторых, она анализирует эту информацию и выдает ее уже
в обработанном виде — к примеру, создает профиль 360 (обновляемую
в реальном времени клиентскую базу). CleverData Join также
предоставляет информацию о пользовательской истории. Это может
быть история взаимодействия клиента с компанией, отклик на
предложения и т. д., а также какие-то юридические моменты,
например согласия пользователя на обработку тех или иных данных,
которые он давал на онлайн-ресурсах организации.
Вторая
важная особенность платформы — возможность формировать профиль
клиента, даже если человек не прошел авторизацию на сайте
компании. Это стало возможным благодаря постоянному анализу всех
действий пользователей на разных ресурсах и выявлению типичного
для каждого человека поведения.
Еще один наш продукт, к
которому мы наблюдаем повышенный интерес,— это CleverData Tag
Manager. Это инструмент, позволяющий отслеживать поведение
пользователей на сайте и управлять тегами, размещенными на
интернет-ресурсе через свой интерфейс, не внося изменений в код
сайта.
Представим сеть гипермаркетов товаров для строительства и ремонта. Если дома — ремонт или простая перестановка мебели, то на сайт магазина в разное время, вероятно, заходят все члены семьи. Однако у них могут быть разные запросы: пока один изучает раздел с сантехникой или осветительными приборами, другой выбирает мягкую мебель и шторы. CleverData Join позволяет выявить таких людей — узнать, что два человека, изучающие товары на сайте компании, являются членами одной семьи. Исходя из этого маркетологи сети строительных гипермаркетов смогут сделать обоим персонализированные предложения.
Наблюдается общий тренд на глубокую персонализацию коммуникаций, основанную на data-driven-подходе — принятии решений на основе больших данных. Это позволяет увеличить конверсию e-mail-рассылок или других маркетинговых активностей. Этот же подход может быть использован и внутри компании — например, при принятии топ-менеджментом управленческих решений.
Ценность IT-решений и передовых разработок в 2024 году состоит не
только в их функциональности, но и времени, которое было потрачено на
процесс их создания. Стремление к быстрому выводу продуктов на рынок
стимулирует спрос на автоматизацию процессов, в том числе
использование инструментов DevOps (development & operations — методология для интеграции всех
рабочих процессов при создании ПО),
применение облачных технологий для быстрого масштабирования
инфраструктуры, а также внедрения технологий искусственного
интеллекта. Выражение «время — деньги» обретает в IT-отрасли прямой
смысл.
Эксперты группы ЛАНИТ знают, как применение профессиональных
инструментов позволяет компаниям сократить время разработки
IT-продуктов, повысить их качество при выводе на рынок и поддерживать
бесперебойную работу на протяжении всего жизненного цикла решения.
Чем выше в компании уровень проникновения IT, тем больше зависимость основного бизнеса от технологий и тем важнее сократить время вывода новых продуктов и быстрее начать получать прибыль. По-настоящему оценить значение time-to-market многие компании смогли во времена пандемии: было необходимо в кратчайшие сроки перевести все офлайн-услуги и сервисы в онлайн. Но и события последних лет приводили организации к ситуациям, когда время играло против них, и было критически важно создавать продукты в сжатые сроки.
В числе наших основных клиентов — организации из финансовой сферы. Финтех в России развивается опережающими темпами по сравнению со многими другими отраслями, и конкуренция между игроками рынка жесточайшая.
Наш продукт «Каркас» наиболее актуален для крупных компаний, в которых значительную долю занимает собственная разработка, имеется большая команда и одновременно реализуются много проектов.
Я скептически отношусь к усредненным расчетам на основе статистики для оценки сложных проектов. Это более применимо для типовых задач и коробочных решений, а к нам обращается крупный бизнес, который их не использует. Наши заказчики разрабатывают продукты под потребности своих компаний и со своими уникальными характеристиками. Могу сказать, что уже на старте проекта с использованием наших решений команда точно выиграет минимум месяц. А дальше все зависит от задачи и выбранных подходов.
Наиболее показательно будет рассматривать проект создания
корпоративной системы на основе open-source и микросервисной
архитектуры, над которым работает команда из нескольких десятков
разработчиков. В первую очередь для этого решения необходим
фундамент — структура приложения. Один из компонентов «Каркаса»
решает именно эту задачу и снимает необходимость с архитектора
делать все с нуля. Он представляет собой готовую структуру
приложения, спроектированную с учетом лучших мировых практик и
нашего опыта разработки крупных корпоративных систем. Крайне важно
учитывать, что ошибки на данном этапе могут иметь крайне печальные
последствия.
Далее потребуется решить еще две задачи,
которые стали золотым стандартом для организаций с развитым IT,—
это контейнеризация для встраивания вашего решения в
IT-инфраструктуру и создание сборочных конвейеров для
автоматизации процесса подготовки и установки поставок. На этих
этапах необходимо привлечение опытных DevOps-инженеров и
разработчиков из команды, но с помощью «Каркаса» и готовых
конфигураций участие специалистов сводится к минимуму, а вся
настройка занимает считаные дни.
Все это позволяет не
тратить время и ресурсы на подготовительные работы и в максимально
сжатые сроки приступить к разработке.
Еще одним важным
преимуществом «Каркаса» является наличие конвенций разработки и
инструментов проверки их соблюдения, которые не пропустят код,
если он содержит ошибки и не соответствует требованиям.
Поскольку «Каркас» фактически задает определенные стандарты, то процесс разработки становится более упорядоченным и понятным. Это снижает входной порог и позволяет привлекать для решения задач начинающих специалистов. Проект запускают квалифицированные эксперты, а развивают более молодые. По опыту наших проектов расходы на разработку могут сократиться до 30%. Кроме этого, такой подход способствует равномерному распределению ресурсов: одна задача не требует вовлечения сразу всех высококвалифицированных и дорогостоящих экспертов.
Клиентам бывает тяжело принять ограничения, с которыми придется
мириться, пока продукт будет обрастать функционалом. Избыточные
требования приводят к росту стоимости и сроков разработки MVP — минимально жизнеспособного
продукта.
Поэтому наши эксперты помогают найти наиболее простые способы
решения бизнес-задач, чтобы проверка продуктовой гипотезы не
превратилась в «стройку века».
Но у экономии времени
тоже есть свои недостатки. В этом случае при создании MVP не
уделяется времени на проектирование системы с учетом стратегии
развития продукта, и в будущем может потребоваться дорогостоящий
рефакторинг.
При принятии решения обязательно стоит
учитывать все эти факторы.
Наш опыт подтверждает, что
итерационный подход более эффективен, чем создание
полнофункционального продукта сразу. А использование «Каркаса»
позволяет не только быстро приступить к разработке MVP, но и
впоследствии развивать целевое решение без затрат на устранение
технического долга и за счет использования оптимальных
архитектурных подходов.
Библиотеки, которые входят в состав «Каркаса», подобраны с учетом совместимости версий и проверены на наличие угроз. Но так как для поддержки работоспособности и добавления новых функций им требуются постоянные обновления, мы добавили этапы сканирования на уязвимости. Поэтому даже если по ошибке кто-то из команды попытается внедрить опасный код в разрабатываемое решение, он просто не пройдет проверку.
Основными драйверами являются, с одной стороны, требования к скорости разработок и выводу продукта на рынок, с другой — высокие пользовательские ожидания. Тестирование же позволяет выявить и исправить проблемы интерфейса до того, как продукт увидят люди.
Многие приложения сейчас обновляются каждые две недели.
Автоматизированное тестирование проводится с использованием программного обеспечения для управления тестами, сравнения фактических результатов с ожидаемыми и создания отчетов. Процесс включает в себя автоматизацию различных видов тестов, в том числе функциональных, нагрузочных, интеграционных и UI-тестов (user interface — интерфейс, обеспечивающий передачу данных между программой и пользователем). В целом такой подход позволяет выполнить большее количество тестов за короткие сроки.
Функциональные тестировщики как IT-специалисты проверяют работу
приложения, создают тестовые сценарии. Дальше есть два варианта.
Они могут в ручном режиме пройти все сценарии, то есть представить
себя на месте будущего пользователя и пройти весь путь. Или же
использовать для этого уникальные автоматизированные скрипты. В
этом случае им не придется проверять все сценарии самим. Они
получат результат в виде отчета.
При этом написание
тестовых сценариев, достаточных для того, чтобы проверить весь
функционал продукта и качество его работы, все равно остается на
стороне людей.
Различий много. Для простых решений количество сценариев,
достаточных для их проверки, будет меньше. Также для простых
проектов будет характерно больше ручного тестирования и меньше
автоматизации.
Для масштабных систем могут, напротив,
потребоваться дополнительные тесты. Цель этих проверок — узнать,
не привели ли внесенные изменения к новым ошибкам в уже
протестированных частях программы.
На начальном этапе автоматизированное тестирование занимает от нескольких часов до двух-трех дней. Приложения обновляются раз в две недели, а значит, и тестирование повторяется.
NeuroControl — платформа для автоматизации тестирования любых мобильных и desktop-приложений. Сейчас мы можем констатировать, что на российском рынке аналогов ей нет, есть только зарубежные решения с очень дорогими лицензиями, при этом не всегда подходящие для отечественных продуктов (например, есть ограничения по языкам программирования). Ценность NeuroControl — именно в тестировании desktop-приложений, где ранее невозможно было свести процесс автоматического тестирования до запуска одной кнопки, одной команды. Одним из крупных внедрений для нас стало сотрудничество с департаментом информационных технологий Москвы. Также платформу уже используют многие банки.