16:00
16 ноября
2025

Когда технологии защищают людей, а не контролируют. Украинский инженер о создании AI-систем для корпоративной прозрачности

Когда технологии защищают людей, а не контролируют. Украинский инженер о создании AI-систем для корпоративной прозрачности - today.ua
724
Олексій Скубій
Редактор стрічки новин today.ua

Сергей Мельник, старший инженер-разработчик и руководитель проектов в NAVEX Global, объяснил, как AI-технологии защищают сотрудников, сообщающих о корпоративных нарушениях и как отличается подход к защите информаторов в разных индустриях. 

Безопасность сотрудников, решивших сообщить о нарушениях, — один из главных вызовов для крупных корпораций. Согласно исследованию Institute of Business Ethics за 2024 год, каждый четвертый работник знает о случаях нарушения закона или этических стандартов в своих организациях, но треть предпочитают молчать — из страха потерять работу или уверенности, что меры не будут приняты. При этом почти половина тех, кто все же осмелился сообщить о проблемах, столкнулись с давлением или увольнением. Однако компании хотят знать о внутренних нарушениях. 

Новое поколение AI-технологий способно изменить ситуацию: они помогают сохранять анонимность информаторов и делают систему отчетности защищенной. В числе немногих, кто создает подобные решения — Сергей Мельник, ведущий инженер международной компании, чьими решениями пользуются более 13 000 корпораций по всему миру, включая 75% списка Fortune 100. Он возглавляет разработку AI-систем, через которые ежегодно проходят миллионы сообщений о финансовых махинациях, дискриминации и других нарушениях, и его задача — сделать так, чтобы технологии защищали, а не контролировали людей, которые решаются говорить правду.

— Сергей, вы руководите разработкой систем, которые позволяют сотрудникам оставлять анонимные сообщения о нарушениях в компании. Недавнее исследование Institute of Business Ethics показало, что почти половина из тех, кто решился на этот шаг, столкнулись с репрессиями. Как технологии могут помочь людям не бояться говорить правду?

— Ключевое здесь — проблема доверия. Когда сотрудник видит несправедливость, — например, финансовые махинации или дискриминацию — он рискует карьерой, сообщая о ней. Традиционные горячие линии не всегда внушают уверенность — люди боятся, что их вычислят по голосу, времени звонка или даже по формулировкам. AI-системы меняют ситуацию. Например, если человек оставляет голосовое сообщение, оно автоматически обрабатывается через технологию распознавания речи  и анализируется через ИИ-модель. Никто из сотрудников компании не слышит его голос, не видит номер телефона. Система сама классифицирует обращение и направляет в нужный отдел, сохраняя анонимность.

— Насколько я знаю, вы возглавили модернизацию Compliance Assistant — системы, которая консультирует сотрудников по вопросам этики и комплаенса, и добились того, что обработка запросов стала происходить быстрее. Почему для поиска так важно, чтобы система отвечала быстро?

— Мы перевели систему на новую технологическую базу — более мощные AI-модели и облачную инфраструктуру. Это дало не только скорость. Система стала умнее: теперь она понимает контекст запроса и может не просто ответить на вопрос, но и предложить человеку материалы, которые помогут ему разобраться глубже. Например, если сотрудник спрашивает о правилах конфликта интересов, система даст ответ и порекомендует пройти короткий тренинг по этой теме — чтобы человек понимал не только что делать сейчас, но и как действовать в будущем.

— Но ведь не только скорость важна. Как гарантировать, что система не даст сбой в тот момент, когда человек решается сообщить о нарушении? Насколько я знаю, вы внедрили специальную технологию мониторинга, которая постоянно проверяет работоспособность всех частей системы.

— Вопрос надежности — один из ключевых. В одной из компаний мы создали платформу для предзаказа автомобилей. Там нагрузка могла взлететь в десятки раз за минуты — новая модель выходит, все хотят заказать — и система обязана выдержать. За все рекламные кампании не было ни одного сбоя.

В проектах для защиты информаторов ставки выше. Если платформа для заказа машины упадет, люди просто придут позже. Если система приема жалоб недоступна, человек может вообще передумать сообщать о нарушении.

Внедренный мной отраслевой стандарт для мониторинга распределенных систем OpenTelemetry позволяет видеть, что происходит внутри каждого компонента системы. Каждый микросервис постоянно отправляет данные о своем состоянии: скорость обработки, ошибки, нагрузка. Если что-то начинает работать нестабильно, мы видим это до того, как пользователи столкнутся с проблемой. Можем переключить трафик на резервные мощности, масштабировать систему, устранить узкие места.

— Значит, задача инженера в таких проектах — выстроить архитектуру, которая не подведет людей. До NAVEX вы работали в MotoInsight над платформами для автопроизводителей, потом в Playtech возглавляли разработку AI-системы для выявления игромании, которая помогла заключить крупный контракт с Ontario Lottery and Gaming Corporation. Как менялось ваше понимание того, для чего существуют технологии?

— Сначала я воспринимал инженерию как чисто техническую задачу: написал код, он работает быстро и без ошибок — отлично. Но чем дальше, тем больше видел, что за каждой системой стоят люди.

В Playtech это стало особенно очевидно. Игорная индустрия сталкивается с серьезной проблемой — зависимость разрушает жизни людей. И мы создавали BetBuddy не просто как еще один AI-сервис, а как инструмент, который в реальном времени анализирует поведение игроков и подает сигналы, когда человек начинает играть рискованно. По сути, технология защищает уязвимых людей от самих себя. Это меняет отношение к работе — понимаешь, что твои архитектурные решения влияют на чью-то жизнь.

В проектах для защиты информаторов эта логика еще острее. За каждым сообщением в системе — конкретный человек, который рискует карьерой ради справедливости. Если мы ошибемся в безопасности или система даст сбой — пострадают реальные люди. Поэтому инженер должен думать не только о скорости и производительности, но и о последствиях каждого своего решения.

— Помимо принятия решений о том, какими именно будут системы, вы отвечаете за команду инженеров, проводите технические интервью для новых сотрудников. Как вы показываете коллегам, что они создают систему, от которой зависят жизни реальных людей?

— Контекст решает все. Когда ставлю задачу команде, всегда объясняю не только что нужно сделать, но и для кого. Например, не просто создать API для обработки запросов, а четко: это API будет обрабатывать сообщения от людей, которые рискуют работой, чтобы сообщить о нарушениях. И если мы допустим утечку данных или ошибку в шифровании — мы подставим этих людей под удар. Когда инженер понимает последствия, отношение к каждой строчке кода меняется. 

При отборе новых сотрудников смотрю не только на технические навыки. Каждого спрашиваю: почему он выбрал это архитектурное решение, а не другое, как его код повлияет на пользователей, готов ли он взять ответственность, если что-то пойдет не так? Эти вопросы показывают, думает ли человек о контексте своей работы.

Технические навыки можно прокачать — это вопрос времени и практики. Но если человек не понимает, зачем он делает свою работу, очень сложно построить команду, которая создает системы, от которых зависят жизни людей.

— Вы работали с разными индустриями — автопроизводители в Канаде, игорный бизнес, теперь корпоративный комплаенс в США. Отличается ли подход к этике и защите информаторов в этих сферах?

— Разница колоссальная. В автоиндустрии, когда я работал с VW, Audi, Hyundai через MotoInsight, соблюдение правил и этических норм воспринимается как часть корпоративной ДНК. Это не формальность — это базовый стандарт ведения бизнеса.

В игорной индустрии этика — вопрос выживания. Регуляторы жестко контролируют, общество давит, репутационные риски огромны. Технологии вроде BetBuddy, которую мы создавали, стали способом для индустрии показать: мы относимся к проблеме игромании серьезно, инвестируем в защиту людей.

В корпоративном комплаенсе, где я работаю сейчас, подход еще более системный. В США действуют жесткие законы о защите информаторов, высокие штрафы за нарушения. Компании из Fortune 100 не могут позволить себе проблемы с прозрачностью — последствия слишком серьезные.

Но во всех этих сферах я вижу одну тенденцию: технологии превращают этику из декларации в измеримую практику. Можно говорить о ценностях сколько угодно, но если нет системы, которая собирает данные, выявляет проблемы, обеспечивает прозрачность — это просто слова. AI делает корпоративную этику управляемой.

— Какие новые возможности AI будут влиять на корпоративную этику в обозримой перспективе?

— Главное изменение — AI позволяет предвидеть проблемы, а не только реагировать на них постфактум. Сейчас в большинстве компаний схема простая: случилось нарушение — начали разбираться. AI может заметить тревожные сигналы раньше: из одного отдела вдруг пошел необычный поток жалоб, или начал расти определенный тип нарушений. Система сигнализирует, и компания может разобраться с проблемой до того, как она превратится в кризис.

Второе важное направление — персонализация. Представьте: вместо того, чтобы показывать всем сотрудникам одинаковые материалы по этике, система понимает контекст. Человек работает в финансовом отделе — ему важны одни темы, в HR-отделе — совсем другие. AI подбирает релевантный контент для каждого. Это работает эффективнее, чем универсальные инструкции, которые все листают по диагонали.

И третий момент — доступность. AI снимает языковые и культурные барьеры. Человек может оставить сообщение голосом на своем языке, система обработает это и направит куда нужно. Для глобальных компаний, где работают люди из десятков стран, это меняет все.

Но здесь важно не увлечься. AI — это усилитель возможностей человека, а не его замена. Финальное решение по любому серьезному вопросу всегда должен принимать живой человек, который несет за это ответственность.