Testing and Monitoring ML Models in Production: Drift, Performance, Quality

Testing and Monitoring ML Models in Production: Drift, Performance, Quality

Introduction Deploying a machine learning model into production is just the beginning of its lifecycle. Ensuring that the model continues to perform well over time and adapts to changing data distributions is a critical task. In this article, we will explore various strategies and techniques for testing and monitoring ML models in production, focusing on aspects such as drift, performance, and quality. What is Data Drift? Data drift occurs when the statistical properties of the input data change over time, leading to a degradation in model performance....

March 27, 2026 · 3 min · 511 words · Maxim Zhirnov
Тестирование и мониторинг моделей ML в процессе производства: Дрейф, производительность, качество

Тестирование и мониторинг моделей ML в процессе производства: Дрейф, производительность, качество

Введение Развёртывание модели машинного обучения в продакшн — это только начало её жизненного цикла. Обеспечение стабильной работы модели с течением времени и её адаптация к изменениям в распределении данных — важная задача. В этой статье мы рассмотрим различные стратегии и методы тестирования и мониторинга моделей машинного обучения в продакшне, уделяя особое внимание таким аспектам, как сдвиг данных, производительность и качество. Что такое сдвиг данных? Сдвиг данных происходит, когда статистические свойства входных данных изменяются со временем, что приводит к ухудшению производительности модели....

March 27, 2026 · 3 min · 473 words · Maxim Zhirnov
Junior Developers Should Not Touch Tests: A Provocative Case for Gatekeeping Quality

Junior Developers Should Not Touch Tests: A Provocative Case for Gatekeeping Quality

The Uncomfortable Truth Nobody Wants to Hear Let me start with something that will make your Twitter timeline combust: junior developers writing tests is like letting someone learn to drive by driving a school bus during rush hour. Sure, they’ll probably survive, and maybe even learn something. But is that really the best use of everyone’s time and sanity? I can already hear the collective gasp from the test-driven development zealots, the agile evangelists, and the “everyone should code review everything” crowd....

February 17, 2026 · 9 min · 1810 words · Maxim Zhirnov
Младшим разработчикам не следует прикасаться к тестам: Провокационный пример качества гейткипинга

Младшим разработчикам не следует прикасаться к тестам: Провокационный пример качества гейткипинга

Неудобная правда, которую никто не хочет слышать Начну с того, что заставит ваш ленту в Twitter взорваться: когда junior-разработчики пишут тесты, это как если бы кто-то учился водить, управляя школьным автобусом в час пик. Конечно, они, вероятно, выживут и, возможно, даже чему-то научатся. Но действительно ли это лучшее использование времени и сил каждого? Я уже слышу коллективный возглас фанатиков разработки через тестирование, проповедников гибкой разработки и сторонников принципа «каждый должен просматривать код каждого»....

February 17, 2026 · 6 min · 1192 words · Maxim Zhirnov
Code Coverage Is a Vanity Metric: Why Chasing 100% Is a Waste of Time

Code Coverage Is a Vanity Metric: Why Chasing 100% Is a Waste of Time

Ever sat in a meeting where someone triumphantly announced: “We’ve achieved 87% code coverage!”? Everyone nods approvingly, as if they just landed a rocket on Mars. Meanwhile, in the codebase, a bug that could have been caught by a proper test just slipped into production. Welcome to the paradox of code coverage—the metric that makes you feel productive while your software quietly falls apart. Let me be brutally honest: code coverage as a target is a vanity metric, and chasing it is one of the fastest ways to sabotage your codebase while maintaining the illusion of quality....

February 13, 2026 · 14 min · 2915 words · Maxim Zhirnov