Latency, или задержка, — это интервал времени между тем, как пользователь отправил запрос (например, к сайту), и тем, как он получил ответ от сервера. Этот параметр измеряется в миллисекундах (мс) и часто остаётся «за кадром», но при этом оказывает огромное влияние на восприятие скорости работы любого интернет-сервиса.
Чем меньше latency, тем быстрее отклик. Например, при просмотре веб-страницы это может быть почти незаметно. Но в онлайн-играх, видеозвонках, финансовых транзакциях или удалённой работе каждая лишняя миллисекунда имеет значение — высокие задержки делают соединение “тормозным” и вызывают раздражение пользователей.
Задержка может расти по разным причинам:
– большое расстояние между пользователем и сервером;
– загруженность магистральных сетей;
– плохо оптимизированный маршрут;
– перегруженный DNS или прокси;
– отсутствие CDN (сети доставки контента).
Для международных сервисов и приложений latency становится особенно важной метрикой. Именно поэтому крупные компании разворачивают CDN-узлы (PoP) по всему миру — чтобы ответ от ближайшего сервера приходил максимально быстро, а не «обходил полпланеты».
В хостинге и облачных инфраструктурах отслеживание и снижение latency — важнейшая часть работы по оптимизации производительности. Использование современных протоколов, качественных маршрутов, грамотная конфигурация серверов и распределённые дата-центры — всё это помогает держать отклик на минимальном уровне.
Если сайт грузится “нормально”, но кажется медленным — вполне возможно, что причина именно в высокой latency. А ведь пользователю достаточно нескольких секунд задержки, чтобы закрыть страницу. Поэтому борьба за миллисекунды — это реальное конкурентное преимущество.