Настройка Nginx для реального проекта: TLS, gzip, rate limiting
Каждый раз, когда поднимаю новый сервер, трачу время на одно и то же. Решил записать правильную конфигурацию Nginx — ту, которая у меня в production. Без лишней воды, только то, что реально нужно.
Базовая структура
Стандартная структура: глобальный nginx.conf с общими настройками, и отдельные конфиги в sites-enabled/. Не мешаю всё в один файл.
# /etc/nginx/nginx.conf
user www-data;
worker_processes auto;
worker_rlimit_nofile 65535;
pid /run/nginx.pid;
events {
worker_connections 4096;
use epoll;
multi_accept on;
}
http {
sendfile on;
tcp_nopush on;
tcp_nodelay on;
keepalive_timeout 65;
types_hash_max_size 4096;
include /etc/nginx/mime.types;
default_type application/octet-stream;
# Логи
log_format main '$remote_addr - $remote_user [$time_local] '
'"$request" $status $body_bytes_sent '
'"$http_referer" "$http_user_agent" '
'$request_time';
access_log /var/log/nginx/access.log main;
include /etc/nginx/sites-enabled/*;
}
TLS 1.3 и современные шифры
Минимальная версия — TLS 1.2, но цель — TLS 1.3 везде где возможно. Старые клиенты (IE11, Android 4.x) — не моя аудитория.
server {
listen 443 ssl;
listen [::]:443 ssl;
http2 on;
ssl_certificate /etc/letsencrypt/live/example.com/fullchain.pem;
ssl_certificate_key /etc/letsencrypt/live/example.com/privkey.pem;
ssl_protocols TLSv1.2 TLSv1.3;
ssl_ciphers 'ECDHE-ECDSA-AES128-GCM-SHA256:ECDHE-RSA-AES128-GCM-SHA256:ECDHE-ECDSA-AES256-GCM-SHA384:ECDHE-RSA-AES256-GCM-SHA384:ECDHE-ECDSA-CHACHA20-POLY1305:ECDHE-RSA-CHACHA20-POLY1305';
ssl_prefer_server_ciphers off;
# Session cache
ssl_session_cache shared:SSL:10m;
ssl_session_timeout 1d;
ssl_session_tickets off;
# HSTS
add_header Strict-Transport-Security "max-age=63072000; includeSubDomains" always;
}
Gzip: что жать, а что нет
Частая ошибка — включить gzip глобально и забыть. Бинарные файлы (изображения, PDF) не сжимаются, только тратится CPU. Правильно так:
gzip on;
gzip_vary on;
gzip_proxied any;
gzip_comp_level 6;
gzip_buffers 16 8k;
gzip_http_version 1.1;
gzip_min_length 1024;
gzip_types
text/plain
text/css
text/xml
text/javascript
application/javascript
application/x-javascript
application/json
application/xml
application/rss+xml
font/ttf
font/opentype
image/svg+xml;
Уровень 6 — хороший баланс между сжатием и нагрузкой на CPU. Уровни 7-9 дают 2-3% выигрыша при значительно большей нагрузке — не стоит того.
Rate limiting
Два зоны: одна для API (строго), другая для обычных запросов (мягче):
# В http блоке
limit_req_zone $binary_remote_addr zone=api:10m rate=10r/s;
limit_req_zone $binary_remote_addr zone=login:10m rate=1r/s;
# В server блоке
location /api/ {
limit_req zone=api burst=20 nodelay;
limit_req_status 429;
proxy_pass http://backend;
}
location /auth/login {
limit_req zone=login burst=5;
proxy_pass http://backend;
}
burst — буфер для пиков трафика. nodelay — обрабатывать burst без задержки, лишние сразу отклонять. Без nodelay запросы ставятся в очередь — пользователи видят тормоза вместо 429.
Заголовки безопасности
add_header X-Frame-Options "SAMEORIGIN" always;
add_header X-Content-Type-Options "nosniff" always;
add_header Referrer-Policy "strict-origin-when-cross-origin" always;
add_header Permissions-Policy "geolocation=(), camera=(), microphone=()" always;
add_header Content-Security-Policy "default-src 'self'; script-src 'self'; style-src 'self' 'unsafe-inline'" always;
Проксирование на backend
upstream backend {
server 127.0.0.1:8000;
keepalive 32;
}
location / {
proxy_pass http://backend;
proxy_http_version 1.1;
proxy_set_header Connection "";
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header X-Forwarded-Proto $scheme;
proxy_connect_timeout 5s;
proxy_read_timeout 60s;
proxy_send_timeout 60s;
proxy_buffering on;
proxy_buffer_size 8k;
proxy_buffers 8 8k;
}
keepalive 32 в upstream — держит постоянные соединения к backend. Без этого Nginx при каждом запросе открывает новый TCP-коннект. На highload разница ощутимая.
Проверка конфига
Всегда перед reload:
nginx -t && nginx -s reload
Если что-то пошло не так — смотрю логи:
tail -f /var/log/nginx/error.log
На этом основное. Детали по конкретным кейсам (WebSocket, большие файлы, geo-блокировка) — в следующих постах, если хватит времени написать.