Назад | Перейти на главную страницу

сжатие gzip увеличивает производительность, а затем в конечном итоге увеличивает время ответа от сервера

Вот мой текущий сценарий сервера.

Я использую экземпляр Rackspace Cloud (16 ГБ ОЗУ), используя cPanel / WHM при установке CentOS 5.5.

В настоящее время у меня около 10 сайтов Magento, все разного размера (от среднего до маленького).

Со временем я заметил, что скорость сайтов замедляется. Я сделал множество настроек в базе данных и других вещей, чтобы повысить производительность Magento.

Я недавно включил глобальное сжатие gzip добавив следующую строку Post Include для конфигурации apache.

<IfModule mod_deflate.c>

    # Insert filter on all content
    SetOutputFilter DEFLATE
    # Insert filter on selected content types only
    AddOutputFilterByType DEFLATE text/html text/plain text/xml text/css text/javascript

    # Netscape 4.x has some problems...
    BrowserMatch ^Mozilla/4 gzip-only-text/html

    # Netscape 4.06-4.08 have some more problems
    BrowserMatch ^Mozilla/4\.0[678] no-gzip

    # MSIE masquerades as Netscape, but it is fine
    BrowserMatch \bMSIE !no-gzip !gzip-only-text/html

    # Don't compress images
    SetEnvIfNoCase Request_URI \.(?:gif|jpe?g|png)$ no-gzip dont-vary

    # Make sure proxies don't deliver the wrong content
    Header append Vary User-Agent env=!dont-vary

</IfModule>

Я сразу заметил более быструю загрузку сайтов и остался очень доволен. Однако через несколько минут я заметил, что время отклика увеличилось ... полностью нивелируя прирост производительности и заставляя сайты загружаться на 2-3 секунды больше, чем до gzip.

Насколько я понимаю, gzip не требует слишком много дополнительного процессора, но может ли это быть с комбинацией 10 разных веб-сайтов?

Есть ли способ получить содержимое gzip один раз, чем заставить apache искать этот уже сжатый файл и использовать его вместо того, чтобы сжимать каждый файл снова и снова для каждого запроса?

Мы будем благодарны за любое понимание этого!

Может ты мог бы взглянуть на mod_disk_cache

Есть способ сначала сжать ваш контент, а затем переписать foo, чтобы эта работа работала (теоретически) ... но ... если вас интересует производительность сайта, взгляните на кеш обратного прокси, например лак. Хотя я не работаю с magento, кажется, что лак довольно хорошо с ним интегрируется: http://www.magentocommerce.com/magento-connect/pagecache-powered-by-varnish.html

HTH.