LINUX.ORG.RU
ФорумTalks

Экономия трафика и увеличение скорости загрузки страниц

 , , ,


1

1

Мне сейчас в голову пришла упоротая идея. Вот есть у меня веб-сервер. Он генерит пользователям странички, которые все очень похожи друг на друга. И каждый раз я гружу эту страничку целиком. Ну, например, картинки я каждый раз не гружу (сервер возвращает «not modified» и всё быстро), css и прочие, наверно, тоже как-то кэшируются. А вот веб-страницу я гружу полностью (возможно, гзипнутую, но всё рано большую).
Так вот: в HTTP 2.0 нужно добавить diff'ы. Например, возьмём 2 страницы, сгенерированные на моём сервере: их размер 5362 и 4125 байт соответственно. А diff весит всего 3753 байт. Нужно, чтобы сервер отдавал не целиком страницу, а diff между последней отданной и той, которую хочет получить пользователь. А браузер это должен понимать и применять этот diff. Если грамотно при генерации разбивать документ на строчки, будет сильно меньше трафика. Экономия!
Дискач и докажите мне, что я неправ.

★★★★★

Это называется AJAX

Dron ★★★★★
()
Ответ на: комментарий от note173

+1, и уже тем более возвращать серверу текущее состояние с клиента чтоб потом получить дифф... НУНАФИГ

q11q11 ★★★★★
()

Например, возьмём 2 страницы, сгенерированные на моём сервере: их размер 5362 и 4125 байт соответственно.

после gzip?

Anonymous ★★★★★
()
Ответ на: комментарий от Deleted

Да я тоже так думал, но вот в хроме, например, не работает инклад, что заставляет делать неимоверные костыли. Ну и абсолютная нерасширяемость, вопреки названию.

Binary ★★★★★
()
Ответ на: комментарий от xtraeft

Не представляю, с каким сжатием сервер gzip'ает и где это посмотреть. Не трафик же сниффать.

CYB3R ★★★★★
() автор топика
Ответ на: комментарий от Deleted

Правда, проверь :) При этом говорит, что поддерживает xslt 1.0, но при проверке поддержки xsl:import/xsl:include говорит false.

Binary ★★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.