dok34.ru
Moderator
HTTP compression - Wikipedia
en.m.wikipedia.org
Follow along with the video below to see how to install our site as a web app on your home screen.
Примечание: This feature may not be available in some browsers.
Я не уверен. Когда вы что-то архивируете, то обычно это много байт, а запрос из базы обычно наоборот лёгкий и занимает мало байт. Попробуйте заархивировать и разархивировать типичный ответ базы данных - это будет просто. Вам кажется что несравнимо потому что вы гоняете их с разной нагрузкой.Не бесплатные.
Но с архивацией не сравнимо.
Это я говорю по наблюдению ..например, за утилитой top/htop в линуксе 🙂
Можете и сами сравнить, проверить 🙂
В нашем. У нас гигабайты памяти. Сколько переписок нужно, чтобы занять такой объём? Но дело не в этом. Я предлагал хранить в памяти то, что почти не меняется между запросами. Статические страницы на диске скорее всего будут очень похожими. Представьте кучу статических файлов. Одно оформление, одна структура, они отличаются только самими сообщениями, которые и так разные. Но то что повторяется много раз как раз весит много и подлежит сжатию, а разницу между ними с текстом и так видимо лучше с диска читать. Распаковка будет похожа на объединение прочитанной с диска разницы и закешированной в памяти основы, которая весит мало.Дешёвая ОЗУ?
В каком мире?
Наверное кеширует их... Могла бы читать с диска и сразу меньше памяти нужно... Для быстроты.У меня - процентов семьдесят.
И у нас распаковка, а не запаковка. И я предлагал какой-то специфичный алгоритм, как раз чтобы было веселее.Но с архивацией не сравнимо.
И это показывает что это реально. И с той штукой уже можно более гибко управлять кешированием на всех уровнях, это может помочь сделать оптимальнее всё это и может быть даже экономить память.Плюс - при первом чтении из базы таблица помещается в память, кешируется. И затем уже из памяти читаем.
Было бы интересно, если бы оказалось, что запакованный вариант - кешируется и не запаковывается снова и снова при каждом запросе. Если это статические файлы, то можно было серверу отслеживать что они не изменились и тогда снова отдавать то, что уже заархивировали.Но Вы правы, такое обрабатывается на лету.
Запрос из базы - это текст, плюс данные писавшего пост, плюс время и так далее.Я не уверен. Когда вы что-то архивируете, то обычно это много байт, а запрос из базы обычно наоборот лёгкий и занимает мало байт. Попробуйте заархивировать и разархивировать типичный ответ базы данных - это будет просто. Вам кажется что несравнимо потому что вы гоняете их с разной нагрузкой.
Довольно много 🙂В нашем. У нас гигабайты памяти. Сколько переписок нужно, чтобы занять такой объём?
А это - другое дело!Но дело не в этом. Я предлагал хранить в памяти то, что почти не меняется между запросами. Статические страницы на диске скорее всего будут очень похожими.
Именно так и работает.Представьте кучу статических файлов. Одно оформление, одна структура, они отличаются только самими сообщениями, которые и так разные.
Ну да. так и делается.Но то что повторяется много раз как раз весит много и подлежит сжатию, а разницу между ними с текстом и так видимо лучше с диска читать. Распаковка будет похожа на объединение прочитанной с диска разницы и закешированной в памяти основы, которая весит мало.
А. это тоже можноНу и в оригинале я предлагал что-то похожее больше на make файлы, а не на архиватор...
Типа это веселее и нет проблем темы менять... И я предлагал какой-то специфичный алгоритм, как раз чтобы было веселее.
Есть дисковый Кеш, и в памяти, факт!Наверное кеширует их... Могла бы читать с диска и сразу меньше памяти нужно... Для быстроты.
Тоже можно 🙂И у нас распаковка, а не запаковка. И я предлагал какой-то специфичный алгоритм, как раз чтобы было веселее.
А. теперь понял, спасибо за пояснения!И это показывает что это реально. И с той штукой уже можно более гибко управлять кешированием на всех уровнях, это может помочь сделать оптимальнее всё это и может быть даже экономить память.
А оно показало, что так как раз можно ускорить всё.
То что я предложил не обязательно полностью похоже на типичную архивацию, её можно переделать так, чтобы всё это работало уже именно так как хочу. Поэтому недостатки обычных архиваторов могут не распространяться на этот "специфичный" архиватор, который сделан специально для этого и решит эти проблемы. Он не обязан жать так же хорошо, зато решает эти проблемы и не напрягает процессор больше, чем база данных. (И я вообще предлагал скорее своего рода make файл управляющий слоями кеширования, это точно не труднее вызова к базе и решает многие эти проблемы)
Это само собой. Нгинкс и другие кеширующие сервера\прокси - рулят.Было бы интересно, если бы оказалось, что запакованный вариант - кешируется и не запаковывается снова и снова при каждом запросе. Если это статические файлы, то можно было серверу отслеживать что они не изменились и тогда снова отдавать то, что уже заархивировали.
Я не уверен. Когда вы что-то архивируете, то обычно это много байт, а запрос из базы обычно наоборот лёгкий и занимает мало байт. Попробуйте заархивировать и разархивировать типичный ответ базы данных - это будет просто. Вам кажется что несравнимо потому что вы гоняете их с разной нагрузкой.Не бесплатные.
Но с архивацией не сравнимо.
Это я говорю по наблюдению ..например, за утилитой top/htop в линуксе 🙂
Можете и сами сравнить, проверить 🙂
В нашем. У нас гигабайты памяти. Сколько переписок нужно, чтобы занять такой объём? Но дело не в этом. Я предлагал хранить в памяти то, что почти не меняется между запросами. Статические страницы на диске скорее всего будут очень похожими. Представьте кучу статических файлов. Одно оформление, одна структура, они отличаются только самими сообщениями, которые и так разные. Но то что повторяется много раз как раз весит много и подлежит сжатию, а разницу между ними с текстом и так видимо лучше с диска читать. Распаковка будет похожа на объединение прочитанной с диска разницы и закешированной в памяти основы, которая весит мало.Дешёвая ОЗУ?
В каком мире?
Наверное кеширует их... Могла бы читать с диска и сразу меньше памяти нужно... Для быстроты.У меня - процентов семьдесят.
И у нас распаковка, а не запаковка. И я предлагал какой-то специфичный алгоритм, как раз чтобы было веселее.Но с архивацией не сравнимо.
И это показывает что это реально. И с той штукой уже можно более гибко управлять кешированием на всех уровнях, это может помочь сделать оптимальнее всё это и может быть даже экономить память.Плюс - при первом чтении из базы таблица помещается в память, кешируется. И затем уже из памяти читаем.
Было бы интересно, если бы оказалось, что запакованный вариант - кешируется и не запаковывается снова и снова при каждом запросе. Если это статические файлы, то можно было серверу отслеживать что они не изменились и тогда снова отдавать то, что уже заархивировали.Но Вы правы, такое обрабатывается на лету.
Вау. Много...Запрос из базы - это текст, плюс данные писавшего пост, плюс время и так далее.
Тяжёлые запросы...они не малые, у меня ограничение стоит...вроде 150Мб для запроса к базе, если ниже - иногда не хватает.
Ну, сорри - вроде всё понятно. Просто не вся информация сразу была, я и не понял, в другую степь думал 🙂Я мастер непонятных объяснений, простите. Суть в том чтобы ну.
Что-то более интересное, как мне кажется...Просто не вся информация сразу была, я и не понял, в другую степь думал
В связи с решением Верховного суда Российской Федерации (далее РФ) от 30 ноября 2023 года), движение ЛГБТ* признано экстремистским и запрещена его деятельность на территории РФ. Данное решение суда подлежит немедленному исполнению, исходя из чего на форуме будут приняты следующие меры - аббривеатура ЛГБТ* должна и будет применяться только со звездочкой (она означает иноагента или связанное с экстремизмом движение, которое запрещено в РФ), все ради того чтобы посетители и пользователи этого форума могли ознакомиться с данным запретом. Символика, картинки и атрибутика что связана с ныне запрещенным движением ЛГБТ* запрещены на этом форуме - исходя из решения Верховного суда, о котором было написано ранее - этот пункт внесен как экстренное дополнение к правилам форума части 4 параграфа 12 в настоящее время.