Jump to content

Кэш (вычисление)

(Перенаправлено из конфликта в кеш )

Диаграмма операции кеша памяти процессора

В вычислениях кеш ( / k æ ʃ / Каш ) [ 1 ] является аппаратным или программным компонентом, который хранит данные, так что будущие запросы на эти данные могут быть обслуживались быстрее; Данные, хранящиеся в кэше, могут быть результатом более раннего вычисления или копии данных, хранящихся в другом месте. Кэш -хит возникает, когда запрашиваемые данные можно найти в кэше, в то время как пропуска кэша происходит, когда не может. Кэш -хиты обслуживаются путем чтения данных из кэша, что быстрее, чем перечисление результата или чтения из более медленного хранилища данных; Таким образом, чем больше запросов, которые могут быть выполнены из кэша, тем быстрее работает система. [ 2 ]

Чтобы быть экономически эффективным, кэши должны быть относительно небольшими. Тем не менее, кэши эффективны во многих областях вычислений, поскольку типичные компьютерные приложения получают доступ к данным с высокой степенью локальности . Такие шаблоны доступа демонстрируют временную локальность, где требуются данные, которые были запрашиваны, и пространственная местность, где запрашиваются данные, которые хранятся вблизи данных, которые уже были запрошены.

Мотивация

[ редактировать ]

В конструкции памяти существует внутренний компромисс между пропускной способностью и скоростью, потому что больший способность подразумевает больший размер и, следовательно, большие физические расстояния для передачи сигналов, вызывая задержки распространения . Существует также компромисс между высокоэффективными технологиями, такими как SRAM и более дешевые, легко массовые товары, такие как DRAM , Flash или жесткие диски .

Буферизация , обеспечиваемая кэшем, приносит пользу одной или как задержке , так и пропускной способности ( полоса пропускания ).

Более крупный ресурс затрагивает значительную задержку для доступа - например, для современного процессора 4 ГГц может потребоваться сотни таксовых циклов. Это смягчается, читая большие куски в кеш, в надежде, что последующие чтения будут из близлежащих мест и могут быть прочитаны из кеша. Прогнозирование или явное предварительное получение могут быть использованы, чтобы угадать, откуда приведены будущие чтения, и заранее выполнять запросы; Если сделано оптимально, задержка вообще обойден.

Использование кэша также обеспечивает более высокую пропускную способность из базового ресурса, путем сборки нескольких мелкозернистых передач в более крупные и более эффективные запросы. В случае схем DRAM дополнительная пропускная способность может быть получена с использованием более широкой шины данных.

Операция

[ редактировать ]

Аппаратное обеспечение реализует кэш как блок памяти для временного хранения данных, которые могут использоваться снова. Центральные обработки (CPU), твердотельные приводы (SSD) и жесткие диски (HDDS) часто включают в себя кеш на основе аппаратного обеспечения, в то время как веб-браузеры и веб-серверы обычно полагаются на кэширование программного обеспечения.

Кэш состоит из пула записей. Каждая запись имеет связанные данные , которые являются копией одних и тех же данных в некотором магазине поддержки . Каждая запись также имеет тег , который определяет идентичность данных в запасе, из которых запись является копией.

Когда клиент Cache (CPU, веб -браузер, операционная система ) должен получить доступ к данным, предполагаемым, чтобы существовать в хранилище поддержки, он сначала проверяет кэш. Если запись можно найти с помощью тега, соответствующего получению желаемых данных, вместо этого используются данные в записи. Эта ситуация известна как удар в кеш . Например, программа веб -браузера может проверить свой локальный кэш на диске, чтобы увидеть, есть ли у нее локальная копия содержимого веб -страницы на определенном URL . В этом примере URL -адрес является тегом, а содержание веб -страницы - это данные. Процент доступа, которые приводят к попаданию в кэш, известен как скорость попадания или коэффициент попадания кэша.

Альтернативная ситуация, когда кеш проверяется и обнаруживается, что не содержит никакой записи с желаемой меткой, известна как промаха кеша . Это требует более дорогого доступа к данным из магазина поддержки. После получения запрошенных данных он обычно копируется в кэш, готов к следующему доступу.

Во время пропуска кэша некоторые другие ранее существующие вход в кеш обычно удаляются, чтобы освободить место для вновь извлеченных данных. Эвристика , используемая для выбора записи для замены, известна как политика замены . Одна популярная политика замены, наименьшая недавно использованная (LRU), заменяет самую старую запись, запись, к которой доступна менее недавно, чем любая другая запись. Более сложные алгоритмы кэширования также учитывают частоту использования записей.

Написание политики

[ редактировать ]
Кэш с проведением записи без распределения записи
Кэш с обратной записи с распределением записи

Когда система записывает данные в кэш, она должна в какой -то момент записать эти данные в хранилище поддержки. Время этой записи контролируется так называемой политикой записи . Есть два основных подхода к письму: [ 3 ]

  • Прописать : записи выполняется синхронно как в кеш, так и в западный магазин.
  • Обратная запись : Первоначально письмо выполняется только в кеш. Запись в хранилище подложки откладывается до тех пор, пока модифицированный контент не будет заменен другим блоком кеша.

Кэш-обратный ответ более сложный для реализации, поскольку ему необходимо отследить, какое из его мест было записано, и помечать их как грязные для более позднего написания в подкладном магазине. Данные в этих местах записаны обратно в запасной магазин только тогда, когда они выселяются из кэша, процесс, который называется ленивой записью . По этой причине, промаха с чтения в кэше ответа, часто требует двух хранилищ памяти, чтобы получить доступ к сервису: один для обратной записи, и один для извлечения необходимых данных. Другие политики могут также запустить обратную запись данных. Клиент может внести много изменений в данные в кэше, а затем явно уведомить кэш для записи данных.

Поскольку не возвращаются данные заявителю при операциях записи, необходимо принимать решение, будут ли данные загружены в кэш на промахах записи.

  • Запись Allocate (также называется Fetch на записи ): данные в месте пропущенной записи загружаются в кэш, а затем операция по поражениям. При таком подходе записи промахи похожи на промахи.
  • Не записывание распределяется (также называется write-no-ouctocate или write ): данные в месте пропущенной записи не загружаются в кэш и записываются непосредственно в хранилище поддержки. При таком подходе данные загружаются в кэш только на промахах чтения.

Как политика в области записи, так и политики ответа может использовать любую из этих политик записи, но обычно они в паре. [ 4 ] [ 5 ]

  • Кэш с обратной записи использует Allocal Allact, надеясь на последующие записи (или даже чтения) в то же место, которое сейчас кэшируется.
  • Кэш для записи использует не записывание. Здесь последующие записи не имеют никакого преимущества, так как их все еще нужно записано непосредственно в магазин поддержки.

Организации, отличные от кэша, могут изменить данные в хранилище поддержки, и в этом случае копия в кэше может стать устаревшей или устаревшей . В качестве альтернативы, когда клиент обновляет данные в кэше, копии этих данных в других кэшах станут устаревшими. Протоколы связи между менеджерами кэша, которые поддерживают соответствие данных, связаны с когерентностью кэша .

Предварительный

[ редактировать ]

На прочтении кеша промаха, кэши с подтяжки спроса политикой читают минимальную сумму из магазина поддержки. Типичная реализация виртуальной памяти с требованием считывает одну страницу виртуальной памяти (часто 4 КБ) от диска в кеш диска в ОЗУ. Типичный процессор считывает одну линию кэша L2 из 128 байтов от DRAM в кэш L2, а также одну линию кэша L1 64 байта из кэша L2 в кэш L1.

Кэши с входной очередью предварительной перефетки или более общей политикой подвесной подготовки идут дальше - они не только читают запрошенные данные, но и догадайтесь, что скоро потребуется следующая или две части данных, и поэтому предварительно предварительно предварительно выфекруют эти данные в кэш. Упреждающая пейджинг особенно полезна, когда в магазине подложки есть длинная задержка, чтобы прочитать первый кусок и гораздо более короткие времена, чтобы последовательно прочитать следующие несколько кусков, такие как хранение дисков и DRAM.

Несколько операционных систем идут дальше с погрузчиком , который всегда предварительно загружает весь исполняемый файл в ОЗУ. Несколько кэшей идут еще дальше, не только предварительно загружая весь файл, но и начинают загружать другие связанные файлы, которые могут быть вскоре запрашивать, такие как кэш страниц , связанный с предварительным предпочтением , или веб-кэш, связанный с предварительным выбранным обработкой ссылки .

Примеры аппаратных кешей

[ редактировать ]

Кэш процессора

[ редактировать ]

Небольшие воспоминания на процессоре или рядом с процессором могут работать быстрее, чем гораздо большая основная память . [ 6 ] Большинство процессоров с 1980 -х годов использовали один или несколько кэша, иногда на каскадных уровнях ; Современные высококачественные встроенные , настольные и серверные микропроцессоры могут иметь до шести типов кэша (между уровнями и функциями). [ 7 ] Некоторые примеры кэша с определенной функцией- D-Cache , I-Cache и буфер Translation LookAside для блока управления памятью (MMU).

Кэш графического процессора

[ редактировать ]

Более ранние графические единицы обработки только для чтения (графические процессоры) часто имели ограниченные кэши текстуры и использовали Swizzling для улучшения 2D- места отсчета . Кэш пропускает, что резко повлияет на производительность, например, если бы MIPMAPPAP не использовалось. Кэширование было важно для использования 32-битных (и более широких) передач для данных текстур, которые часто составляли 4 бита на пиксель.

По мере продвижения графических процессоров, поддерживающих вычисления общего назначения на графическую обработку и вычислительные ядра , они развивались постепенно более крупные и все более общие кэши, включая кэши инструкций для шейдеров , демонстрируя функциональность, обычно встречающиеся в кэшах процессора. Эти кеши стали обработать примитивы синхронизации между потоками и атомными операциями , а также взаимодействие с MMU в стиле процессора.

Цифровые процессоры сигнала аналогично обобщены на протяжении многих лет. В более ранних дизайнах использовались память с прямым доступом к памяти , но современные DSP, такие как Qualcomm Hexagon, часто включают в себя очень похожий набор кэша в процессоре (например, модифицированная архитектура Гарварда с общим L2, Split L1 I-Cache и D-Cache). [ 8 ]

Перевод LookAside Buffer

[ редактировать ]

Блок управления памятью (MMU), который получает записи таблицы страниц из основной памяти, имеет специализированный кэш, используемый для записи результатов виртуального адреса для переводов физического адреса . Этот специализированный кэш называется буфером перевода (TLB). [ 9 ]

Кеш в сети

[ редактировать ]

Информационно-ориентированная сеть

[ редактировать ]

Информационно-ориентированная сеть (ICN)-это подход для развития интернет- инфраструктуры вдали от парадигмы, ориентированной на хост, на основе постоянного подключения и сквозного принципа , до сетевой архитектуры, в которой фокусная точка является идентифицированной информацией. Из -за неотъемлемой возможности кэширования узлов в ICN его можно рассматривать как слабо связанную сеть кэша, которая имеет уникальные требования к политике кэширования. Тем не менее, повсеместное кэширование контента вводит проблему с защитой контента от несанкционированного доступа, который требует дополнительного ухода и решений. [ 10 ]

В отличие от прокси-серверов, в ICN кэш является решением на уровне сети. Следовательно, он имеет быстро меняющееся состояния кэша и более высокие показатели прибытия запросов; Кроме того, меньшие размеры кэша налагают различные требования к политикам выселения содержания. В частности, политика выселения для ICN должна быть быстрой и легкой. Были предложены различные схемы репликации и выселения кэша для различных архитектур и приложений ICN. [ Цитация необходима ]

Политики

[ редактировать ]
Время осведомлен наименьшее в последнее время (TLRU)
[ редактировать ]

Время осведомленного наименьшего недавнего (TLRU) [ 11 ] это вариант LRU, предназначенный для ситуации, когда хранимое содержимое в кэше имеет достоверное время жизни. Алгоритм подходит в приложениях сетевого кэша, таких как ICN, сети доставки контента (CDN) и распределенные сети в целом. TLRU представляет новый термин: TTU (время для использования). TTU - это штампа времени/страницы, которая предусматривает время удобства использования контента, основанное на местности контента и объявления издателя контента. Из -за этой марки времени на основе местности TTU предоставляет локальный администратор больше управления для регулирования в сетевом хранилище.

В алгоритме TLRU, когда прибывает часть контента, кэш -узел вычисляет локальное значение TTU на основе значения TTU, назначенного издателем контента. Локальное значение TTU рассчитывается с помощью локально определенной функции. После того, как локальное значение TTU рассчитано, замена контента выполняется на подмножестве общего содержания, хранящегося в кэш -узле. TLRU гарантирует, что менее популярный и маленький жизненный контент должен быть заменен входящим контентом.

Наименьшее количество часто используемых (LFRU)
[ редактировать ]

Наименее частые недавно используемые (LFRU) [ 12 ] Схема замены кэша объединяет преимущества схем LFU и LRU. LFRU подходит для приложений «В сети» кэша, таких как ICN, CDN и распределенные сети в целом. В LFRU кэш делится на два раздела, называемые привилегированными и непривилегированными разделениями. Привилегированный раздел может быть определен как защищенный раздел. Если контент очень популярен, он подталкивается к привилегированному разделу. Замена привилегированного разделения выполняется следующим образом: LFRU высекает содержание из непривилегированного разделения, подталкивает контент от привилегированного разделения к недевилизованному разделу и, наконец, вставляет новый контент в привилегированный раздел. В приведенной выше процедуре LRU используется для привилегированного разделения, а аппроксимированная схема LFU (ALFU) используется для нежевилевого раздела, следовательно, аббревиатура LFRU. Основная идея состоит в том, чтобы отфильтровать локально популярное содержимое с помощью схемы Alfu и подтолкнуть популярное содержимое к одному из привилегированных разделов.

Прогноз погоды

[ редактировать ]

В 2011 году использование смартфонов с вариантами прогнозирования погоды было чрезмерно налогом Accuweather серверов ; Два запроса в одном парке будут генерировать отдельные запросы. Оптимизация с серверами края для усечения координат GPS до меньшего количества десятичных десятичных мест означала, что будут использоваться кэшированные результаты предыдущего запроса. Количество поисков в день в день сокращается наполовину. [ 13 ]

Программные кэши

[ редактировать ]

Дисковый кеш

[ редактировать ]

В то время как кэши ЦП, как правило, полностью управляются аппаратным обеспечением, множество программных программ управляет другими кешами. Кэш страниц в основной памяти, которая является примером дискового кеша, управляется ядром операционной системы .

В то время как дисковый буфер , который является интегрированной частью жесткого диска или твердого привода, иногда вводятся в заблуждение как «дисковый кэш», его основными функциями являются секвенирование записи и считывание. Повторные хиты кэша относительно редки из -за небольшого размера буфера по сравнению с емкостью привода. высокого класса Тем не менее, контроллеры дисков часто имеют свой встроенный кэш для блоков данных жесткого диска.

Наконец, быстрый локальный жесткий диск также может кэшировать информацию, содержащуюся на более медленных устройствах хранения данных, таких как удаленные серверы (веб -кэш) или локальные ленточные диски или оптические музыкальные автоматы ; Такая схема является основной концепцией иерархического управления хранением . Кроме того, быстрые твердотельные приводы на основе вспышки (SSD) могут использоваться в качестве кэша для жестких дисков вращения, работающих вместе, работая вместе в качестве гибридных дисков или твердотельных гибридных дисков (SSHD).

Веб -браузеры и веб -прокси -серверы используют веб -кэши для хранения предыдущих ответов на веб -серверах, таких как веб -страницы и изображения . Веб-кэши уменьшают объем информации, которую необходимо передавать по всей сети, поскольку информация, ранее хранящаяся в кэше, часто может быть повторно использована. Это уменьшает требования к пропускной способности и обработке веб -сервера и помогает улучшить отзывчивость для пользователей Интернета. [ 14 ]

Веб-браузеры используют встроенный веб-кэш, но некоторые поставщики интернет-услуг (интернет-провайдеры) или организации также используют прокси-сервер кэширования, который является веб-кэшем, который используется среди всех пользователей этой сети.

Другой формой кэша является кэширование P2P , где файлы, наиболее востребованные одноранговыми приложениями , хранятся в кэше интернет-провайдера для ускорения передачи P2P. Точно так же существуют децентрализованные эквиваленты, которые позволяют сообществам выполнять ту же задачу для трафика P2P, например, Corelli. [ 15 ]

Кэш может хранить данные, которые вычисляются по требованию, а не извлекаются из запаководного магазина. Меморизация -это метод оптимизации , в котором хранится результаты вызовов функций, занимающих ресурсы , в таблице поиска, позволяя последующим вызовам повторно использовать хранимые результаты и избежать повторных вычислений. Это связано с методологией проектирования алгоритма динамического программирования , которую также можно рассматривать как средство кэширования.

Сеть доставки контента

[ редактировать ]

Сеть доставки контента (CDN) - это сеть распределенных серверов, которые доставляют страницы и другое веб -контент пользователю, на основе географических местоположений пользователя, происхождения веб -страницы и сервера доставки контента.

CDN начались в конце 1990 -х годов как способ ускорить доставку статического контента, такого как HTML -страницы, изображения и видео. Реплицируя контент на нескольких серверах по всему миру и доставляя его пользователям на основе их местоположения, CDN могут значительно улучшить скорость и доступность веб -сайта или приложения. Когда пользователь запрашивает часть контента, CDN проверит, есть ли у него копия контента в его кэше. Если это произойдет, CDN доставит контент пользователю из кеша. [ 16 ]

Облачный шлюз

[ редактировать ]

Облачный шлюз для хранения, также известный как фирменный аппарат, представляет собой гибридное облачное устройство хранения, которое соединяет локальную сеть к одному или нескольким сервисам хранения облачного хранения , как правило, службы хранения объектов , таких как Amazon S3 . Он предоставляет кэш для часто доступных данных, обеспечивая высокоскоростный локальный доступ к часто доступным данным в службе облачного хранения. Шабу для облачных хранилищ также предоставляют дополнительные преимущества, такие как доступ к хранению облачных объектов через традиционные протоколы обслуживания файлов, а также дальнейший доступ к кэшированным данным во время отключений подключения. [ 17 ]

Другие кэши

[ редактировать ]

DAEMON DNS DNS CACHES отображение доменных имен с IP -адресами , как и библиотека Resolver.

Операция по записи является распространенной при работе над ненадежными сетями (например, Ethernet LAN), из-за огромной сложности протокола когерентности, необходимых между несколькими кэшами спины, когда связь ненадежна. Например, кэши веб-страницы и на стороне клиента клетки сетевой файловой системы (например, в NFS или SMB ), как правило, только для чтения или проводятся специально для сохранения протокола сети простым и надежным.

Поисковые системы также часто делают веб -страницы, которые они индексировали, доступные из своего кеша. Например, Google предоставляет ссылку «кэшированная» рядом с каждым результатом поиска. Это может оказаться полезным, когда веб -страницы с веб -сервера временно или навсегда недоступны.

Кэширование базы данных может существенно улучшить пропускную способность приложений базы данных , например, при обработке индексов , словарей данных и часто используемых подмножеств с данными.

кеш Распределенный [ 18 ] Использует сетевые хосты для обеспечения масштабируемости, надежности и производительности приложения. [ 19 ] Хозяева могут быть совместны или распространяться по различным географическим регионам.

Буфер против кеша

[ редактировать ]

Семантика «буфера» и «кеша» не совсем отличается; Несмотря на это, существуют фундаментальные различия в намерениях между процессом кэширования и процессом буферизации.

По сути, кэширование реализует повышение производительности для передачи данных, которые неоднократно передаются. В то время как система кэширования может реализовать повышение производительности при начальной (обычно записи) передачи элемента данных, это повышение производительности обусловлено буферизацией в системе кэширования.

С помощью кэша чтения, элемент данных должен был быть извлечен из своего места проживания, по крайней мере, один раз, чтобы последующие считывания элемента данных, чтобы реализовать повышение производительности благодаря возможности быть извлеченным из промежуточного хранилища кэша, а не Место проживания данных. С помощью кэша записи, повышение эффективности написания элемента данных может быть реализовано при первом записи элемента данных в силу того, что элемент данных немедленно хранится в промежуточном хранилище кэша, откладывая передачу элемента данных в его хранилище более поздняя стадия или иначе происходит в качестве фонового процесса. Вопреки строгой буферизации, процесс кэширования должен придерживаться (потенциально распределенного) протокола когерентности кэша, чтобы поддерживать согласованность между промежуточным хранилищем кэша и местоположением, где находятся данные. Буферизация, с другой стороны,

  • Снижает количество переводов для новых данных между процессами связи, которые амортизируют накладные расходы для нескольких небольших переводов в более чем меньше, более крупных трансферах,
  • предоставляет посредник для передачи процессов, которые не способны к прямым переводам друг с другом, или
  • Обеспечивает минимальный размер данных или представление, требуемое как минимум одним из процессов связи, связанных с передачей.

С типичными реализациями кэширования элемент данных, который читается или написано впервые, эффективно забуферен; и в случае записи, в основном реализуя повышение производительности для приложения, откуда возник. Кроме того, часть протокола кэширования, где индивидуальные записи откладываются на партию записей, является формой буферизации. Часть протокола кэширования, в котором отдельные чтения откладываются на партию чтения, также является формой буферизации, хотя эта форма может негативно повлиять на производительность, по крайней мере, начальных считываний (даже если она может положительно повлиять на производительность суммы человек читает). На практике кэширование почти всегда включает в себя какую -то форму буферизации, в то время как строгая буферизация не включает кеширование.

Буфер - это временное местоположение памяти, которое традиционно используется, потому что инструкции процессора не могут напрямую обращаться к данным, хранящимся в периферийных устройствах. Таким образом, адресуемая память используется в качестве промежуточной стадии. Кроме того, такой буфер может быть осуществимым, когда большой блок данных собирается или разборка (по мере необходимости хранилища), или когда данные могут быть доставлены в другом порядке, чем он создается. Кроме того, целый буфер данных обычно передается последовательно (например, на жесткий диск), поэтому буферизация самого иногда увеличивает производительность переноса или уменьшает изменение или дрожание задержки передачи, а не кэширование, где намерение заключается в уменьшении задержки. Эти преимущества присутствуют, даже если буферированные данные записаны в буфер один раз и читаются из буфера один раз.

Кэш также повышает производительность передачи. Часть увеличения аналогичным образом заключается в возможности того, что несколько небольших трансферов будут объединены в один большой блок. Но основной область производительности происходит потому, что есть большая вероятность, что одни и те же данные будут считываться из кэша несколько раз, или что письменные данные скоро будут прочитаны. Единственной целью кэша является уменьшение доступа к более медленному хранилищу. Кэш также обычно является слоем абстракции , который предназначен для того, чтобы быть невидимым с точки зрения соседних слоев.

Смотрите также

[ редактировать ]
  1. ^ "Кэш" . Оксфордские словаря . Архивировано из оригинала 18 августа 2012 года . Получено 2 августа 2016 года .
  2. ^ Чжун, Лян; Чжэн, Сюэцян; Лю, Юн; Ван, Мэнтинг; Цао, Ян (февраль 2020 г.). «Максимизация коэффициента удара кэша в сотовых сетях, накладывающих связь с устройством к устройствам» . Китайские коммуникации . 17 (2): 232–238. doi : 10.23919/jcc.2020.02.018 . ISSN   1673-5447 . S2CID   212649328 .
  3. ^ Боттерли, Джеймс (1 января 2004 г.). «Понимание кэширования» . Linux Journal . Получено 1 октября 2019 года .
  4. ^ Хеннесси, Джон Л.; Паттерсон, Дэвид А. (2011). Компьютерная архитектура: количественный подход . Elsevier. п. B - 12. ISBN  978-0-12-383872-8 .
  5. ^ Паттерсон, Дэвид А.; Хеннесси, Джон Л. (1990). Компьютерная архитектура Количественный подход . Morgan Kaufmann Publishers. п. 413. ISBN  1-55860-069-8 .
  6. ^ Су, Чао; Зенг, Цинкай (10 июня 2021 года). Nicopolitidis, Petros (ed.). «Обзор боковых атак на основе кэша процессора: систематический анализ, модели безопасности и контрмеры» . Сети безопасности и связи . 2021 : 1–15. doi : 10.1155/2021/5559552 . ISSN   1939-0122 .
  7. ^ «Intel Broadwell Core I7 5775C '128MB L4 Cache Behemoth и флагманские процессоры Skylake Core I7 6700K наконец -то доступны в розничной торговле» . 25 сентября 2015 года. Упоминает L4 Cache. В сочетании с отдельным I-Cache и TLB, это приводит к общему количеству кэша (уровни+функции) до 6.
  8. ^ «Qualcom Hexagon DSP SDK Обзор» .
  9. ^ Фрэнк Уйеда (2009). «Лекция 7: Управление памятью» (PDF) . CSE 120: Принципы операционных систем . UC San Diego . Получено 4 декабря 2013 года .
  10. ^ Билал, Мухаммед; и др. (2019). «Безопасное распределение охраняемого контента в сети, ориентированных на информационные сети». IEEE Systems Journal . 14 (2): 1–12. Arxiv : 1907.11717 . Bibcode : 202020sysj..14.1921b . doi : 10.1109/jsyst.2019.2931813 . S2CID   198967720 .
  11. ^ Билал, Мухаммед; Кан, Шин-Гак (2014). Политика управления кэшами наименьшее время осведомлена о том, как наименьшие последнее использованное (TLRU) . 16 -я Международная конференция по передовым коммуникационным технологиям. С. 528–532. Arxiv : 1801.00390 . BIBCODE : 2018ARXIV180100390B . doi : 10.1109/icact.2014.6779016 . ISBN  978-89-968650-3-2 Полем S2CID   830503 .
  12. ^ Билал, Мухаммед; и др. (2017). «Схема управления кэшем для эффективного выселения контента и репликации в сетях кэша». IEEE Access . 5 : 1692–1701. Arxiv : 1702.04078 . BIBCODE : 2017ARXIV170204078B . doi : 10.1109/Access.2017.2669344 . S2CID   14517299 .
  13. ^ Мерфи, Крис (30 мая 2011 г.). «5 строк кода в облаке». InformationWeek . п. 28. 300 миллионов до 500 миллионов меньше запросов в день, обрабатываемые серверами Accuweather
  14. ^ Множественные (вики). «Кэширование веб -приложений» . Docforge . Архивировано с оригинала 12 декабря 2019 года . Получено 24 июля 2013 года .
  15. ^ Тайсон, Гарет; Мауте, Андреас; Каун, Себастьян; Му, му; Плагеманн, Томас. Corelli: служба динамической репликации для поддержки задержки-зависимого контента в сетях сообщества (PDF) . MMCN'09. Архивировано из оригинала (PDF) 18 июня 2015 года.
  16. ^ «Глобально распределенная доставка контента, J. ​​Dilley, B. Maggs, J. Parikh, H. Prokop, R. Sitaraman и B. Weihl, IEEE Internet Computing, том 6, выпуск 5, ноябрь 2002 г.» (PDF) . Архивировано (PDF) из оригинала 9 августа 2017 года . Получено 25 октября 2019 года .
  17. ^ «Определение: облачный шлюз хранения» . SearchStorage . Июль 2014.
  18. ^ Пол, с.; Фей, З. (1 февраля 2001 г.). «Распределенное кэширование с централизованным контролем». Компьютерная связь . 24 (2): 256–268. Citeseerx   10.1.1.38.1094 . doi : 10.1016/s0140-3664 (00) 00322-4 .
  19. ^ Хан, Икбал (июль 2009 г.). «Распределенное кэширование на пути к масштабируемости» . MSDN . 24 (7).

Дальнейшее чтение

[ редактировать ]
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 22b391b6e178607fc2f4a20f75d018cb__1726507620
URL1:https://arc.ask3.ru/arc/aa/22/cb/22b391b6e178607fc2f4a20f75d018cb.html
Заголовок, (Title) документа по адресу, URL1:
Cache (computing) - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)