鍍金池/ 教程/ Java/ LinkedHashMap 與 LRUcache
LinkedHashSet 的實(shí)現(xiàn)原理
LinkedHashMap 與 LRUcache
HashSet 和 HashMap 的比較
Hashtable 的實(shí)現(xiàn)原理
ArrayList 的實(shí)現(xiàn)原理
HashSet 的實(shí)現(xiàn)原理
HashMap 的實(shí)現(xiàn)原理
LinkedList 的實(shí)現(xiàn)原理
ConcurrentHashMap 的實(shí)現(xiàn)原理
LinkedHashMap 的實(shí)現(xiàn)原理

LinkedHashMap 與 LRUcache

LRU 緩存介紹

我們平時總會有一個電話本記錄所有朋友的電話,但是,如果有朋友經(jīng)常聯(lián)系,那些朋友的電話號碼不用翻電話本我們也能記住,但是,如果長時間沒有聯(lián)系了,要再次聯(lián)系那位朋友的時候,我們又不得不求助電話本,但是,通過電話本查找還是很費(fèi)時間的。但是,我們大腦能夠記住的東西是一定的,我們只能記住自己最熟悉的,而長時間不熟悉的自然就忘記了。

其實(shí),計(jì)算機(jī)也用到了同樣的一個概念,我們用緩存來存放以前讀取的數(shù)據(jù),而不是直接丟掉,這樣,再次讀取的時候,可以直接在緩存里面取,而不用再重新查找一遍,這樣系統(tǒng)的反應(yīng)能力會有很大提高。但是,當(dāng)我們讀取的個數(shù)特別大的時候,我們不可能把所有已經(jīng)讀取的數(shù)據(jù)都放在緩存里,畢竟內(nèi)存大小是一定的,我們一般把最近常讀取的放在緩存里(相當(dāng)于我們把最近聯(lián)系的朋友的姓名和電話放在大腦里一樣)。

LRU 緩存利用了這樣的一種思想。LRU 是 Least Recently Used 的縮寫,翻譯過來就是“最近最少使用”,也就是說,LRU 緩存把最近最少使用的數(shù)據(jù)移除,讓給最新讀取的數(shù)據(jù)。而往往最常讀取的,也是讀取次數(shù)最多的,所以,利用 LRU 緩存,我們能夠提高系統(tǒng)的 performance。

實(shí)現(xiàn)

要實(shí)現(xiàn) LRU 緩存,我們首先要用到一個類 LinkedHashMap。

用這個類有兩大好處:一是它本身已經(jīng)實(shí)現(xiàn)了按照訪問順序的存儲,也就是說,最近讀取的會放在最前面,最最不常讀取的會放在最后(當(dāng)然,它也可以實(shí)現(xiàn)按照插入順序存儲)。第二,LinkedHashMap 本身有一個方法用于判斷是否需要移除最不常讀取的數(shù),但是,原始方法默認(rèn)不需要移除(這是,LinkedHashMap 相當(dāng)于一個linkedlist),所以,我們需要 override 這樣一個方法,使得當(dāng)緩存里存放的數(shù)據(jù)個數(shù)超過規(guī)定個數(shù)后,就把最不常用的移除掉。關(guān)于 LinkedHashMap 中已經(jīng)有詳細(xì)的介紹。

代碼如下:(可直接復(fù)制,也可以通過LRUcache-Java下載)

import java.util.LinkedHashMap;
import java.util.Collection;
import java.util.Map;
import java.util.ArrayList;

/**
 * An LRU cache, based on <code>LinkedHashMap</code>.
 *
 * <p>
 * This cache has a fixed maximum number of elements (<code>cacheSize</code>).
 * If the cache is full and another entry is added, the LRU (least recently
 * used) entry is dropped.
 *
 * <p>
 * This class is thread-safe. All methods of this class are synchronized.
 *
 * <p>
 * Author: Christian d'Heureuse, Inventec Informatik AG, Zurich, Switzerland<br>
 * Multi-licensed: EPL / LGPL / GPL / AL / BSD.
 */
public class LRUCache<K, V> {
    private static final float hashTableLoadFactor = 0.75f;
    private LinkedHashMap<K, V> map;
    private int cacheSize;

    /**
     * Creates a new LRU cache. 在該方法中,new LinkedHashMap<K,V>(hashTableCapacity,
     * hashTableLoadFactor, true)中,true代表使用訪問順序
     *
     * @param cacheSize
     *            the maximum number of entries that will be kept in this cache.
     */
    public LRUCache(int cacheSize) {
        this.cacheSize = cacheSize;
        int hashTableCapacity = (int) Math
                .ceil(cacheSize / hashTableLoadFactor) + 1;
        map = new LinkedHashMap<K, V>(hashTableCapacity, hashTableLoadFactor,
                true) {
            // (an anonymous inner class)
            private static final long serialVersionUID = 1;

            @Override
            protected boolean removeEldestEntry(Map.Entry<K, V> eldest) {
                return size() > LRUCache.this.cacheSize;
            }
        };
    }

    /**
     * Retrieves an entry from the cache.<br>
     * The retrieved entry becomes the MRU (most recently used) entry.
     *
     * @param key
     *            the key whose associated value is to be returned.
     * @return the value associated to this key, or null if no value with this
     *         key exists in the cache.
     */
    public synchronized V get(K key) {
        return map.get(key);
    }

    /**
     * Adds an entry to this cache. The new entry becomes the MRU (most recently
     * used) entry. If an entry with the specified key already exists in the
     * cache, it is replaced by the new entry. If the cache is full, the LRU
     * (least recently used) entry is removed from the cache.
     *
     * @param key
     *            the key with which the specified value is to be associated.
     * @param value
     *            a value to be associated with the specified key.
     */
    public synchronized void put(K key, V value) {
        map.put(key, value);
    }

    /**
     * Clears the cache.
     */
    public synchronized void clear() {
        map.clear();
    }

    /**
     * Returns the number of used entries in the cache.
     *
     * @return the number of entries currently in the cache.
     */
    public synchronized int usedEntries() {
        return map.size();
    }

    /**
     * Returns a <code>Collection</code> that contains a copy of all cache
     * entries.
     *
     * @return a <code>Collection</code> with a copy of the cache content.
     */
    public synchronized Collection<Map.Entry<K, V>> getAll() {
        return new ArrayList<Map.Entry<K, V>>(map.entrySet());
    }

    // Test routine for the LRUCache class.
    public static void main(String[] args) {
        LRUCache<String, String> c = new LRUCache<String, String>(3);
        c.put("1", "one"); // 1
        c.put("2", "two"); // 2 1
        c.put("3", "three"); // 3 2 1
        c.put("4", "four"); // 4 3 2
        if (c.get("2") == null)
            throw new Error(); // 2 4 3
        c.put("5", "five"); // 5 2 4
        c.put("4", "second four"); // 4 5 2
        // Verify cache content.
        if (c.usedEntries() != 3)
            throw new Error();
        if (!c.get("4").equals("second four"))
            throw new Error();
        if (!c.get("5").equals("five"))
            throw new Error();
        if (!c.get("2").equals("two"))
            throw new Error();
        // List cache content.
        for (Map.Entry<String, String> e : c.getAll())
            System.out.println(e.getKey() + " : " + e.getValue());
    }
}