Java实现的简单双向Map,支持重复Value
程序员文章站
2022-05-30 21:58:18
...
关键字:Java双向Map、DualHashBidiMap
有个需求,需要根据即时修改Map结构中的Value值,比如,将Map中所有value=V1的记录改成value=V2,key保持不变。
数据量比较大,遍历Map性能太差,这就需要根据Value先找到Key,然后去修改。
即:既要根据Key找Value,又要根据Value找Key。
commons-collections中的DualHashBidiMap实现了双向Map的功能,但悲剧的是,Value必须唯一。
自己简单实现了一个双向Map,支持根据Key和Value查找,核心思想是相当于额外保存了一份V->K的映射关系,当根据V查找时候,
先快速找到哪些V存在于哪些K中,然后再根据这些K去找,就很快了。类似于索引表。
代码不够完善,发现Bug还望多多指正。
package com.lxw1234.map import java.util.HashMap; import java.util.Map; import java.util.Set; import java.util.concurrent.ConcurrentHashMap; /** * * @author lxw的大数据田地 - http://lxw1234.com * @param * @param */ public class MyMap<K,V> { private Map<K,V> kMap = new HashMap<K,V>(); private Map<V,ConcurrentHashMap<K,String>> vMap = new HashMap<V,ConcurrentHashMap<K,String>>(); private final static String VV = "1"; public boolean put(K k,V v) { boolean result = false; if(null == k || null == v) return result; if(kMap.containsKey(k)) { vMap.get(kMap.get(k)).remove(k); //vMap.remove(kMap.get(k)); } kMap.put(k, v); if(vMap.containsKey(v)) { vMap.get(v).put(k,VV); } else { ConcurrentHashMap<K,String> set = new ConcurrentHashMap<K,String>(); set.put(k,VV); vMap.put(v, set); } return true; } public boolean containsKey(K k) { return kMap.containsKey(k); } public boolean containsValue(V v) { return vMap.containsKey(v); } public Set<K> keySet(){ return kMap.keySet(); } public Set<V> valueSet() { return vMap.keySet(); } public V getByKey(K k) { return kMap.get(k); } public ConcurrentHashMap<K,String> getByValue(V v) { return vMap.get(v); } public String toString() { return kMap.toString(); } public static void main(String[] args) { MyMap<String,String> map = new MyMap<String,String>(); map.put("k1", "v1"); map.put("k2", "v2"); map.put("k3", "v1"); map.put("k4", "v2"); System.out.println("k1 -> " + map.getByKey("k1")); System.out.println("v1 -> " + map.getByValue("v1").keySet()); System.out.println("v2 -> " + map.getByValue("v2").keySet()); map.put("k5", "v2"); System.out.println("v2 -> " + map.getByValue("v2").keySet()); map.put("k5", "v1"); System.out.println("v1 -> " + map.getByValue("v1").keySet()); System.out.println("v2 -> " + map.getByValue("v2").keySet()); //替换所有的v1为v111 System.out.println("before update : " + map); for(String k : map.getByValue("v1").keySet()) { map.put(k, "v111"); } System.out.println("after update : " + map); } }
参考更多大数据Hadoop、Spark、Hive相关:lxw的大数据田地
运行结果:
k1 -> v1
v1 -> [k3, k1]
v2 -> [k4, k2]
v2 -> [k5, k4, k2]
v1 -> [k5, k3, k1]
v2 -> [k4, k2]
before update : {k3=v1, k4=v2, k5=v1, k1=v1, k2=v2}
after update : {k3=v111, k4=v2, k5=v111, k1=v111, k2=v2}