- 1. 基于Arraylist集合方式实现
- 2. 基于数组+链表方式实现(Jdk)
- 3. HashMap底层是有序存放的吗?
- 4. LinkedHashMap实现缓存淘汰框架
- 5. HashMap如何降低Hash冲突概率
- 6. HashMap源码解读
- 6.1 modCount的作用
- 6.2 HashMap7扩容产生死循环问题
- 6.3 HashMap8扩容底层原理
- 6.4 HashMap加载因子为什么是0.75而不是1或者0.5
- 6.5 HashMap如何存放1万条key效率最高
- 6.6 为什么JDK官方不承认Jdk7扩容死循环Bug问题
- 7. ConcurrentHashMap源码解读
- 7.1 JDK1.7ConcurrentHashMap源码解读
- 7.1.1 简单实现ConcurrentHashMap
- 7.1.2 核心参数分析
- 7.1.3 核心Api
- 7.2 JDK1.8ConcurrentHashMap源码解读
- 7.2.1 源码解读
- 8. Arraylist集合源码解读
- 9. [HashMap源码注释](https://blog.csdn.net/qq_30999361/article/details/124806516)
1. 基于Arraylist集合方式实现
public class ArraylistHashMap<K, V> {
private List<Entry<K, V>> entries = new ArrayList<Entry<K, V>>();
class Entry<K, V> {
K k;
V v;
Entry next;
public Entry(K k, V v) {
this.k = k;
this.v = v;
}
}
public void put(K k, V v) {
entries.add(new Entry<>(k, v));
}
public V get(K k) {
for (Entry<K, V> entry :
entries) {
if (entry.k.equals(k)) {
return entry.v;
}
}
return null;
}
public static void main(String[] args) {
ArraylistHashMap<String, String> arraylistHashMap = new ArraylistHashMap<>();
arraylistHashMap.put("demo", "123");
arraylistHashMap.put("123", "demo");
System.out.println(arraylistHashMap.get("123"));
}
}
根据key查询时间复杂度为o(n),效率非常低。
2. 基于数组+链表方式实现(Jdk)
HashMap1.7底层是如何实现的 基于数组+链表实现
同一个链表中存放的都是hashCode值可能相同,但是内容值却不同
public class ExtHashMap<K, V> {
private Entry[] objects = new Entry[10000];
class Entry<K, V> {
public K k;
public V v;
Entry next;
public Entry(K k, V v) {
this.k = k;
this.v = v;
}
}
public void put(K k, V v) {
int index = k == null ? 0 : k.hashCode() % objects.length;
Entry<K, V> oldEntry = objects[index];
// 判断是否存在
if (oldEntry == null) {
objects[index] = new Entry<>(k, v);
} else {
// 发生hash碰撞则存放到链表后面
oldEntry.next = new Entry<>(k, v);
}
}
public V get(K k) {
// if (k == null) {
// for (Entry oldEntry = objects[0]; oldEntry != null; oldEntry = oldEntry.next) {
// if (oldEntry.k.equals(k)) {
// return oldEntry.v;
// }
// }
// }
int index = k == null ? 0 : k.hashCode() % objects.length;
for (Entry<K, V> oldEntry = objects[index]; oldEntry != null; oldEntry = oldEntry.next) {
if (oldEntry.k == null || oldEntry.k.equals(k)) {
return oldEntry.v;
}
}
return null;
}
public static void main(String[] args) {
ExtHashMap<Object, String> hashMap = new ExtHashMap<>();
hashMap.put("a", "a");
hashMap.put(97, "97");
hashMap.put(null, "nulldemo");
System.out.println(hashMap.get(97));
}
}
3. HashMap底层是有序存放的吗?
无序、散列存放
遍历的时候从数组0开始遍历每个链表,遍历结果存储顺序不保证一致。
如果需要根据存储顺序保存,可以使用LinkedHashMap底层是基于双向链表存放
LinkedHashMap基于双向链表实现
HashMap基本单向链表实现
LRU(最近少使用)缓存淘汰算法
LFU(最不经常使用算法)缓存淘汰算法
ARC(自适应缓存替换算法)缓存淘汰算法
FIFO(先进先出算法)缓存淘汰算法
MRU(最近最常使用算法)缓存淘汰算法
LinkedHashMap基于双向链表实现,可以分为插入或者访问顺序两种,采用双链表的形式保证有序
可以根据插入或者读取顺序
LinkedHashMap是HashMap的子类,但是内部还有一个双向链表维护键值对的顺序,每个键值对既位于哈希表中,也位于双向链表中。LinkedHashMap支持两种顺序插入顺序 、 访问顺序
插入顺序:先添加的在前面,后添加的在后面。修改 *** 作不影响顺序
执行get/put *** 作后,其对应的键值对会移动到链表末尾,所以最末尾的是最近访问的,最开始的是最久没有被访问的,这就是访问顺序。
其中参数accessOrder就是用来指定是否按访问顺序,如果为true,就是访问顺序,false根据新增顺序
public class LruCache<K, V> extends LinkedHashMap<K, V> {
/**
* 容量
*/
private int capacity;
public LruCache(int capacity) {
super(capacity, 0.75f, true);
this.capacity = capacity;
}
/**
* 如果超过存储容量则清除第一个
*
* @param eldest
* @return
*/
@Override
protected boolean removeEldestEntry(Map.Entry<K, V> eldest) {
return size() > capacity;
}
public static void main(String[] args) {
LruCache<String, String> lruCache = new LruCache<>(3);
lruCache.put("a", "a");
lruCache.put("b", "b");
lruCache.put("c", "c");
// ca e
lruCache.get("a");
//cae
lruCache.put("e", "demo");
lruCache.forEach((k, v) -> {
System.out.println(k + "," + v);
});
}
}
5. HashMap如何降低Hash冲突概率
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
((p = tab[i = (n - 1) & hash])
1、保证不会发生数组越界
首先我们要知道的是,在HashMap,数组的长度按规定一定是2的幂。因此,数组的长度的二进制形式是:10000…000, 1后面有偶数个0。 那么,length - 1 的二进制形式就是01111.111, 0后面有偶数个1。最高位是0, 和hash值相“与”,结果值一定不会比数组的长度值大,因此也就不会发生数组越界。一个哈希值是8,二进制是1000,一个哈希值是9,二进制是1001。和1111“与”运算后,结果分别是1000和1001,它们被分配在了数组的不同位置,这样,哈希的分布非常均匀。
我们知道 java.util.HashMap 不是线程安全的,因此如果在使用迭代器的过程中有其他线程修改了map,那么将抛出ConcurrentModificationException,这就是所谓fail-fast策略。这一策略在源码中的实现是通过 modCount 域,modCount 顾名思义就是修改次数,对HashMap 内容的修改都将增加这个值,那么在迭代器初始化过程中会将这个值赋给迭代器的 expectedModCount。在迭代过程中,判断 modCount 跟 expectedModCount 是否相等,如果不相等就表示已经有其他线程修改了 Map:
6.2 HashMap7扩容产生死循环问题void transfer(Entry[] newTable, boolean rehash) {
int newCapacity = newTable.length;
for (Entry<K,V> e : table) {
while(null != e) {
Entry<K,V> next = e.next;
if (rehash) {
e.hash = null == e.key ? 0 : hash(e.key);
}
int i = indexFor(e.hash, newCapacity);
e.next = newTable[i];
newTable[i] = e;
e = next;
}
}
}
6.3 HashMap8扩容底层原理
将原来的链表拆分两个链表存放; 低位还是存放原来index位置 高位存放index=j+原来长度
if ((e.hash & oldCap) == 0) { 由于oldCap原来的容量没有减去1 所以所有的hash&oldCap
为0或者1;
产生背景:减少Hash冲突index的概率;
查询效率与空间问题;
简单推断的情况下,提前做扩容:
- 如果加载因子越大,空间利用率比较高,有可能冲突概率越大;
- 如果加载因子越小,有可能冲突概率比较小,空间利用率不高;
空间和时间上平衡点:0.75
统计学概率:泊松分布是统计学和概率学常见的离散概率分布
参考阿里巴巴官方手册:
https://bugs.java.com/bugdatabase/view_bug.do?bug_id=6423457
使用传统HashTable保证线程问题,是采用synchronized锁将整个HashTable中的数组锁住,
在多个线程中只允许一个线程访问Put或者Get,效率非常低,但是能够保证线程安全问题。
Jdk官方不推荐在多线程的情况下使用HashTable或者HashMap,建议使用ConcurrentHashMap分段HashMap。
效率非常高。
ConcurrentHashMap将一个大的HashMap集合拆分成n多个不同的小的HashTable(Segment),默认的情况下是分成16个不同的
Segment。每个Segment中都有自己独立的HashEntry
public class MyConcurrentHashMap<K, V> {
private Hashtable<K, V>[] segments;
public MyConcurrentHashMap() {
segments = new Hashtable[16];
}
public void put(K k, V v) {
int segmentIndex = k.hashCode() & segments.length - 1;
Hashtable hashtable = segments[segmentIndex];
if (hashtable == null) {
hashtable = new Hashtable<K, V>();
}
hashtable.put(k, v);
segments[segmentIndex] = hashtable;
}
public V get(K k) {
int segmentIndex = k.hashCode() & segments.length - 1;
Hashtable<K, V> hashtable = segments[segmentIndex];
if (hashtable != null) {
return hashtable.get(k);
}
return null;
}
public static void main(String[] args) {
MyConcurrentHashMap<String, String> concurrentHashMap = new MyConcurrentHashMap<>();
// concurrentHashMap.put("a", "a");
// concurrentHashMap.put("97", "97");
for (int i = 0; i < 10; i++) {
concurrentHashMap.put(i + "", i + "");
}
// System.out.println(concurrentHashMap.get("97"));
for (int i = 0; i < 10; i++) {
System.out.println(concurrentHashMap.get(i + ""));
}
}
}
7.1.2 核心参数分析
##1.无参构造函数分析:
initialCapacity ---16
loadFactor HashEntry<K,V>[] table; 加载因子0.75
concurrencyLevel 并发级别 默认是16
##2. 并发级别是能够大于2的16次方
if (concurrencyLevel > MAX_SEGMENTS)
concurrencyLevel = MAX_SEGMENTS;
##3.sshift 左移位的次数 ssize 作用:记录segment数组大小
int sshift = 0;
int ssize = 1;
while (ssize < concurrencyLevel) {
++sshift;
ssize <<= 1;
}
##4. segmentShift segmentMask:ssize - 1 做与运算的时候能够将key均匀存放;
this.segmentShift = 32 - sshift;
this.segmentMask = ssize - 1;
##5. 初始化Segment0 赋值为下标0的位置
Segment<K,V> s0 =
new Segment<K,V>(loadFactor, (int)(cap * loadFactor),
(HashEntry<K,V>[])new HashEntry[cap]);
##6.采用CAS修改复制给Segment数组
UNSAFE.putOrderedObject(ss, SBASE, s0); // or
Put方法底层的实现 简单分析
Segment<K,V> s;
if (value == null)
throw new NullPointerException();
###计算key存放那个Segment数组下标位置;
int hash = hash(key);
int j = (hash >>> segmentShift28) & segmentMask15;
###使用cas 获取Segment[10]对象 如果没有获取到的情况下,则创建一个新的segment对象
if ((s = (Segment<K,V>)UNSAFE.getObject // nonvolatile; recheck
(segments, (j << SSHIFT) + SBASE)) == null) // in ensureSegment
s = ensureSegment(j);
### 使用lock锁对put方法保证线程安全问题
return s.put(key, hash, value, false);
0000 0000 00000 0000 0000 0000 0000 0011
0000 0000 00000 0000 0000 0000 0000 0011
深度分析:
Segment<K,V> ensureSegment(int k)
private Segment<K,V> ensureSegment(int k) {
final Segment<K,V>[] ss = this.segments;
long u = (k << SSHIFT) + SBASE; // raw offset
Segment<K,V> seg;
### 使用UNSAFE强制从主内存中获取 Segment对象,如果没有获取到的情况=null
if ((seg = (Segment<K,V>)UNSAFE.getObjectVolatile(ss, u)) == null) {
## 使用原型模式 将下标为0的Segment设定参数信息 赋值到新的Segment对象中
Segment<K,V> proto = ss[0]; // use segment 0 as prototype
int cap = proto.table.length;
float lf = proto.loadFactor;
int threshold = (int)(cap * lf);
HashEntry<K,V>[] tab = (HashEntry<K,V>[])new HashEntry[cap];
#### 使用UNSAFE强制从主内存中获取 Segment对象,如果没有获取到的情况=null
if ((seg = (Segment<K,V>)UNSAFE.getObjectVolatile(ss, u))
== null) { // recheck
###创建一个新的Segment对象
Segment<K,V> s = new Segment<K,V>(lf, threshold, tab);
while ((seg = (Segment<K,V>)UNSAFE.getObjectVolatile(ss, u))
== null) {
###使用CAS做修改
if (UNSAFE.compareAndSwapObject(ss, u, null, seg = s))
break;
}
}
}
return seg;
}
final V put(K key, int hash, V value, boolean onlyIfAbsent) {
###尝试获取锁,如果获取到的情况下则自旋
HashEntry<K,V> node = tryLock() ? null :
scanAndLockForPut(key, hash, value);
V oldValue;
try {
HashEntry<K,V>[] tab = table;
###计算该key存放的index下标位置
int index = (tab.length - 1) & hash;
HashEntry<K,V> first = entryAt(tab, index);
for (HashEntry<K,V> e = first;;) {
if (e != null) {
K k;
###查找链表如果链表中存在该key的则修改
if ((k = e.key) == key ||
(e.hash == hash && key.equals(k))) {
oldValue = e.value;
if (!onlyIfAbsent) {
e.value = value;
++modCount;
}
break;
}
e = e.next;
}
else {
if (node != null)
node.setNext(first);
else
###创建一个新的node结点 头插入法
node = new HashEntry<K,V>(hash, key, value, first);
int c = count + 1;
###如果达到阈值提前扩容
if (c > threshold && tab.length < MAXIMUM_CAPACITY)
rehash(node);
else
setEntryAt(tab, index, node);
++modCount;
count = c;
oldValue = null;
break;
}
}
} finally {
###释放锁
unlock();
}
return oldValue;
}
7.1.3 核心Api
GetObjectVolatile
此方法和上面的getObject功能类似,不过附加了’volatile’加载语义,也就是强制从主存中获取属性值。类似的方法有getIntVolatile、getDoubleVolatile等等。这个方法要求被使用的属性被volatile修饰,否则功能和getObject方法相同。
tryLock()方法是有返回值的,它表示用来尝试获取锁,如果获取成功,则返回true,如果获取失败(即锁已被其他线程获取),则返回false,这个方法无论如何都会立即返回。在拿不到锁时不会一直在那等待。
7.2 JDK1.8ConcurrentHashMap源码解读ConcurrentHashMap1.8的取出取消segment分段设计,采用对CAS + synchronized保证并发线程安全问题,将锁的粒度拆分到每个index
下标位置,实现的效率与ConcurrentHashMap1.7相同。
sizeCtl :默认为0,用来控制table的初始化和扩容 *** 作,具体应用在后续会体现出来。
-1 代表table正在初始化
N 表示有N-1个线程正在进行扩容 *** 作
其余情况:
1、如果table未初始化,表示table需要初始化的大小。 0
2、如果table初始化完成,表示table的容量,默认是table大小的0.75倍,居然用这个公式算0.75(n - (n >>> 2))。
CounterCells 记录每个线程size++的次数
8. Arraylist集合源码解读Arraylist底层是基于数组实现
System.arraycopy(elementData, index+1, elementData, index, numMoved);
Object src : 原数组
int srcPos : 从元数据的起始位置开始
Object dest : 目标数组
int destPos : 目标数组的开始起始位置
int length : 要copy的数组的长度
public class DemoArraylist<T> {
/**
* 存放数据元素
*/
private Object[] elementData;
/**
* 记录存放的个数
*/
private int size = 0;
/**
* 默认容量为10
*/
private static final int DEFAULT_CAPACITY = 10;
public void add(T t) {
if (elementData == null) {
elementData = new Object[10];
}
// 判断是否需要扩容
if ((size + 1) - elementData.length > 0) {
// 原来容量10
int oldCapacity = elementData.length;
// 新的容量 10+5;
int newCapacity = oldCapacity + (oldCapacity >> 1);
// 扩容
elementData = Arrays.copyOf(elementData, newCapacity);
}
elementData[size++] = t;
}
public T get(int index) {
return (T) elementData[index];
}
public boolean remove(T value) {
for (int i = 0; i < size; i++) {
T oldValue = (T) elementData[i];
if (oldValue.equals(value)) {
int numMoved = size - i - 1;
if (numMoved > 0)
//remove
System.arraycopy(elementData, i + 1, elementData, i,
numMoved);
elementData[--size] = null;
return true;
}
}
return false;
}
public static void main(String[] args) {
DemoArraylist<String> arraylist = new DemoArraylist<>();
for (int i = 0; i < 100; i++) {
arraylist.add("demo" + i);
}
arraylist.remove("demo2");
// arraylist.add("demo11");
for (int i = 0; i < arraylist.size; i++) {
System.out.println(arraylist.get(i));
}
//
// System.out.println(arraylist.get(0));
}
}
9. HashMap源码注释
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)