对象存储-快问快答

2021-07-30 17:54:24 浏览数 (1)

使用HashMap时,当两个对象的 hashCode 相同怎么办:

因为HashCode 相同,不一定就是相等的(equals方法比较),所以两个对象所在数组的下标相同,"碰撞"就此发生。又因为 HashMap 使用链表存储对象,这个 Node 会存储到链表中。

HashMap 的哈希函数怎么设计的吗:

hash 函数是先拿到通过 key 的 hashCode ,是 32 位的 int 值,然后让 hashCode 的高 16 位和低 16 位进行异或操作。两个好处:

  1. 一定要尽可能降低 hash 碰撞,越分散越好;
  2. 算法一定要尽可能高效,因为这是高频操作, 因此采用位运算;

为什么采用 hashcode 的高 16 位和低 16 位异或能降低 hash 碰撞:

因为 key.hashCode()函数调用的是 key 键值类型自带的哈希函数,返回 int 型散列值。int 值范围为**-2147483648~2147483647**,前后加起来大概 40 亿的映射空间。只要哈希函数映射得比较均匀松散,一般应用是很难出现碰撞的。但问题是一个 40 亿长度的数组,内存是放不下的。

设想,如果 HashMap 数组的初始大小才 16,用之前需要对数组的长度取模运算,得到的余数才能用来访问数组下标。

为什么要用异或运算符:

保证了对象的 hashCode 的 32 位值只要有一位发生改变,整个 hash() 返回值就会改变。尽可能的减少碰撞。

解决hash冲突的有几种方法:

HashMap遍历方法有几种:

HashMap 的 table 的容量如何确定:

①table 数组大小是由 capacity 这个参数确定的,默认是16,也可以构造时传入,最大限制是2^30;

②loadFactor 是装载因子,主要目的是用来确认table 数组是否需要动态扩展,默认值是0.75,比如table 数组大小为 16,装载因子为 0.75 时,threshold 就是12,当 table 的实际大小超过 12 时,table就需要动态扩容;

③扩容时,调用 resize() 方法,将 table 长度变为原来的两倍(注意是 table 长度,而不是 threshold);

④如果数据很大的情况下,扩展时将会带来性能的损失,在性能要求很高的地方,这种损失很可能很致命。

请解释一下HashMap的参数loadFactor,它的作用是什么:

loadFactor表示HashMap的拥挤程度,影响hash操作到同一个数组位置的概率。

默认loadFactor等于0.75,当HashMap里面容纳的元素已经达到HashMap数组长度的75%时,表示HashMap太挤了,需要扩容,在HashMap的构造器中可以定制loadFactor。

说说HashMap中put方法的过程:

hashMap在put的时候是:

  1. 先计算key的hash值( hash(key) )
  2. 初始化map
  3. 然后利用hash值去寻址
    1. 如果寻址为空:直接新建k-v节点存放
    2. 如果寻址不为空(发生了碰撞),当地址上已经存在内容, 再利用equals比较key
      1. 如果该节点的hash和当前的hash相等,而且key也相等或者在key不等于null的情况下key的内容也相等,则说明两个key是一样的,则将当前节点p用临时节点e保存。最后会用这个新值替换旧值
      2. 否则加入到链表的头结点中(头插法)

说说hashMap中get是如何实现的:

对key的hashCode进行hash值计算,与运算计算下标获取bucket位置,如果在桶的首位上就可以找到就直接返回,否则在树中找或者链表中遍历找,如果有hash冲突,则利用equals方法去遍历链表查找节点。

当链表长度 >= 8时,为什么要将链表转换成红黑树:

说说resize扩容的过程

创建一个新的数组,其容量为旧数组的两倍

拉链法导致的链表过深问题为什么不用二叉查找树代替,而选择红黑树?为什么不一直使用红黑树:

之所以选择红黑树是为了解决二叉查找树的缺陷,二叉查找树在特殊情况下会变成一条线性结构(这就跟原来使用链表结构一样了,造成很深的问题),遍历查找会非常慢。而红黑树在插入新数据后可能需要通过左旋,右旋、变色这些操作来保持平衡,引入红黑树就是为了查找数据快,解决链表查询深度的问题,我们知道红黑树属于平衡二叉树,但是为了保持“平衡”是需要付出代价的,但是该代价所损耗的资源要比遍历线性链表要少,所以当长度大于8的时候,会使用红黑树,如果链表长度很短的话,根本不需要引入红黑树,引入反而会慢。

说说你对红黑树的了解:

红黑树是一种自平衡的二叉查找树,是一种高效的查找树。

JDK8中对HashMap做了哪些改变:

1.在java 1.8中,如果链表的长度超过了8,那么链表将转换为红黑树

2.发生hash碰撞时,java 1.7 会在链表的头部插入,而java 1.8会在链表的尾部插入

3.在java 1.8中,Entry被Node替代

HashMap 中的 key 我们可以使用任何类作为 key 吗:

平时可能大家使用的最多的就是使用 String 作为 HashMap 的 key,但是现在我们想使用某个自定 义类作为 HashMap 的 key,那就需要注意以下几点:

  • 如果类重写了 equals 方法,它也应该重写 hashCode 方法。
  • 类的所有实例需要遵循与 equals 和 hashCode 相关的规则。
  • 如果一个类没有使用 equals,你不应该在 hashCode 中使用它。
  • 咱们自定义 key 类的最佳实践是使之为不可变的,这样,hashCode 值可以被缓存起来,拥有更好的性能。不可变的类也可以确保 hashCode 和 equals 在未来不会改变,这样就会解决与可变相关的问题了。

HashMap 的长度为什么是 2 的 N 次方呢:

为了能让 HashMap 存数据和取数据的效率高,尽可能地减少 hash 值的碰撞,也就是说尽量把数 据能均匀的分配,每个链表或者红黑树长度尽量相等。我们首先可能会想到 % 取模的操作来实现。下面是回答的重点哟:

取余(%)操作中如果除数是 2 的幂次,则等价于与其除数减一的与(&)操作(也就是说 hash % length == hash &(length - 1) 的前提是 length 是 2 的 n 次方)。并且,采用二进 制位操作 & ,相对于 % 能够提高运算效率。

这就是为什么 HashMap 的长度需要 2 的 N 次方了。

说说什么是 fail-fast:

fail-fast 机制是 Java 集合(Collection)中的一种错误机制。当多个线程对同一个集合的内容进行 操作时,就可能会产生 fail-fast 事件。

例如:当某一个线程 A 通过 iterator 去遍历某集合的过程中,若该集合的内容被其他线程所改变 了,那么线程 A 访问集合时,就会抛出 ConcurrentModificationException 异常,产生 fail-fast 事 件。这里的操作主要是指 add、remove 和 clear,对集合元素个数进行修改。

解决办法

建议使用“java.util.concurrent 包下的类”去取代“java.util 包下的类”。可以这么理解:在遍历之前,把 modCount 记下来 expectModCount,后面 expectModCount 去 和 modCount 进行比较,如果不相等了,证明已并发了,被修改了,于是抛出 ConcurrentModificationException 异常。

如何规避 HashMap 的线程不安全:

多线程条件下,可使用两种方式:

  • Collections.synchronizedMap方法构造出一个同步Map
  • 直接使用线程安全的ConcurrentHashMap

为什么 ConcurrentHashMap 比 HashTable 效率要高:

HashTable:使用一把锁(锁住整个链表结构)处理并发问题,多个线程竞争一把锁,容易阻塞;

ConcurrentHashMap:

  • JDK 1.7 中使用分段锁(ReentrantLock Segment HashEntry),相当于把一个 HashMap 分成多个段,每段分配一把锁,这样支持多线程访问。锁粒度:基于 Segment,包含多个 HashEntry。
  • JDK 1.8 中使用CAS synchronized Node 红黑树。锁粒度:Node(首结点)(实现 Map.Entry<K,V>)。锁粒度降低了。

说说 ConcurrentHashMap中 锁机制:

JDK 1.8 中,采用Node CAS Synchronized来保证并发安全。取消类 Segment,直接用 table 数组存储键值对;当 HashEntry 对象组成的链表长度超过 TREEIFY_THRESHOLD 时,链表转换为红黑树,提升性能。底层变更为数组 链表 红黑树。

在 JDK 1.8 中,ConcurrentHashMap 为什么要使用内置锁 synchronized 来代替重入锁 ReentrantLock:

①粒度降低了;

②JVM 开发团队没有放弃 synchronized,而且基于 JVM 的 synchronized 优化空间更大,更加自然。

③在大量的数据操作下,对于 JVM 的内存压力,基于 API 的 ReentrantLock 会开销更多的内存。

0 人点赞