1、哈希表hash表也称为散列表,也有直接译作哈希表,hash表是一种根据关键字值(key - value)而直接进行访问的数据结构。也就是说它通过把关键码值映射到表中的一个位置来访问记录,以此来加快查找的速度。在链表、数组等数据结构中,查找某个关键字,通常要遍历整个数据结构,也就是o(n)的时间级,但是对于哈希表来说,只是o(1)的时间级。
比如对于前面我们讲解的 arraylist 集合和 linkedlist ,如果我们要查找这两个集合中的某个元素,通常是通过遍历整个集合,需要o(n)的时间级。
如果是哈希表,它是通过把关键码值映射到表中一个位置来访问记录,以加快查找的速度。这个映射函数叫做散列函数,存放记录的数组叫做散列表,只需要o(1)的时间级。
①、存放在哈希表中的数据是key-value 键值对,比如存放哈希表的数据为:
{key1-value1,key2-value2,key3-value3,key4-value4,key5-value5,key6-value6}
如果我们想查找是否存在键值对 key3-value3,首先通过 key3 经过散列函数,得到值 k3,然后通过 k3 和散列表对应的值找到是 value3。
②、当然也有可能存放哈希表的值只是 value1,value2,value3这种类型:
{value1,value2,value3,value4,value5,value6}
这时候我们可以假设 value1 是等于 key1的,也就是{value1-value1,value2-value2,value3-value3,value4-value4,value5-value5,value6-value6}可以将 value1经过散列函数转换成与散列表对应的值。
大家都用过汉语字典吧,汉语字典的优点是我们可以通过前面的拼音目录快速定位到所要查找的汉字。当给定我们某个汉字时,大脑会自动将汉字转换成拼音(如果我们认识,不认识可以通过偏旁部首),这个转换的过程我们可以看成是一个散列函数,之后在根据转换得到的拼音找到该字所在的页码,从而找到该汉字。
汉语字典是哈希表的典型实现,但是我们仔细思考,会发现这样几个问题?
①、为什么要有散列函数?
②、多个 key 通过散列函数会得到相同的值,这时候怎么办?
对于第一个问题,散列函数的存在能够帮助我们更快的确定key和value的映射关系,试想一下,如果没有汉字和拼音的转换规则(或者汉字和偏旁部首的),给你一个汉字,你该如何从字典中找到该汉字?我想除了遍历整部字典,你没有什么更好的办法。
对于第二个问题,多个 key 通过散列函数得到相同的值,这其实也是哈希表最大的问题——冲突。比如同音字汉字,我们得到的拼音就会是相同的,那么我们该如何在字典中存放同音字汉字呢?有两种做法:
第一种是开放地址法,当我们遇到冲突了,这时候通过另一种函数再计算一遍,得到相应的映射关系。比如对于汉语字典,一个字 “余”,拼音是“yu”,我们将其放在页码为567(假设在该位置),这时候又来了一个汉字“于”,拼音也是“yu”,那么这时候我们要是按照转换规则,也得将其放在页码为567的位置,但是我们发现这个页码已经被占用了,这时候怎么办?我们可以在通过另一种函数,得到的值加1。那么汉字于就会被放在576+1=577的位置。
第二种是链地址法,我们可以将字典的每一页都看成是一个子数组或者子链表,当遇到冲突了,直接往当前页码的子数组或者子链表里面填充即可。那么我们进行同音字查找的时候,可能需要遍历其子数组或者子链表。如下图所示:
对于开放地址法,可能会遇到二次冲突,三次冲突,所以需要良好的散列函数,分布的越均匀越好。对于链地址法,虽然不会造成二次冲突,但是如果一次冲突很多,那么会造成子数组或者子链表很长,那么我们查找所需遍历的时间也会很长。
2、什么是 hashmap?听名字就知道,hashmap 是一个利用哈希表原理来存储元素的集合。遇到冲突时,hashmap 是采用的链地址法来解决,在 jdk1.7 中,hashmap 是由 数组+链表构成的。但是在 jdk1.8 中,hashmap 是由 数组+链表+红黑树构成,新增了红黑树作为底层数据结构,结构变得复杂了,但是效率也变的更高效。下面我们来具体介绍在 jdk1.8 中 hashmap 是如何实现的。
3、hashmap定义hashmap 是一个散列表,它存储的内容是键值对(key-value)映射,而且 key 和 value 都可以为 null。
public class hashmap extends abstractmap implements map, cloneable, serializable {
首先该类实现了一个 map 接口,该接口定义了一组键值对映射通用的操作。储存一组成对的键-值对象,提供key(键)到value(值)的映射,map中的key不要求有序,不允许重复。value同样不要求有序,但可以重复。但是我们发现该接口方法有很多,我们设计某个键值对的集合有时候并不像实现那么多方法,那该怎么办?
jdk 还为我们提供了一个抽象类 abstractmap ,该抽象类继承 map 接口,所以如果我们不想实现所有的 map 接口方法,就可以选择继承抽象类 abstractmap 。
但是我们发现 hashmap 类即继承了 abstractmap 接口,也实现了 map 接口,这样做难道不是多此一举?后面我们会讲的 linkedhashset 集合也有这样的写法。
毕竟 jdk 经过这么多年的发展维护,博主起初也是认为这样是有具体的作用的,后来找了很多资料,发现这其实完全没有任何作用
据 java 集合框架的创始人josh bloch描述,这样的写法是一个失误。在java集合框架中,类似这样的写法很多,最开始写java集合框架的时候,他认为这样写,在某些地方可能是有价值的,直到他意识到错了。显然的,jdk的维护者,后来不认为这个小小的失误值得去修改,所以就这样存在下来了。
hashmap 集合还实现了 cloneable 接口以及 serializable 接口,分别用来进行对象克隆以及将对象进行序列化。
4、字段属性//序列化和反序列化时,通过该字段进行版本一致性验证 private static final long serialversionuid = 362498820763181265l; //默认 hashmap 集合初始容量为16(必须是 2 的倍数) static final int default_initial_capacity = 1 < < 4; // aka 16 //集合的最大容量,如果通过带参构造指定的最大容量超过此数,默认还是使用此数 static final int maximum_capacity = 1 < < 30; //默认的填充因子 static final float default_load_factor = 0.75f; //当桶(bucket)上的结点数大于这个值时会转成红黑树(jdk1.8新增) static final int treeify_threshold = 8; //当桶(bucket)上的节点数小于这个值时会转成链表(jdk1.8新增) static final int untreeify_threshold = 6; /**(jdk1.8新增) * 当集合中的容量大于这个值时,表中的桶才能进行树形化 ,否则桶内元素太多时会扩容, * 而不是树形化 为了避免进行扩容、树形化选择的冲突,这个值不能小于 4 * treeify_threshold */ static final int min_treeify_capacity = 64;注意 :后面三个字段是 jdk1.8 新增的,主要是用来进行红黑树和链表的互相转换。
/** * 初始化使用,长度总是 2的幂 */ transient node[] table; /** * 保存缓存的entryset() */ transient set entryset; /** * 此映射中包含的键值映射的数量。(集合存储键值对的数量) */ transient int size; /** * 跟前面arraylist和linkedlist集合中的字段modcount一样,记录集合被修改的次数 * 主要用于迭代器中的快速失败 */ transient int modcount; /** * 调整大小的下一个大小值(容量*加载因子)。capacity * load factor */ int threshold; /** * 散列表的加载因子。 */ final float loadfactor;下面我们重点介绍上面几个字段:
①、node[] table
我们说 hashmap 是由数组+链表+红黑树组成,这里的数组就是 table 字段。后面对其进行初始化长度默认是 default_initial_capacity= 16。而且 jdk 声明数组的长度总是 2的n次方(一定是合数),为什么这里要求是合数,一般我们知道哈希算法为了避免冲突都要求长度是质数,这里要求是合数,下面在介绍 hashmap 的hashcode() 方法(散列函数),我们再进行讲解。
②、size
集合中存放key-value 的实时对数。
③、loadfactor
装载因子,是用来衡量 hashmap 满的程度,计算hashmap的实时装载因子的方法为:size/capacity,而不是占用桶的数量去除以capacity。capacity 是桶的数量,也就是 table 的长度length。
默认的负载因子0.75 是对空间和时间效率的一个平衡选择,建议大家不要修改,除非在时间和空间比较特殊的情况下,如果内存空间很多而又对时间效率要求很高,可以降低负载因子loadfactor 的值;相反,如果内存空间紧张而对时间效率要求不高,可以增加负载因子 loadfactor 的值,这个值可以大于1。
④、threshold
计算公式:capacity * loadfactor。这个值是当前已占用数组长度的最大值。过这个数目就重新resize(扩容),扩容后的 hashmap 容量是之前容量的两倍
5、构造函数①、默认无参构造函数
/** * 默认构造函数,初始化加载因子loadfactor = 0.75 */ public hashmap() { this.loadfactor = default_load_factor; }无参构造器,初始化散列表的加载因子为0.75
②、指定初始容量的构造函数
/** * * @param initialcapacity 指定初始化容量 * @param loadfactor 加载因子 0.75 */ public hashmap(int initialcapacity, float loadfactor) { //初始化容量不能小于 0 ,否则抛出异常 if (initialcapacity maximum_capacity) initialcapacity = maximum_capacity; //如果加载因子小于0,或者加载因子是一个非数值,抛出异常 if (loadfactor >> 操作符表示无符号右移,高位取0。 // | 按位或运算 static final int tablesizefor(int cap) { int n = cap - 1; n |= n > >> 1; n |= n > >> 2; n |= n > >> 4; n |= n > >> 8; n |= n > >> 16; return (n = maximum_capacity) ? maximum_capacity : n + 1; }6、确定哈希桶数组索引位置前面我们讲解哈希表的时候,我们知道是用散列函数来确定索引的位置。散列函数设计的越好,使得元素分布的越均匀。hashmap 是数组+链表+红黑树的组合,我们希望在有限个数组位置时,尽量每个位置的元素只有一个,那么当我们用散列函数求得索引位置的时候,我们能马上知道对应位置的元素是不是我们想要的,而不是要进行链表的遍历或者红黑树的遍历,这会大大优化我们的查询效率。我们看 hashmap 中的哈希算法:
static final int hash(object key) { int h; return (key == null) ? 0 : (h = key.hashcode()) ^ (h > >> 16); } i = (table.length - 1) & hash;//这一步是在后面添加元素putval()方法中进行位置的确定主要分为三步:
①、取 hashcode 值:key.hashcode()
②、高位参与运算:h>>>16
③、取模运算:(n-1) & hash
这里获取 hashcode() 方法的值是变量,但是我们知道,对于任意给定的对象,只要它的 hashcode() 返回值相同,那么程序调用 hash(object key) 所计算得到的 hash码 值总是相同的。
为了让数组元素分布均匀,我们首先想到的是把获得的 hash码对数组长度取模运算( hash%length),但是计算机都是二进制进行操作,取模运算相对开销还是很大的,那该如何优化呢?
hashmap 使用的方法很巧妙,它通过 hash & (table.length -1)来得到该对象的保存位,前面说过 hashmap 底层数组的长度总是2的n次方,这是hashmap在速度上的优化。当 length 总是2的n次方时,hash & (length-1)运算等价于对 length 取模,也就是 hash%length,但是&比%具有更高的效率。比如 n % 32 = n & (32 -1)
这也解释了为什么要保证数组的长度总是2的n次方。
再就是在 jdk1.8 中还有个高位参与运算,hashcode() 得到的是一个32位 int 类型的值,通过hashcode()的高16位 异或 低16位实现的:(h = k.hashcode()) ^ (h >>> 16),主要是从速度、功效、质量来考虑的,这么做可以在数组table的length比较小的时候,也能保证考虑到高低bit都参与到hash的计算中,同时不会有太大的开销。
下面举例说明下,n为table的长度:
7、添加元素//hash(key)就是上面讲的hash方法,对其进行了第一步和第二步处理 public v put(k key, v value) { return putval(hash(key), key, value, false, true); } /** * * @param hash 索引的位置 * @param key 键 * @param value 值 * @param onlyifabsent true 表示不要更改现有值 * @param evict false表示table处于创建模式 * @return */ final v putval(int hash, k key, v value, boolean onlyifabsent, boolean evict) { node[] tab; node p; int n, i; //如果table为null或者长度为0,则进行初始化 //resize()方法本来是用于扩容,由于初始化没有实际分配空间,这里用该方法进行空间分配,后面会详细讲解该方法 if ((tab = table) == null || (n = tab.length) == 0) n = (tab = resize()).length; //注意:这里用到了前面讲解获得key的hash码的第三步,取模运算,下面的if-else分别是 tab[i] 为null和不为null if ((p = tab[i = (n - 1) & hash]) == null) tab[i] = newnode(hash, key, value, null);//tab[i] 为null,直接将新的key-value插入到计算的索引i位置 else {//tab[i] 不为null,表示该位置已经有值了 node e; k k; if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) e = p;//节点key已经有值了,直接用新值覆盖 //该链是红黑树 else if (p instanceof treenode) e = ((treenode)p).puttreeval(this, tab, hash, key, value); //该链是链表 else { for (int bincount = 0; ; ++bincount) { if ((e = p.next) == null) { p.next = newnode(hash, key, value, null); //链表长度大于8,转换成红黑树 if (bincount >= treeify_threshold - 1) // -1 for 1st treeifybin(tab, hash); break; } //key已经存在直接覆盖value if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) break; p = e; } } if (e != null) { // existing mapping for key v oldvalue = e.value; if (!onlyifabsent || oldvalue == null) e.value = value; afternodeaccess(e); return oldvalue; } } ++modcount;//用作修改和新增快速失败 if (++size > threshold)//超过最大容量,进行扩容 resize(); afternodeinsertion(evict); return null; }①、判断键值对数组 table 是否为空或为null,否则执行resize()进行扩容;
②、根据键值key计算hash值得到插入的数组索引i,如果table[i]==null,直接新建节点添加,转向⑥,如果table[i]不为空,转向③;
③、判断table[i]的首个元素是否和key一样,如果相同直接覆盖value,否则转向④,这里的相同指的是hashcode以及equals;
④、判断table[i] 是否为treenode,即table[i] 是否是红黑树,如果是红黑树,则直接在树中插入键值对,否则转向⑤;
⑤、遍历table[i],判断链表长度是否大于8,大于8的话把链表转换为红黑树,在红黑树中执行插入操作,否则进行链表的插入操作;遍历过程中若发现key已经存在直接覆盖value即可;
⑥、插入成功后,判断实际存在的键值对数量size是否超过了最大容量threshold,如果超过,进行扩容。
⑦、如果新插入的key不存在,则返回null,如果新插入的key存在,则返回原key对应的value值(注意新插入的value会覆盖原value值)
注意1:看第 58,59 行代码:
if (++size > threshold)//超过最大容量,进行扩容 resize();这里有个考点,我们知道 hashmap 是由数组+链表+红黑树(jdk1.8)组成,如果在添加元素时,发生冲突,会将冲突的数放在链表上,当链表长度超过8时,会自动转换成红黑树。
那么有如下问题:数组上有5个元素,而某个链表上有3个元素,问此hashmap的 size 是多大?
我们分析第58,59 行代码,很容易知道,只要是调用put() 方法添加元素,那么就会调用 ++size(这里有个例外是插入重复key的键值对,不会调用,但是重复key元素不会影响size),所以,上面的答案是 7。
注意2:看第 53 、 60 行代码:
afternodeaccess(e); afternodeinsertion(evict);这里调用的该方法,其实是调用了如下实现方法:
void afternodeaccess(node p) { }void afternodeinsertion(boolean evict) { }这都是一个空的方法实现,我们在这里可以不用管,但是在后面介绍 linkedhashmap 会用到,linkedhashmap 是继承的 hashmap,并且重写了该方法,后面我们会详细介绍。
8、扩容机制扩容(resize),我们知道集合是由数组+链表+红黑树构成,向 hashmap 中插入元素时,如果hashmap 集合的元素已经大于了最大承载容量threshold(capacity * loadfactor),这里的threshold不是数组的最大长度。那么必须扩大数组的长度,java中数组是无法自动扩容的,我们采用的方法是用一个更大的数组代替这个小的数组,就好比以前是用小桶装水,现在小桶装不下了,我们使用一个更大的桶。
jdk1.8融入了红黑树的机制,比较复杂,这里我们先介绍 jdk1.7的扩容源码,便于理解,然后在介绍jdk1.8的源码。
//参数 newcapacity 为新数组的大小 void resize(int newcapacity) { entry[] oldtable = table;//引用扩容前的 entry 数组 int oldcapacity = oldtable.length; if (oldcapacity == maximum_capacity) {//扩容前的数组大小如果已经达到最大(2^30)了 threshold = integer.max_value;///修改阈值为int的最大值(2^31-1),这样以后就不会扩容了 return; } entry[] newtable = new entry[newcapacity];//初始化一个新的entry数组 transfer(newtable, inithashseedasneeded(newcapacity));//将数组元素转移到新数组里面 table = newtable; threshold = (int)math.min(newcapacity * loadfactor, maximum_capacity + 1);//修改阈值 } void transfer(entry[] newtable, boolean rehash) { int newcapacity = newtable.length; for (entry e : table) {//遍历数组 while(null != e) { entry next = e.next; if (rehash) { e.hash = null == e.key ? 0 : hash(e.key); } int i = indexfor(e.hash, newcapacity);//重新计算每个元素在数组中的索引位置 e.next = newtable[i];//标记下一个元素,添加是链表头添加 newtable[i] = e;//将元素放在链上 e = next;//访问下一个 entry 链上的元素 } } }通过方法我们可以看到,jdk1.7中首先是创建一个新的大容量数组,然后依次重新计算原集合所有元素的索引,然后重新赋值。如果数组某个位置发生了hash冲突,使用的是单链表的头插入方法,同一位置的新元素总是放在链表的头部,这样与原集合链表对比,扩容之后的可能就是倒序的链表了。
下面我们在看看jdk1.8的。
final node[] resize() { node[] oldtab = table; int oldcap = (oldtab == null) ? 0 : oldtab.length;//原数组如果为null,则长度赋值0 int oldthr = threshold; int newcap, newthr = 0; if (oldcap > 0) {//如果原数组长度大于0 if (oldcap >= maximum_capacity) {//数组大小如果已经大于等于最大值(2^30) threshold = integer.max_value;//修改阈值为int的最大值(2^31-1),这样以后就不会扩容了 return oldtab; } //原数组长度大于等于初始化长度16,并且原数组长度扩大1倍也小于2^30次方 else if ((newcap = oldcap < < 1) = default_initial_capacity) newthr = oldthr < 0) //旧阀值大于0,则将新容量直接等于就阀值 newcap = oldthr; else {//阀值等于0,oldcap也等于0(集合未进行初始化) newcap = default_initial_capacity;//数组长度初始化为16 newthr = (int)(default_load_factor * default_initial_capacity);//阀值等于16*0.75=12 } //计算新的阀值上限 if (newthr == 0) { float ft = (float)newcap * loadfactor; newthr = (newcap < maximum_capacity && ft < (float)maximum_capacity ? (int)ft : integer.max_value); } threshold = newthr; @suppresswarnings({rawtypes,unchecked}) node[] newtab = (node[])new node[newcap]; table = newtab; if (oldtab != null) { //把每个bucket都移动到新的buckets中 for (int j = 0; j 0 && (p = tab[index = (n - 1) & hash]) != null) { node node = null, e; k k; v v; //如果键的值与链表第一个节点相等,则将 node 指向该节点 if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) node = p; //如果桶节点存在下一个节点 else if ((e = p.next) != null) { //节点为红黑树 if (p instanceof treenode) node = ((treenode)p).gettreenode(hash, key);//找到需要删除的红黑树节点 else { do {//遍历链表,找到待删除的节点 if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) { node = e; break; } p = e; } while ((e = e.next) != null); } } //删除节点,并进行调节红黑树平衡 if (node != null && (!matchvalue || (v = node.value) == value || (value != null && value.equals(v)))) { if (node instanceof treenode) ((treenode)node).removetreenode(this, tab, movable); else if (node == p) tab[index] = node.next; else p.next = node.next; ++modcount; --size; afternoderemoval(node); return node; } } return null; }注意第 46 行代码
afternoderemoval(node);
这也是为实现 linkedhashmap 做准备的,在这里和上面一样,是一个空方法实现,可以不用管。而在 linkedhashmap 中进行了重写,用来维护删除节点后,链表的前后关系。
10、查找元素①、通过 key 查找 value
首先通过 key 找到计算索引,找到桶位置,先检查第一个节点,如果是则返回,如果不是,则遍历其后面的链表或者红黑树。其余情况全部返回 null。
public v get(object key) { node e; return (e = getnode(hash(key), key)) == null ? null : e.value; } final node getnode(int hash, object key) { node[] tab; node first, e; int n; k k; if ((tab = table) != null && (n = tab.length) > 0 && (first = tab[(n - 1) & hash]) != null) { //根据key计算的索引检查第一个索引 if (first.hash == hash && // always check first node ((k = first.key) == key || (key != null && key.equals(k)))) return first; //不是第一个节点 if ((e = first.next) != null) { if (first instanceof treenode)//遍历树查找元素 return ((treenode)first).gettreenode(hash, key); do { //遍历链表查找元素 if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) return e; } while ((e = e.next) != null); } } return null; }②、判断是否存在给定的 key 或者 value
public boolean containskey(object key) { return getnode(hash(key), key) != null; } public boolean containsvalue(object value) { node[] tab; v v; if ((tab = table) != null && size > 0) { //遍历桶 for (int i = 0; i < tab.length; ++i) { //遍历桶中的每个节点元素 for (node e = tab[i]; e != null; e = e.next) { if ((v = e.value) == value || (value != null && value.equals(v))) return true; } } } return false; }11、遍历元素首先构造一个 hashmap 集合:
hashmap map = new hashmap(); map.put(a,1); map.put(b,2); map.put(c,3);①、分别获取 key 集合和 value 集合。
//1、分别获取key和value的集合for(string key : map.keyset()){ system.out.println(key);}for(object value : map.values()){ system.out.println(value);}②、获取 key 集合,然后遍历key集合,根据key分别得到相应value
//2、获取key集合,然后遍历key,根据key得到 value set keyset = map.keyset(); for(string str : keyset){ system.out.println(str+-+map.get(str)); }③、得到 entry 集合,然后遍历 entry
//3、得到 entry 集合,然后遍历 entry set entryset = map.entryset(); for(map.entry entry : entryset){ system.out.println(entry.getkey()+-+entry.getvalue()); }④、迭代
//4、迭代iterator< map.entry> iterator = map.entryset().iterator();while(iterator.hasnext()){ map.entry mapentry = iterator.next(); system.out.println(mapentry.getkey()+-+mapentry.getvalue());}基本上使用第三种方法是性能最好的,
第一种遍历方法在我们只需要 key 集合或者只需要 value 集合时使用;
第二种方法效率很低,不推荐使用;
第四种方法效率也挺好,关键是在遍历的过程中我们可以对集合中的元素进行删除。
12、总结①、基于jdk1.8的hashmap是由数组+链表+红黑树组成,当链表长度超过 8 时会自动转换成红黑树,当红黑树节点个数小于 6 时,又会转化成链表。相对于早期版本的 jdk hashmap 实现,新增了红黑树作为底层数据结构,在数据量较大且哈希碰撞较多时,能够极大的增加检索的效率。
②、允许 key 和 value 都为 null。key 重复会被覆盖,value 允许重复。
③、非线程安全
④、无序(遍历hashmap得到元素的顺序不是按照插入的顺序)
创想焊缝跟踪传感器适配库卡机器人的应用案例
怎样设计一个以单片机多机串行通信原理为核心的电子开关?
管道焊接机器人概述、结构及特点
PFC的基础知识汇总
OpenHarmony应用程序集成AGC云存储
一个重量级集合工具:HashMap
Cadence收购美商传威高速接口IP资产 进一步拓宽产品阵容
Linux内存管理的基础知识科普
技嘉RTX 2080Ti显卡坞国内上架,采用静音水之力散热系统
如何在树莓派4上安装新的引导加载程序
怎样使用区块链技术来打击假药市场
华为mate10开发机体验评测,感受超强视觉盛宴
京元电子已经完成全厂7106人的快速筛查
外观好看的蓝牙耳机,音质好颜值高的蓝牙耳机推荐
国际机器人赛事RoboCup@Home Education2020线上比赛成功举办
Counterpoint三季度畅销机排行:iPhone XR第一,OPPO华为上榜
艾睿光电安防视频监控系统:一键安装部署,热成像+可见光实时监控
力科HRO66ZI示波器开机异常维修
IEEE802.11i的网络构架和安全改进
IBM官宣340亿美元收购红帽 人员合并至IBM混合云部门