HASH 哈希


    生活中的hash应用

    安全领域的hash值
    比如计算机的登陆密码,一般是一串字符。然而,为了安全起见,计算机不会直接保存该字符串,而是保存该字符串的hash值(使用MD5、SHA或者其他算法作为hash函数)。当用户下次登陆的时候,输入密码字符串。如果该密码字符串的hash值与保存的hash值一致,那么就认为用户输入了正确的密码。这样,就算黑客闯入了数据库中的密码记录,他能看到的也只是密码的hash值。上面所使用的hash函数有很好的单向性:很难从hash值去推测键值。因此,黑客无法获知用户的密码。

    注意,hash只要求从A到B的对应为一个映射,它并没有限定该对应关系为一一映射。因此会有这样的可能:两个不同的键值对应同一个hash值。这种情况叫做hash碰撞(hash collision)。比如网络协议中的checksum就可能出现这种状况,即所要校验的内容与原文并不同,但与原文生成的checksum(hash值)相同。再比如,MD5算法常用来计算密码的hash值。已经有实验表明,MD5算法有可能发生碰撞,也就是不同的明文密码生成相同的hash值,这将给系统带来很大的安全漏洞。


    哈希的几个概念

    哈希表:Hash Table,也叫散列表,是根据关键码值(Key Value)而直接进行访问的的一种数据结构。
    也就是说,它通过把关键码值映射到表中一个位置来访问记录,以加快查找速度。

    哈希函数:hash操作其本质上就是将一个数据映射成另一个数据,通常情况下原数据的长度比hash后的数据容量大。这种映射的关系我们叫做哈希函数。或者这个函数叫做散列函数,存放记录的数组叫做散列表。


    为什么会用到hash

    数组的优点是可以快速寻址,但是增加和删除元素确很难。
    链表的优点是可以方便的增加和删除元素,但是确不是很方便寻址。
    hash表就是这两种办法的优化,是一种即寻址容易并且删除和增加元素也比较方便的数据结构。
    哈希表使用范围:快速查找,删除的基本数据结构O(1),通常需要将总数据量放入内存
    

    应用举例

    这是我看到的一个非常非常好的例子。一定要学下来。题目是:

    搜索引擎会通过日志文件把用户每次检索使用的所有检索串都记录下来,每个查询串的长度为1-255字节。假设目前有一千万个记录(这些查询串的重复度比较高,虽然总数是1千万,但如果除去重复后,不超过3百万个。一个查询串的重复度越高,说明查询它的用户越多,也就是越热门。),请你统计最热门的10个查询串,要求使用的内存不能超过1G。

    这个题首先可以这样分析:要统计出最热门的10个查询串,首先要统计每个query出现的次数。然后再是将这些query排序,选择出query次数最大的10个。这样我们就分成两部来做:

    1. 首先统计query出现的次数

    算法1: 简单排序统计

    首先我们最先想到的的算法就是排序了,首先对这个日志里面的所有Query都进行排序,然后再遍历排好序的Query,统计每个Query出现的次数了。
    但是题目中有明确要求,那就是内存不能超过1G,一千万条记录,每条记录是255Byte,很显然要占据2.375G内存,这个条件就不满足要求了。
    
    让我们回忆一下数据结构课程上的内容,当数据量比较大而且内存无法装下的时候,我们可以采用外排序的方法来进行排序,这里我们可以采用归并排序,因为归并排序有一个比较好的时间复杂度O(NlgN)。
    
    排完序之后我们再对已经有序的Query文件进行遍历,统计每个Query出现的次数,再次写入文件中。
    综合分析一下,排序的时间复杂度是O(NlgN),而遍历的时间复杂度是O(N),因此该算法的总体时间复杂度就是O(N+NlgN)=O(NlgN)。
    

    如果是js里面我们就可以先生成一个数组,然后每次遍历的时候,就用indexOf查看新的元素是否在新的数组中,这样时间复杂度其实还是o(n)。因为indexof本身也要遍历一次。这个也不好。

    算法2:利用Hash Table是一种更好的方法

    在第1个方法中,我们采用了排序的办法来统计每个Query出现的次数,时间复杂度是NlgN,那么能不能有更好的方法来存储,而时间复杂度更低呢?
    
    题目中说明了,虽然有一千万个Query,但是由于重复度比较高,因此事实上只有300万的Query,每个Query255Byte,因此我们可以考虑把他们都放进内存中去,而现在只是需要一个合适的数据结构,在这里,Hash Table绝对是我们优先的选择,因为Hash Table的查询速度非常的快,几乎是O(1)的时间复杂度。
    
    那么,我们的算法就有了:维护一个Key为Query字串,Value为该Query出现次数的HashTable,每次读取一个Query,如果该字串不在Table中,那么加入该字串,并且将Value值设为1;如果该字串在Table中,那么将该字串的计数加一即可。最终我们在O(N)的时间复杂度内完成了对该海量数据的处理。
    
    本方法相比算法1:在时间复杂度上提高了一个数量级,为O(N),但不仅仅是时间复杂度上的优化,该方法只需要IO数据文件一次,而算法1的IO次数较多的,因此该算法2比算法1在工程上有更好的可操作性。
    

    2.找出Top 10的query

    算法一:普通排序

    我想对于排序算法大家都已经不陌生了,这里不在赘述,我们要注意的是排序算法的时间复杂度是NlgN,在本题目中,三百万条记录,用1G内存是可以存下的。
    

    算法二:部分排序

    题目要求是求出Top10,因此我们没有必要对所有的Query都进行排序,我们只需要维护一个10个大小的数组,初始化放入10个Query,按照每个Query的统计次数由大到小排序,然后遍历这300万条记录,每读一条记录就和数组最后一个Query对比,如果小于这个Query,那么继续遍历,否则,将数组中最后一条数据淘汰,加入当前的Query。
    最后当所有的数据都遍历完毕之后,那么这个数组中的10个Query便是我们要找的Top10了。不难分析出,这样,算法的最坏时间复杂度是N*K, 其中K是指top多少。
    

    算法三:10个query之间利用二分查找

    在算法二中,我们已经将时间复杂度由NlogN优化到NK,不得不说这是一个比较大的改进了,可是有没有更好的办法呢?
    分析一下,在算法二中,每次比较完成之后,需要的操作复杂度都是K,因为要把元素插入到一个线性表之中,而且采用的是顺序比较。
    这里我们注意一下,该数组是有序的,一次我们每次查找的时候可以采用二分的方法查找,这样操作的复杂度就降到了logK,可是,随之而来的问题就是数据移动,因为移动数据次数增多了。不过,这个算法还是比算法二有了改进。
    

    算法四: 堆排序

    基于以上的分析,我们想想,有没有一种既能快速查找,又能快速移动元素的数据结构呢?回答是肯定的,那就是堆。
    
    借助堆结构,我们可以在log量级的时间内查找和调整/移动。因此到这里,我们的算法可以改进为这样,维护一个K(该题目中是10)大小的小根堆,然后遍历300万的Query,分别和根元素进行对比。
    
    思想与上述算法二一致,只是算法在算法三,我们采用了最小堆这种数据结构代替数组,把查找目标元素的时间复杂度有O(K)降到了O(logK)。
    那么这样,采用堆数据结构,算法三,最终的时间复杂度就降到了N*logK,和算法二相比,又有了比较大的改进。
    

    总结:

    至此,算法就完全结束了,经过上述第一步、先用Hash表统计每个Query出现的次数,O(N);
    然后第二步、采用堆数据结构找出Top 10,N*O(logK)。
    所以,我们最终的时间复杂度是:O(N) + N'*O(logK)。(N为1000万,K为300万)。
    

    最后一个例子学习记录自:Frank Fan||非常谢谢。整体来说对hash有了进一步的了解,发现以前自己用过hash确没有认出来是hash。js里的hash就可以定义一个对象{},例如{“query1”:30,”query2”:20}这样就可以把值存入键,把次数存入值。当我判断一个query是否在hash里面的时候,可以直接hash[query]如果在的话就将次数加1。关于散列函数和散列冲突方法会接着学习。