通俗易懂->哈希表详解

通俗易懂->哈希表详解

目录

一、什么是哈希表?

1.1哈希表长什么样?

1.2为什么会有哈希表?

1.3哈希表的特点

1.3.1 取余法、线性探测

1.3.2 映射

1.3.3负载因子

1.4哈希桶

1.5闲散列与开散列

1.6总结

二、设计hash表

1、哈希表的设计

1)插入

2)查找

3)删除

4)字符串哈希算法

2、封装map和set

1、完成对hash表的基础功能

2、完成封装

3、对应的迭代器

4、【】方括号重载

三、设计原码

1、HashTable

2、unordered_map

3、unordered_set

4、test

一、什么是哈希表?

什么是哈希表?

哈希表,顾名思义,就是一个表。

可是为什么叫哈希表?

因为这是从老美那里音译过来的

叫做->Hash Table

翻译过来就是->哈希表

既然是表,那么

第一,哈希表长什么样子?

第二,为什么会有哈希表?

第三,哈希表用来做什么?

第三,哈希表的特点是什么?

第四,什么是取余法?

第五,什么是映射?

第六,什么是线性探测?

第七,什么是哈希桶?

以上相关常见的概念,要怎么理解?是什么?为什么?怎么办?

下面我来一一解析。

1.1哈希表长什么样?

一般哈希表有两种形式(先别问为什么,先看,后面解释)

1.2为什么会有哈希表?

假设你有一个数组或者链表,

传统的数组访问某一个数据,或者链表访问某一个数据,必须遍历,也只有遍历。

假如你的数组长度为100万,你现在要取某个值,而你已经知道这个值在就在数组的中间。

怎么办?

此时,无论从前往后,还是从后往前遍历,都绕不过50万个值。

蛋不蛋疼?蛋疼。

难受不难受?难受。

如果数据规模更大,例如100亿,那更难受。

所以,有困难,有麻烦,就会引发思考:我能不能不用遍历,咔的一下,马上就找到这个值?

显然传统的数据结构无法突破这个难题。

既然旧的不行,干脆,那就搞一个新的。

于是,天空一声巨响,哈希表闪亮登场!

所以,哈希表就是为了解决查找必须遍历的问题而生。

1.3哈希表的特点

如何做到不遍历直接访问到数据?

很简单,非常简单,简单到不能再简单。

举个例子,你有5个值:1, 2, 3, 4 ,10001

我在创建数组的时候,我直接申请10001个空间!

然后所有的数据直接存储在对应的下标位置。

(啊???)

现在你给我一个值,例如说10001。

要我去表里找,此时我不去遍历。

我直接就到数组下标为10001的位置取数据。

因为数组是支持随机访问的。

什么叫做数组随机访问?-CSDN博客(找了半天,关于数组随机访问的博客没有一个满意的,所以我自己写了一个。仅供参考。)

我直接初始位置+10001,直接就拿到数据了。

有毛病没有?没有。

有问题没有?没有。

你会说,是不是太浪费空间了?

是的,非常浪费。

但是,你就说我遍历了没有?没有。

你就说找到了没有?找到了。

你就说快不快吧?快,非常快,O(1)的速度。

所以,解决我们原来要遍历的困扰没有?解决了。

但是,你会发现不对劲,空间太浪费了啊。

假设我有只有2个数据,一个是1,另一个是1000000000000000。

(嗯......?!)

难道我要建立那么大的空间,就为了存这俩货?

不行,很cuo,非常cuo,cuo的一批。

那么,怎么办?

于是,取余法就来了。

1.3.1 取余法、线性探测

现在,我们回到文章开始的地方,哈希表的模样,其中一种是这样的:

为什么是这样的?

下面我们来解释:

假如,我们有以下数据:2,18,22,89,1000000000001

按照原来的办法,我们需要开辟10000000000001个空间,才能构成哈希表

即数据存储在对应位置

但是,这种方式不行,太浪费空间。

怎么办?取余法。

什么是取余法?

很简单,就是取余数。

例如,我们现在有5个数据,那么我们就开10个空间

然后,让这每一个数据%10,得到结果

再将这个结果放到对应的位置。

什么意思?

很简单,现在有6个数据:2,18,22,23,89,1000000000001

2%10 = 2,所以2存放在下标为2的位置

18%10 = 8,所以18存放在下标为8的位置

22%10 = 2,所以22存放在下标为2的位置

但是,现在下标为2的位置已经有了一个值

这个情况,就是所谓的哈希冲突!非常简单,非常好理解对不对?

是的,就是这么简单。不要被一些看似很牛b的概念给困住了。

所有的概念都只不过是为了更好的概括和综合某个现象,方便于你理解,仅此而已。

学习新事物,也是如此。

好的,那么,这个位置冲突了,怎么办?

那就放到后面没有冲突的位置。

下标为3的位置没有冲突,所以,放到3

23%10 = 3,所以23存放在下标为3的位置

但是,同样的,下标为3的位置已经有数据了。

即所谓哈希冲突了。

怎么办?

很简单,同样的道理,往后挪

挪到没有冲突的位置。

所以,往后下标4的位置没有数据,所以23存在下标为4的位置

89%10 = 9,所以89存放在下标为9的位置

1000000000001%10 = 1,所以1000000000001存放在下标为1的位置

于是,这6个数据,即使有数据为1000000000001那么大的值,

我们也仅仅用了10个空间就存储下来了。

那么,如何取出数据呢?

同样的,很简单,例如取18,将18%10=8,然后到下标为8的位置取即可。

但是,22呢?22%10=2,但是22却不在下标为2的位置。

怎么办?

往后找。

23呢?也不在下标为3的位置。

怎么办?

还是往后找。

如果当前位置找不到值,就往后挨个查找,直到找到。

往后找,就像是探测,而且是一个一个探测,是线性的查找。

这就是所谓线性探测!

所以,我们把这个表,就叫做线性探测表

非常简单!有手就行。

1.3.2 映射

同时,你会发现:

22并不是存在下标为22的位置,而是存在下标为2的位置

1000000001也不是存在下标为1000000001的位置,而是存在下标为1的位置

这就是所谓映射!

即,值与值之间的关联,一种关系。

22和下标为2的位置的映射关系。

1000000001和下标为1的位置的映射关系。

还可以这么理解:

你名字叫做张三,你的女朋友叫做李四。

别人叫张三,叫的是你,而不是你女朋友。

这就是映射,张三映射你,李四映射你女朋友。

这就是一对一映射。

同时,还会有这一种情况:

你遇到了一个人,她名字也叫做张三!

现在,有人叫张三的名字,但是张三有两个人。

所以,张三映射对应两个人。

甚至,同一个名字的人会有很多很多,例如说张伟这个名字,直接顶一个县城。

这,就是一对多的映射。

1.3.3负载因子

取余法,解决数据存放空间太大的问题

好了,现在我们已经解决了空间太大的问题。

但是,问题又来了。

什么问题?

例如,假设我们的数据老是冲突,怎么办?

这个时候的访问,就会偏离我们初始的目的,即不遍历

因为访问一个数据,老是要往后遍历,很麻烦

随着数据的增多,冲突的概率增加,查找的成本越来越高。

也就是说,问题源于数据太多,而空间不够

怎么办?

很简单,扩容。

那么,我们应该什么时候扩容呢?

很简单,用负载因子判断。

好,什么是负载因子?

负载因子就是数据个数所占整个空间的比率。

例如

10个空间,有2个数据

负载因子就是0.2

10个空间,有7个数据

负载因子就是0.7

所以,每插入一个位置,我们就让负载因子+1

而一般来说,负载因子达到0.7就要进行扩容。

1.4哈希桶

回到文章开始,我们说哈希表一般有两种形式,

一个叫做线性探测表,前面已经解释清楚。

另一个,叫做哈希桶。

长这个样子:

我们已经知道哈希桶长什么样子,下面我们来解释:

为什么要有哈希桶?

假如我有一组数据。

这一组数据是:2,22,222,2222,22222,222222,2222222,22222222........

好的,数据我给你了。

你存吧。

你想要怎么存?

如果按照线性探测表的方式进行存储:

好家伙,你一看数据,你发现

取余数,结果全是2

存一个冲突一个

存两个冲突两个

存三个冲突三个

.....

从头冲突到尾,没完没了。

怎么办?

很明显,线性探测形式的哈希表有着致命的弱点

即无法对余数相同的数据进行处理

冲突了,只有往后放

我的位置冲突了,我就去放别人的位置,让别人冲突

(没错,就是这么强大,你打我啊)

如此一来,当数据越来越多时,哈希冲突的概率将会越来越大

哈希冲突多了,就会导致查找的成本越来越高

哈希表的优势也会越来越微弱

怎么办?

于是,哈希桶来了。

我这么存:

我现在无论是存12,22,32,42,52还是222222222222

还会和其他位置冲突吗?

不会。

哈希桶将冲突的值,放到同一个位置下,用单链表管理起来

哈希桶的结构,极大的优化了线性探测表无法处理哈希冲突的缺点

同时,单链表的访问,其时间复杂度也控制在O(n)的量级。

非常棒。

哈希桶也存在负载因子的问题,

和线性探测负载因子是一样的逻辑

同样,也是大于0.7就进行扩容

扩容是对数组的扩容

而扩容之后,单链表的长度也会变短

为什么?

例如空间从10变为100

原来2,12,22,32,42,52,62,72,82,92等值都只能挂在下标2的位置

但是当空间变为100

瞬间,所有的值都有了自己对应的下标位置

原本长度为10的哈希桶,直接变为1

优化效果相当棒

这,就是哈希桶

同学,都看到这了,顺手给咱点个赞吧~

1.5闲散列与开散列

1、闲散列:开放定址法(线性探测/二次探测)

二次检测:当数据比较集中的时候,查找会比较慢,

为了更快的查找,下一个位置查找偏移量不为1,可以为2次方

思路:我的位置被别人占了,我就去占别人得位置

冲突越多,效率越低

因此,有人提出了开散列

2、开散列:哈希桶/拉链法

1.6总结

综上,我们来总结一下:

1、值很分散,因此哈希表也叫做散列表

2、有些值不好映射,比如string,结构体等

3、开空间问题,即哈希冲突

4、哈希表是用哈希思想实现的一种数据结构

hash更多的来说,是一种思想

例如编码表也是一种哈希编码的运用

例如经典的ASCII码表

同时,有时候你会发现你打开某些文件,会出现乱码

为什么?

因为码表对错了,原本这个文件要拿表A来映射

结果拿成表B来映射了

所以结果就是乱码

乱码的本质是编码表对乱了

以上就是关于哈希表的基础概念和知识。

下面博主要带大家设计出一个简易版哈希表

即unordered_set和unordered_map

使用c++实现,总体还是比较难的

涉及模板、多层嵌套封装、泛型编程、内外部类、友元等

需要有一定的c++基础。

其实简单理解就够了,不必跟着我写出一个。

二、设计hash表

1、哈希表的设计

1)插入

如果位置不被占,插入;如果位置被占,遇到空才插入

插入逻辑:

先是数据%size,为什么是size而不是capacity呢?

因为capacity后面的的值是没法访问的,end位置是size前一个位置

然后找到空/被删除的位置,插入,n++

n是记录哈希表个数的值,为什么不用size呢?

因为hash表是离散的表

如果hash表数值很多,就有很大的概论发生冲突

怎么办?

设置一个负载因子,用来记录hash表内的数据个数的占比

一般是0.7~0.8

如果hash表满了呢?在找空/被删除位置时,就会出现死循环的问题

满了就扩容

扩容之后,原有的值不能拷贝,需要重新映射,新的hash表的size是原有空间的2倍

处理数据冗余:插入前利用find

2)查找

遇到空才停止,但是如果中间位置有空位置,就查不到后面的位置,如何解决?

设置一个位置状态:EMPTY、DELETE,EXIST

3)删除

删除的值不必抹除,而是将状态设置为DELETE。

如果抹除,设置为什么值都不合适

因此,删除是一个伪删除,查找值时依旧能找到

在Find函数需要特殊判断,即存在才查找

如果数据不能取%怎么办?

例如string数据类型

用仿函数进行解决

对于整型、浮点型、指针都进行size_t强转为整型,就可以取%

但是string不可以转化为整型

怎么办?

单独写一个为string转换的仿函数

这个仿函数返回string【0】

4)字符串哈希算法

把字符串转型为整型

将每一个字符的ASCII值*某个数值,累计加

最后每一个字符串的结果一般都不会重复,但是依旧会重复

string很常见,那可以对仿函数使用特化

什么是特化?就是对某些类进行特殊化处理

就是不适用模板推广,而是直接使用

2、封装map和set

1、完成对hash表的基础功能

一个哈希表要有的功能:

插入、删除、遍历(迭代器)

2、完成封装

插入、删除、查找的接口封装

3、对应的迭代器

1)首先是一个迭代器对象,完成对象的简单框架

哈希表的迭代器,需要哈希表本身,以及哈希表对应位置的节点

其内部的哈希表,需要外部调用对象哈希表来初始化

2)++重载

1、先算出当前所在位置

2、当前位置的下一个位置不为空,那就是有直接返回

3、当前位置为空,要继续找后面的位置

4、【】方括号重载

返回值是一个pair,第一个参数是迭代器,第二个参数是bool,判断是否添加成功

如果已经存在,返回已存在节点的迭代器,以及false

如果节点不存在,返回新插入节点的迭代器,以及true

需要修改insert的返回值

以及find的返回值

这样就可以直接对find和insert进行复用

方括号重载返回值为value

三、设计原码

1、HashTable

#pragma once

#include

#include

using namespace std;

//设计一个hash表

//哈希表是一个vector数组

//节点存储的是一个pair节点

//使用模板编程

//如果插入的是string,就不能取%

//怎么办?字符串哈希算法

//使用仿函数

enum State

{

EXIST,

DELETE,

EMPTY

};

template

struct hashFunc

{

size_t operator()(const K& key)

{

return (size_t)key;

}

};

template<>

struct hashFunc

{

size_t operator()(const string& key)

{

size_t ret = 0;

for (auto ch : key)

{

ret *= 131;

ret += ch;

}

return ret;

}

};

namespace hash

{

//哈希表节点

template

struct HashData

{

pair _kv;

State _state = EMPTY;

};

//定义哈希表

template>

class HashTable

{

public:

typedef HashData Node;

HashTable()

{

_tables.resize(10);

}

//插入

bool Insert(const pair& kv)

{

if (Find(kv.first))

{

return false;

}

//检查扩容

if (_n / _tables.size() >= 0.7)

{

size_t newSize = _tables.size() * 2;

HashTable newHashTable;

newHashTable._tables.resize(newSize);

//重新插入新空间

for (size_t i = 0; i < _tables.size(); ++i)

{

newHashTable.Insert(_tables[i]._kv);

}

}

//1、找到插入的位置,取%

Hash hs;

size_t hashi = hs(kv.first) % _tables.size();

while (_tables[hashi]._state != EMPTY)

{

++hashi;

}

//3、插入,更新负载因子

_tables[hashi]._kv = kv;

_tables[hashi]._state = EXIST;

_n++;

return true;

}

//查找

Node* Find(const K& key)

{

Hash hs;

size_t hashi = hs(key) % _tables.size();

while (_tables[hashi]._state != EMPTY)

{

if (_tables[hashi]._state == EXIST &&

_tables[hashi]._kv.first == key)

{

return &_tables[hashi];

}

++hashi;

hashi %= _tables.size();

}

return nullptr;

}

size_t size()

{

return _n;

}

//删除

bool Erase(const K& key)

{

Node* cur = Find(key);

if (cur)

{

cur->_state = DELETE;

--_n;

return true;

}

return false;

}

private:

vector> _tables;

size_t _n = 0;

};

void HashTest()

{

HashTable ht;

ht.Insert({ 1,1 });

ht.Insert({ 2,2 });

ht.Insert({ 3,3 });

ht.Insert({ 4,4 });

ht.Insert({ 3,3 });

ht.Insert({ 3,3 });

cout << ht.Find(1) << endl;

cout << ht.Find(2) << endl;

cout << ht.Find(3) << endl;

cout << ht.Find(4) << endl;

cout << ht.size() << endl;

ht.Erase(1);

ht.Erase(2);

cout << ht.size() << endl;

}

void HashTest1()

{

HashTable ht;

ht.Insert({ "abcd",1});

ht.Insert({ "edasdfas",2});

ht.Insert({ "kahkahdk",3});

ht.Insert({ "ohjahsflhasf",4});

cout << ht.size() << endl;

size_t ret = hashFunc()("dasldfhalf");

size_t ret1 = hashFunc()("sad");

cout << ret << endl;

cout << ret1 << endl;

}

}

////////////////////////////////////////////////////////

//哈希桶实现

namespace hash_bucket

{

//哈希节点,是一个链表

template

struct HashNode

{

T _data;

HashNode* _next;

HashNode(const T& data)

:_data(data)

, _next(nullptr)

{

}

};

////前置声明

//template

//class HashTable;

////实现迭代器

//template

//struct __HSIterator//这个是给hash表底层使用的迭代器对象

//{

// typedef HashNode Node;

// typedef HashTable Self;

// HashTable* _pht;

// Node* _node;

// __HSIterator(const Node* node, const HashTable* pht)

// :_pht(pht)

// ,_node(node)

// {

// }

// //++

// Self& operator++()//返回结构体对象

// {

// KeyOfT kot;

// Hash hs;

// size_t hashi = hs(kot(_node->_data)) % _pht->_tables.size();

// Node* cur = _pht->_tables[hashi];

//

// if (_node->_next)

// {

// _node = _node->_next;

// }

// else//该节点为空

// {

// while (hashi < _pht->_tables.size())

// {

// if (cur == nullptr)

// {

// ++hashi;

// }

// else

// {

// break;

// }

// }

// if (hashi == _pht->_tables.size())

// {

// _node = nullptr;

// }

// else

// {

// _node = _pht->_tables[hashi];

// }

// }

//

// return *this;

// }

// //解引用*

// T& operator*()

// {

// return _node->_data;

// }

// T* operator->()

// {

// return &_node->_data;

// }

// bool operator!=(const Self& s)

// {

// return _node != s._node;

// }

//};

//哈希表

template

class HashTable

{

public:

////友元声明(但是这种方式的代码过于冗余)

//template

//friend struct __HSIterator;

//内部类

template

struct __HSIterator//这个是给hash表底层使用的迭代器对象

{

typedef HashNode Node;

typedef __HSIterator Self;

const HashTable* _pht;

Node* _node;

__HSIterator( Node* node, const HashTable* pht)

:_pht(pht)

, _node(node)

{

}

//++

Self& operator++()//返回结构体对象

{

if (_node->_next)

{

_node = _node->_next;

}

else//该节点为空

{

KeyOfT kot;

Hash hs;

size_t hashi = hs(kot(_node->_data)) % _pht->_tables.size();

++hashi;

while (hashi < _pht->_tables.size())

{

if (_pht->_tables[hashi])

break;

++hashi;

}

if (hashi == _pht->_tables.size())

{

_node = nullptr;

}

else

{

_node = _pht->_tables[hashi];

}

}

return *this;

}

//解引用*

Ref operator*()

{

return _node->_data;

}

Ptr operator->()

{

return &_node->_data;

}

bool operator!=(const Self& s)

{

return _node != s._node;

}

};

typedef __HSIterator iterator;

iterator begin()

{

//找到第一个非空节点

for (int i = 1;i< _tables.size(); ++i)

{

if (_tables[i])

{

return iterator(_tables[i], this);

}

}

return end();

}

iterator end()

{

//直接是空

return iterator(nullptr, this);

}

typedef HashNode Node;

public:

HashTable()

{

_tables.resize(10,nullptr);

}

//插入

pair Insert(const T& data)

{

Hash hs;//取模仿函数

KeyOfT kot;//取key仿函数

iterator it = Find(kot(data));

if (it._node != nullptr)//存在节点

{

return make_pair(it, false);

}

//扩容

if (_n == _tables.size())

{

vector newTable(_tables.size() *2,nullptr);

for (size_t i = 0; i<_tables.size(); ++i)

{

//首先,插入头节点

Node* cur = _tables[i];

//再处理后面的串

while (cur)

{

Node* next = cur->_next;

size_t hashi = hs(kot(cur->_data)) % newTable.size();

//头插

cur->_next = newTable[hashi];

newTable[hashi] = cur;

cur = next;

}

}

_tables.swap(newTable);

}

size_t hashi = hs(kot(data)) % _tables.size();

Node* newNode = new Node(data);

newNode->_next = _tables[hashi];

_tables[hashi] = newNode;

++_n;

return make_pair(iterator(newNode, this), true);

}

//查找

iterator Find(const K& key)

{

Hash hs;

KeyOfT kot;

size_t hashi = hs(key) % _tables.size();

Node* cur = _tables[hashi];

while (cur)

{

if (kot(cur->_data) == key)

{

return iterator(cur, this);

}

cur = cur->_next;

}

return iterator(nullptr, this);

}

size_t size()

{

return _n;

}

//删除

bool Erase(const K& key)

{

KeyOfT kot;

KeyOfT hs;

Node* prev = nullptr;

size_t hashi = hs(key) % _tables.size();

Node* cur = _tables[hashi];

while (cur)

{

if (kot(cur->_data) == key)

{

//如果是第一个节点

if (prev == nullptr)

{

_tables[hashi] = cur->_next;

}

else

{

prev->_next = cur->_next;

}

delete cur;

return true;

}

else

{

prev = cur;

cur = cur->_next;

}

}

return false;

}

private:

vector _tables;

size_t _n = 0;

};

//void test_hash_bucket1()

//{

// HashTable hb;

// hb.Insert({"asada",1});

// hb.Insert({"DASDAS",1});

// hb.Insert({"DASDAS",1});

// hb.Insert({"DASDAS",1});

// hb.Insert({"DASDAS",1});

// hb.Insert({"DASDAS",1});

// hb.Insert({"DASbAS",1});

// hb.Insert({"HHDH",1});

// //cout << hb.Erase("") << endl;

// cout << hb.size() << endl;

// cout << hb.Find("asada") << endl;

// cout << hb.Find("DASDAS") << endl;

// cout << hb.Find("HHDH") << endl;

//

//}

//void test_hash_bucket2()

//{

// vector v = {1,2,3,4,5,65,6,7,8,9,90,0,2,3,23,45,232};

// HashTable hb;

// for (size_t i = 0; i

// {

// if (i == 9)

// {

// int j = 0;

// }

// hb.Insert(make_pair(v[i],v[i]));

// }

// cout << hb.size() << endl;

//}

}

2、unordered_map

#pragma once

#pragma once

#include"HashTable.h"

namespace my_unordered_map {

template >

class unordered_map

{

public:

//仿函数d

struct MapKeyOfT

{

const K& operator()(const pair& kv)

{

return kv.first;

}

};

typedef typename hash_bucket::HashTable, Hash, MapKeyOfT>::iterator iterator;

iterator begin()

{

return _ht.begin();

}

iterator end()

{

return _ht.end();

}

pair insert(const pair& kv)

{

return _ht.Insert(kv);

}

iterator find(const K& key)

{

return _ht.Find(key);

}

bool erase(const K& key)

{

return _ht.Erase(key);

}

//方括号重载

V& operator[](const K& key)

{

pair ret = _ht.Insert(make_pair(key, V()));//V()为匿名对象

return ret.first->second;

}

private:

hash_bucket::HashTable, Hash, MapKeyOfT> _ht;

};

void test_unordered_map()

{

unordered_map um;

um.insert({1,1});

um.insert({2,1});

um.insert({3,1});

um.insert({4,1});

um.insert({5,1});

um.insert({6,1});

um.find(1);

//cout << um.find(2) << endl;

//cout << um.find(200) << endl;

}

void test_unordered_map1()

{

unordered_map um;

um.insert({ 1,1 });

um.insert({ 2,1 });

um.insert({ 3,1 });

um.insert({ 4,1 });

um.insert({ 5,1 });

um.insert({ 6,1 });

um[7];

um[8];

um[9];

um[10];

um[11]++;

unordered_map::iterator it = um.begin();

while (it != um.end())

{

cout << it->first << " ";

++it;

}

cout << endl;

}

void test_unordered_map2()

{

string arr[] = { "苹果", "西瓜", "苹果", "西瓜", "苹果", "苹果", "西瓜",

"苹果", "香蕉", "苹果", "香蕉","苹果","草莓", "苹果","草莓" };

unordered_map countMap;

for (auto& e : arr)

{

countMap[e]++;

}

for (auto e : countMap)

{

cout << e.first << ":" << e.second << endl;

}

cout << endl;

}

};

3、unordered_set

#pragma once

#include"HashTable.h"

namespace my_unorded_set {

template >

class unorded_set

{

public:

struct SetKeyOfT

{

const K& operator()(const K& key)

{

return key;

}

};

typedef typename hash_bucket::HashTable< K,const K, Hash, SetKeyOfT>::iterator iterator;

iterator beigin()

{

return _ht.begin();

}

iterator end()

{

return _ht.end();

}

pair insert(const K& key)

{

return _ht.Insert(key);

}

iterator find(const K& key)

{

return _ht.Find(key);

}

bool erase(const K& key)

{

return _ht.Erase(key);

}

private:

hash_bucket::HashTable _ht;

};

void test_unordered_set()

{

unorded_set us;

us.insert(1);

us.insert(2);

us.insert(3);

us.insert(4);

us.insert(6);

us.insert(7);

//cout << us.find(1) << endl;

//cout << us.find(100) << endl;

cout << "//////////////////////////////" << endl;

cout << us.erase(100) << endl;

cout << us.erase(1) << endl;

}

void test_unordered_set1()

{

unorded_set us;

us.insert(99);

us.insert(4);

us.insert(6);

us.insert(7);

us.insert(9);

us.insert(2);

us.insert(3);

us.insert(11);

us.insert(1);

us.insert(96);

us.insert(16);

us.insert(56);

us.insert(50);

us.insert(57);

us.insert(58);

us.erase(11);

unorded_set::iterator it = us.beigin();

while (it != us.end())

{

cout << *it << " ";

++it;

}

cout << endl;

}

};

4、test

#include"unordered_set.h"

#include"unordered_map.h"

int main()

{

//hash_bucket::test_hash_bucket1();

cout << "unordered_set" << ":";

my_unorded_set::test_unordered_set1();

cout << "unordered_map" << ":";

my_unordered_map::test_unordered_map1();

cout << "unordered_map方括号重载测试" << ":" << endl;;

my_unordered_map::test_unordered_map2();

return 0;

}

相关推荐

惠威音响
beat365中国在线体育

惠威音响

📅 07-02 👁️ 8180
Google Photos:每个用户都应该知道的 12 个功能
beat365中国在线体育

Google Photos:每个用户都应该知道的 12 个功能

📅 08-08 👁️ 2573
提高腾讯QQ(电脑版)语音通话、视频聊天和远程协助的稳定性的方法
《QQ》怎么查看特别关心有哪些
beat365中国在线体育

《QQ》怎么查看特别关心有哪些

📅 08-17 👁️ 8796
碗上的标签怎么去掉(碗上的纸标签怎么去除)
365买球官网入口

碗上的标签怎么去掉(碗上的纸标签怎么去除)

📅 07-15 👁️ 4321
硬盘双硬盘笔记
365买球官网入口

硬盘双硬盘笔记

📅 06-28 👁️ 8404
钣金工具套装
365bet网站

钣金工具套装

📅 08-11 👁️ 9251
倪大红和倪萍什么关系 两个人是亲戚吗
beat365中国在线体育

倪大红和倪萍什么关系 两个人是亲戚吗

📅 07-06 👁️ 9643
「梦幻西游」按揭年卡送多少仙玉
365bet网站

「梦幻西游」按揭年卡送多少仙玉

📅 08-09 👁️ 6404