关键字 Rabin karp 算法, C++, ubuntu 14.04, linux, big integer, gmp
使用 Rabin Karp 算法为一个数据包的负载部分计算哈希序列
void HandleAMission(const char *srcFileName, FILE *output, int blockSize, int samplingRate, int cacheSize) { const int MAGICNUM = 33; // hash for more, refer to const int MAXINTEGER = 4294967295; // biggest unsigned int struct IP_hdr *ip_hdr; struct TCP_hdr *tcp_hdr; struct UDP_hdr *udp_hdr; char *payLoad; char src_ip_char[STRSIZE], dst_ip_char[STRSIZE]; int proto; // udp for 0, tcp for 1 int payLoadLen; PcapParser pcaparser(srcFileName); // init pcapparser // init FIFOCache FIFOCache fifocache(cacheSize); // statistic unsigned long totalByte = 0; unsigned long savingByte = 0; unsigned int localMax; unsigned int candiMax; // init big integer mpz_class product(0); // current product of char array of blocksize mpz_class part(1); // used as temp mpz_class head(0); // leftmost for(int i = 1; i < blockSize; i ++) { head *= MAGICNUM; } while(pcaparser.NextPacket(&ip_hdr, &tcp_hdr, &udp_hdr, proto, &payLoad, payLoadLen) == 0) { if(payLoadLen < 128) continue; // init product for new packet product = 0; totalByte += payLoadLen; // init a key for(int i = 0; i < blockSize; i ++) { product = product * MAGICNUM + (unsigned int)(payLoad[i]); } // Rabin Karp algorithm for(int cursor = 1; cursor+samplingRate < payLoadLen; cursor += samplingRate) { for(int offset = cursor; offset < cursor + samplingRate; offset ++) { product = product - head * (unsigned int)(payLoad[offset-1]); product = product * MAGICNUM; product = product + (unsigned int)(payLoad[offset+blockSize-1]); part = product % MAXINTEGER; candiMax = part.get_ui(); if(candiMax > localMax) { localMax = (unsigned int)candiMax; } } if(fifocache.HasKey(localMax)) { savingByte += blockSize; } else { fifocache.AddKey(localMax); } } } printf("Saving byte is %ld byte\n", savingByte); printf("Total byte is %ld\n", totalByte); printf("Redundancy rate is %lf\n", 1.0*savingByte/totalByte);}
注意, 上面的代码中, Rabin Karp 部分我没有设计成接口, 实际上我写了一个 RabinKarp 类, 但经验告诉我, 处理计算密集型任务时, 不要搞什么花哨的接口, 继承, 重用, 越 dirty(代码都写到一个函数内) 效率越高, 当然即便如此, 我还是设计了个 PcapParse 类用于处理 pcap 文件, 经不住诱惑.
然后我运行了十个 testcase, 结果却不令我满意, 平均 1MB 一秒, 相当于 1GB 要处理 1000s, 对于 T 级别的计算任务来看, 这显然是不可接受的.
我有两条路可以走, 一个是自己设计大整数类, 弃用 gmp big integer, 二是弃用 Rabin Karp, 对输入字符串暴力哈希。
回想自己使用 Rabin Karp 的原因, 是前人的 paper 说 rabin karp 能有效的减少计算时间, 或许 rabin karp 本身足够快, 但因使用 rk 算法引入的 gmp 却太慢, 导致 rk 算法的优势尽失。 我本来就怀疑 gmp 的性能, 而事实的确验证了我的怀疑, gmp 太慢了。
最后选择 murmurhash 暴力哈希,速度翻了一番。