mirror of
https://github.com/yanyiwu/cppjieba.git
synced 2025-07-18 00:00:12 +08:00
160 lines
4.1 KiB
Markdown
160 lines
4.1 KiB
Markdown
#CppJieba是"结巴"中文分词的C++库
|
||
|
||
## 中文编码
|
||
|
||
现在支持utf8,gbk编码的分词。
|
||
|
||
- `master`分支支持utf8编码
|
||
- `gbk`分支支持gbk编码
|
||
|
||
|
||
## 模块详解
|
||
|
||
### Trie树
|
||
Trie.cpp/Trie.h 负责载入词典的trie树,主要供Segment模块使用。
|
||
|
||
### Segment模块
|
||
|
||
MPSegment.cpp/MPSegment.h
|
||
(Maximum Probability)最大概率法:负责根据Trie树构建有向无环图和进行动态规划算法,是分词算法的核心。
|
||
|
||
### TransCode模块
|
||
|
||
TransCode.cpp/TransCode.h 负责转换编码类型,将utf8和gbk都转换成`uint16_t`类型,也负责逆转换。
|
||
|
||
### HMMSegment模块
|
||
|
||
HMMSegment.cpp/HMMSegment.h
|
||
是根据HMM模型来进行分词,主要算法思路是根据(B,E,M,S)四个状态来代表每个字的隐藏状态。
|
||
HMM模型由dicts/下面的`hmm_model.utf8`提供。
|
||
分词算法即viterbi算法。
|
||
|
||
## Demo
|
||
|
||
### MPSegment's demo
|
||
|
||
__这部分的功能经过线上考验,一直稳定运行,暂时没有发现什么bug。__
|
||
|
||
```
|
||
cd ./demo;
|
||
make;
|
||
./segment_demo testlines.utf8
|
||
```
|
||
|
||
Output:
|
||
```
|
||
我来到北京清华大学
|
||
我/来到/北京/清华大学
|
||
|
||
他来到了网易杭研大厦
|
||
他/来到/了/网易/杭/研/大厦
|
||
|
||
小明硕士毕业于中国科学院计算所,后在日本京都大学深造
|
||
小/明/硕士/毕业/于/中国科学院/计算所/,/后/在/日本京都大学/深造
|
||
```
|
||
|
||
### HMMSegment's demo
|
||
|
||
```
|
||
cd ./demo;
|
||
make;
|
||
./segment_demo testlines.utf8 --modelpath ../dicts/hmm_model.utf8 --algorithm cutHMM
|
||
```
|
||
|
||
Output:
|
||
```
|
||
我来到北京清华大学
|
||
我来/到/北京/清华大学
|
||
他来到了网易杭研大厦
|
||
他来/到/了/网易/杭/研大厦
|
||
小明硕士毕业于中国科学院计算所,后在日本京都大学深造
|
||
小明/硕士/毕业于/中国/科学院/计算所/,/后/在/日/本/京/都/大/学/深/造
|
||
```
|
||
|
||
### MixSegment's demo
|
||
```
|
||
cd ./demo;
|
||
make;
|
||
./segment_demo testlines.utf8 --algorithm cutMix
|
||
```
|
||
|
||
Output:
|
||
```
|
||
我来到北京清华大学
|
||
我/来到/北京/清华大学
|
||
他来到了网易杭研大厦
|
||
他/来到/了/网易/杭研/大厦
|
||
杭研
|
||
杭研
|
||
小明硕士毕业于中国科学院计算所,后在日本京都大学深造
|
||
小明/硕士/毕业/于/中国科学院/计算所/,/后/在/日本京都大学/深造
|
||
```
|
||
|
||
### 效果分析
|
||
|
||
以上依次是MP,HMM,Mix三种方法的效果。
|
||
可以看出效果最好的是Mix,也就是融合MP和HMM的切词算法。即可以准确切出词典已有的词,又可以切出像"杭研"这样的未登录词。
|
||
|
||
## Help
|
||
|
||
本项目主要是如下目录组成:
|
||
|
||
### cppcommon
|
||
|
||
主要是一些工具函数,例如字符串操作等。
|
||
make 之后产生一个libcm.a
|
||
要使用该libcm.a 只需要在代码里面增加
|
||
```cpp
|
||
#include "cppcommon/headers.h"
|
||
using namespace CPPCOMMON;
|
||
```
|
||
在链接时候`-Lcppcommon -lcm` 链接进即可。
|
||
__详细使用细节请参见demo/目录下的代码__
|
||
|
||
### cppjieba
|
||
核心目录,包含主要源代码。
|
||
make 之后产生libcppjieb.a
|
||
使用方法参考如上cppcommon
|
||
|
||
|
||
|
||
### run `./segment_demo` to get help.
|
||
|
||
如下:
|
||
```
|
||
usage:
|
||
./segment_demo[options] <filename>
|
||
options:
|
||
--algorithm Supported methods are [cutDAG, cutHMM, cutMix] for now.
|
||
If not specified, the default is cutDAG
|
||
--dictpath If not specified, the default is ../dicts/jieba.dict.utf8
|
||
--modelpath If not specified, the default is ../dicts/hmm_model.utf8
|
||
If not specified, the default is utf8.
|
||
example:
|
||
./segment_demo testlines.utf8 --dictpath ../dicts/jieba.dict.utf8
|
||
./segment_demo testlines.utf8 --modelpath ../dicts/hmm_model.utf8 --algorithm cutHMM
|
||
./segment_demo testlines.utf8 --modelpath ../dicts/hmm_model.utf8 --algorithm cutMix
|
||
|
||
```
|
||
|
||
## 分词速度
|
||
|
||
### MixSegment
|
||
|
||
分词速度大概是 65M / 78sec = 0.83M/sec
|
||
测试环境: `Intel(R) Xeon(R) CPU E5506 @ 2.13GHz`
|
||
|
||
|
||
## Contact
|
||
|
||
如果有运行问题或者任何疑问,欢迎联系 : wuyanyi09@gmail.com
|
||
|
||
## Thanks
|
||
|
||
"结巴中文"分词作者: SunJunyi
|
||
https://github.com/fxsjy/jieba
|
||
|
||
顾名思义,之所以叫CppJieba,就是边参照边膜拜SunJunyi大神的Jieba分词Python程序写成的,所以饮水思源,再次感谢SunJunyi。
|
||
|
||
|