# FoolNLTK **Repository Path**: wichell/FoolNLTK ## Basic Information - **Project Name**: FoolNLTK - **Description**: 中文处理工具包,可能不是最快的开源中文分词,但很可能是最准的开源中文分词 - **Primary Language**: Python - **License**: Apache-2.0 - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 50 - **Created**: 2018-03-14 - **Last Updated**: 2022-05-29 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README # FoolNLTK 中文处理工具包 ## 特点 * 可能不是最快的开源中文分词,但很可能是最准的开源中文分词 * 基于[BiLSTM模型](http://www.aclweb.org/anthology/N16-1030 )训练而成 * 包含分词,词性标注,实体识别, 都有比较高的准确率 * 用户自定义词典 * 可训练自己的模型 * 批量处理 ## 定制自己的模型 ```bash get clone https://github.com/rockyzhengwu/FoolNLTK.git cd FoolNLTK/train ``` 详细训练步骤可参考[文档](./train/README.md) 仅在linux Python3 环境测试通过 ## Install ```bash pip install foolnltk ``` ## 使用说明 ##### 分词 ``` import fool text = "一个傻子在北京" print(fool.cut(text)) # ['一个', '傻子', '在', '北京'] ``` 命令行分词, 可指定```-b```参数,每次切割的行数能加快分词速度 ```bash python -m fool [filename] ``` ###### 用户自定义词典 词典格式格式如下,词的权重越高,词的长度越长就越越可能出现, 权重值请大于1 ``` 难受香菇 10 什么鬼 10 分词工具 10 北京 10 北京天安门 10 ``` 加载词典 ```python import fool fool.load_userdict(path) text = ["我在北京天安门看你难受香菇", "我在北京晒太阳你在非洲看雪"] print(fool.cut(text)) #[['我', '在', '北京', '天安门', '看', '你', '难受', '香菇'], # ['我', '在', '北京', '晒太阳', '你', '在', '非洲', '看', '雪']] ``` 删除词典 ```python fool.delete_userdict(); ``` ##### 词性标注 ``` import fool text = ["一个傻子在北京"] print(fool.pos_cut(text)) #[[('一个', 'm'), ('傻子', 'n'), ('在', 'p'), ('北京', 'ns')]] ``` ##### 实体识别 ``` import fool text = ["一个傻子在北京","你好啊"] words, ners = fool.analysis(text) print(ners) #[[(5, 8, 'location', '北京')]] ``` #### 注意 * 有找不到模型文件的, 可以看下```sys.prefix```,一般默认为```/usr/local/```