第一范文网 - 专业文章范例文档资料分享平台

hanlp中文分词器解读 - 图文

来源:用户分享 时间:2025/5/16 0:36:11 本文由loading 分享 下载这篇文档手机版
说明:文章内容仅供预览,部分内容可能不全,需要完整文档或者需要复制内容,请下载word后使用。下载word有问题请添加微信号:xxxxxxx或QQ:xxxxxx 处理(尽可能给您提供完整文档),感谢您的支持与谅解。

* @return句子列表 */

publicstaticList>seg2sentence(Stringtext) {

returnSEGMENT.seg2sentence(text); } }

publicstaticSegmentnewSegment() {

returnnewViterbiSegment();// Viterbi分词器是目前效率和效果的最佳平衡 } /**

* Viterbi分词器

* 也是最短路分词,最短路求解采用Viterbi算法 *

* @authorhankcs */

publicclassViterbiSegmentextendsWordBasedGenerativeModelSegment

NLP分词 NLP分词 NLPTokenizer 会执行全部命名实体识别和词性标注。,调用方法如下: List termList = NLPTokenizer.segment(\中国科学院计算技术研究所的宗成庆教授正在教授自然语言处理课程\); System.out.println(termList); NLP分词 NLPTokenizer 会执行全部命名实体识别和词性标注。 ? 所以速度比标准分词慢,并且有误识别的情况。

?

publicclassNLPTokenizer { /**

* 预置分词器 */

publicstaticfinalSegmentSEGMENT =

HanLP.newSegment().enableNameRecognize(true).enableTranslatedNameRecognize(true).enableJapaneseNameRecognize(true).enablePlaceRecognize(true).enableOrganizationRecognize(true).enablePartOfSpeechTagging(true);

publicstaticListsegment(Stringtext) {

returnSEGMENT.seg(text); } /** * 分词

* @param text 文本 * @return分词结果 */

publicstaticListsegment(char[]text) {

returnSEGMENT.seg(text); } /**

* 切分为句子形式 * @param text 文本 * @return句子列表 */

publicstaticList>seg2sentence(Stringtext)

{

returnSEGMENT.seg2sentence(text); } }

索引分词 索引分词 IndexTokenizer 是面向搜索引擎的分词器,能够对长词全切分,另外通过 term.offset 可以获取单词在文本中的偏移量。调用方法如下: ListtermList=IndexTokenizer.segment(\主副食品\); for(Termterm:termList) {

System.out.println(term+\

[\+term.offset+\+(term.offset+term.word.length())+\); }

publicclassIndexTokenizer { /**

* 预置分词器 */

publicstaticfinalSegmentSEGMENT = HanLP.newSegment().enableIndexMode(true); publicstaticListsegment(Stringtext) {

returnSEGMENT.seg(text); } /** * 分词

* @param text 文本 * @return分词结果 */

publicstaticListsegment(char[]text) {

returnSEGMENT.seg(text); } /**

* 切分为句子形式 * @param text 文本 * @return句子列表 */

publicstaticList>seg2sentence(Stringtext) {

returnSEGMENT.seg2sentence(text); } }

繁体分词 繁体分词 TraditionalChineseTokenizer 可以直接对繁体进行分词,输出切分后的繁体词语。调用方法如下:

ListtermList=TraditionalChineseTokenizer.segment(\大衛貝克漢不僅僅是名著名球員,球場以外,其妻為前辣妹合唱團成員維多利亞·碧咸,亦由於他擁有突出外表、百變髮型及正面的形象,以至自己品牌的男士香水等商品,及長期擔任運動品牌Adidas的代言人,因此對大眾傳播媒介和時尚界等方面都具很大的影響力,在足球圈外所獲得的認受程度可謂前所未見。\); System.out.println(termList);

搜索更多关于: hanlp中文分词器解读 - 图文 的文档
hanlp中文分词器解读 - 图文.doc 将本文的Word文档下载到电脑,方便复制、编辑、收藏和打印
本文链接:https://www.diyifanwen.net/c1xpwz1lzs462a898ee5g_2.html(转载请注明文章来源)
热门推荐
Copyright © 2012-2023 第一范文网 版权所有 免责声明 | 联系我们
声明 :本网站尊重并保护知识产权,根据《信息网络传播权保护条例》,如果我们转载的作品侵犯了您的权利,请在一个月内通知我们,我们会及时删除。
客服QQ:xxxxxx 邮箱:xxxxxx@qq.com
渝ICP备2023013149号
Top