周末了,大段长篇技术文不发了,知道没人愿意看,但是学习不能落下,毕竟我的心里只有学习
这里分享一个自然语言处理中对中文分词支持比较好的结巴分词库,属于NLP中的重量级分词库,我们通过下面有趣的解绕口令来学习这个库能的基本用法
本文如题所说,用python来解绕口令,先来五组绕口令,自己试验下,看大概怎么断句,有没有晕了
下面看用python来解绕口令,用到jieba库和pandas库
jieba库用来切词,jieba.cut()方法
join方法将列表中逗号替换成空格,并转成字符串
pandas转成dataframe二维数据结构,直观看数据结构和数据处理分析
为了整齐些,把列表类型转换成Dataframe二维数据类型,更直观
整体看下来,结果除了过过和用毒毒两个地方有误,其他都被完美解开,是不是很棒,有兴趣动手试试吧!
领取专属 10元无门槛券
私享最新 技术干货