文章节选自《自然语言处理技术入门与实战》
欢迎留言!
在自然语言处理中,另外一个重要的应用领域,就是文本的自动撰写。关键词、关键短语、自动摘要提取都属于这个领域中的一种应用。不过这些应用,都是由多到少的生成。这里我们介绍其另外一种应用:由少到多的生成,包括句子的复写,由关键词、主题生成文章或者段落等。
基于关键词的文本自动生成模型
本章第一节就介绍基于关键词生成一段文本的一些处理技术。其主要是应用关键词提取、同义词识别等技术来实现的。下面就对实现过程进行说明和介绍。
场景
在进行搜索引擎广告投放的时候,我们需要给广告撰写一句话描述。一般情况下模型的输入就是一些关键词。比如我们要投放的广告为鲜花广告,假设广告的关键词为:“鲜花”、“便宜”。对于这个输入我们希望产生一定数量的候选一句话广告描述。
对于这种场景,也可能输入的是一句话,比如之前人工撰写了一个例子:“这个周末,小白鲜花只要99元,并且还包邮哦,还包邮哦!”。需要根据这句话复写出一定数量在表达上不同,但是意思相近的语句。这里我们就介绍一种基于关键词的文本(一句话)自动生成模型。
原理
模型处理流程如图1所示。
图1
图2
实现
实现候选语句计算的代码如下:
Map<String, Double> result = new HashMap<String, Double>(); if (type == 0) {//输入为关键词 result = getKeyWordsSentence(keyWordsList); }else { result = getWordSimSentence(sentence); } //得到候选集数量大于等于要求的数量则对结果进行裁剪 if (result.size() >= number) { result = sub(result, number); }else { //得到候选集数量小于要求的数量则对结果进行添加 result = add(result, number); }
实现语句相似筛选计算的代码如下。
for (String sen : sentenceList) { //对待识别语句进行分词处理 List<Item> wordsList1 = parse(sentence); List<Item> wordsList2 = parse(sen); //首先判断两个语句是不是满足目标变换 boolean isPatternSim = isPatternSimSentence(wordsList1, wordsList2); if (!isPatternSim) {//不满足目标变换 //首先计算两个语句的bi-gram相似度 double tmp = getBigramSim(wordsList1, wordsList2); //这里的筛选条件是相似度小于阈值,因为bi-gram的相似度越小,代表两者越相似 if (threshold > tmp) { result.put(sen,tmp); } }else { result.put(sen,0.0); } }
拓展
本节处理的场景是:由文本到文本的生成。这个场景一般主要涉及:文本摘要、句子压缩、文本复写、句子融合等文本处理技术。其中本节涉及文本摘要和句子复写两个方面的技术。文本摘要如前所述主要涉及:关键词提取、短语提取、句子提取等。句子复写则根据实现手段的不同,大致可以分为如下几种。
RNN模型实现文本自动生成
6.1.2节介绍了基于短文本输入获得长文本的一些处理技术。这里主要使用的是RNN网络,利用其对序列数据处理能力,来实现文本序列数据的自动填充。下面就对其实现细节做一个说明和介绍。
场景
在广告投放的过程中,我们可能会遇到这种场景:由一句话生成一段描述文本,文本长度在200~300字之间。输入也可能是一些主题的关键词。
这个时候我们就需要一种根据少量文本输入产生大量文本的算法了。这里介绍一种算法:RNN算法。在5.3节我们已经介绍了这个算法,用该算法实现由拼音到汉字的转换。其实这两个场景的模式是一样的,都是由给定的文本信息,生成另外一些文本信息。区别是前者是生成当前元素对应的汉字,而这里是生成当前元素对应的下一个汉字。
原理
同5.3节一样,我们这里使用的还是Simple RNN模型。所以整个计算流程图如图3所示。
图3
代码
实现特征训练计算的代码如下:
public double train(List<double[]> x, List<double[]> y) { alreadyTrain = true; double minError = Double.MAX_VALUE; for (int i = 0; i < totalTrain; i++) { //定义更新数组 double[][] weightLayer0_update = new double[weightLayer0.length][weightLayer0[0].length]; double[][] weightLayer1_update = new double[weightLayer1.length][weightLayer1[0].length]; double[][] weightLayerh_update = new double[weightLayerh.length][weightLayerh[0].length]; List<double[]> hiddenLayerInput = new ArrayList<double[]>(); List<double[]> outputLayerDelta = new ArrayList<double[]>(); double[] hiddenLayerInitial = new double[hiddenLayers]; //对于初始的隐含层变量赋值为0 Arrays.fill(hiddenLayerInitial, 0.0); hiddenLayerInput.add(hiddenLayerInitial); double overallError = 0.0; //前向网络计算预测误差 overallError = propagateNetWork(x, y, hiddenLayerInput, outputLayerDelta, overallError); if (overallError < minError) { minError = overallError; }else { continue; } first2HiddenLayer = Arrays.copyOf(hiddenLayerInput.get(hiddenLayerInput.size()-1), hiddenLayerInput.get(hiddenLayerInput.size()-1).length); double[] hidden2InputDelta = new double[weightLayerh_update.length]; //后向网络调整权值矩阵 hidden2InputDelta = backwardNetWork(x, hiddenLayerInput, outputLayerDelta, hidden2InputDelta,weightLayer0_update, weightLayer1_update, weightLayerh_update); weightLayer0 = matrixAdd(weightLayer0, matrixPlus(weightLayer0_update, alpha)); weightLayer1 = matrixAdd(weightLayer1, matrixPlus(weightLayer1_update, alpha)); weightLayerh = matrixAdd(weightLayerh, matrixPlus(weightLayerh_update, alpha)); } return -1.0; }
实现预测计算的代码如图下:
public double[] predict(double[] x) { if (!alreadyTrain) { new IllegalAccessError("model has not been trained, so can not to be predicted!!!"); } double[] x2FirstLayer = matrixDot(x, weightLayer0); double[] firstLayer2Hidden = matrixDot(first2HiddenLayer, weightLayerh); if (x2FirstLayer.length != firstLayer2Hidden.length) { new IllegalArgumentException("the x2FirstLayer length is not equal with firstLayer2Hidden length!"); } for (int i = 0; i < x2FirstLayer.length; i++) { firstLayer2Hidden[i] += x2FirstLayer[i]; } firstLayer2Hidden = sigmoid(firstLayer2Hidden); double[] hiddenLayer2Out = matrixDot(firstLayer2Hidden, weightLayer1); hiddenLayer2Out = sigmoid(hiddenLayer2Out); return hiddenLayer2Out; }
拓展
文本的生成,按照输入方式不同,可以分为如下几种:
其中第2、第3种最近发展得非常快,特别是随着深度学习、知识图谱等前沿技术的发展。基于图像生成文本描述的试验成果在不断被刷新。基于GAN(对抗神经网络)的图像文本生成技术已经实现了非常大的图谱,不仅能够根据图片生成非常好的描述,还能根据文本输入生成对应的图片。
由数据生成文本,目前主要应用在新闻撰写领域。中文和英文的都有很大的进展,英文的以美联社为代表,中文的则以腾讯公司为代表。当然这两家都不是纯粹地以数据为输入,而是综合了上面4种情况的新闻撰写。
从技术上来说,现在主流的实现方式有两种:一种是基于符号的,以知识图谱为代表,这类方法更多地使用人的先验知识,对于文本的处理更多地包含语义的成分。另一种是基于统计(联结)的,即根据大量文本学习出不同文本之间的组合规律,进而根据输入推测出可能的组合方式作为输出。随着深度学习和知识图谱的结合,这两者有明显的融合现象,这应该是实现未来技术突破的一个重要节点。