前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >MLSQL解决了什么问题

MLSQL解决了什么问题

作者头像
用户1332428
发布2018-07-30 15:32:37
8080
发布2018-07-30 15:32:37
举报
文章被收录于专栏:人工智能LeadAI

正文共1259个字,预计阅读时间8分钟。

先看看做算法有哪些痛点(我们假设大部分算法的代码都是基于Python的):

1、项目难以重现,可阅读性和环境要求导致能把另外一个同事写的python项目运行起来不得不靠运气

2、和大数据平台衔接并不容易,需要让研发重新做工程实现,导致落地周期变长。

3、训练时数据预处理/特征化无法在预测时复用

4、集成到流式,批处理和提供API服务都不是一件容易的事情

5、代码/算法复用级别有限,依赖于算法自身的经验以及自身的工具箱,团队难以共享。

6、其他团队很难接入算法的工作

MLSQL如何解决这些问题呢?

统一交互语言

MLSQL提供了一套SQL的超集的DSL语法MLSQL,数据处理,模型训练,模型预测部署等都是以MLSQL语言交互,该语言简单易懂,无论算法,分析师,甚至运营都能看懂,极大的减少了团队的沟通成本,同时也使得更多的人可以做算法方面的工作。

数据预处理/算法模块化

所有较为复杂的数据预处理和算法都是模块化的,通过函数以及纯SQL来进行衔接。比如:

代码语言:javascript
复制
 1-- load data
 2load parquet.`${rawDataPath}` as orginal_text_corpus;
 3-- select only columns we care
 4select feature,label from orginal_text_corpus as orginal_text_corpus;
 5-- feature enginere moduel
 6train zhuml_orginal_text_corpus  as TfIdfInPlace.`${tfidfFeaturePath}` 
 7where inputCol="content" 
 8and `dic.paths`="/data/dict_word.txt" 
 9and stopWordPath="/data/stop_words"
10and nGrams="2";
11-- load data
12load parquet.`${tfidfFeaturePath}/data` as tfidfdata;
13--  algorithm module
14train zhuml_corpus_featurize_training as PythonAlg.`${modelPath}` 
15where pythonScriptPath="${sklearnTrainPath}"
16-- kafka params for log
17and `kafkaParam.bootstrap.servers`="${kafkaDomain}"
18and `kafkaParam.topic`="test"
19and `kafkaParam.group_id`="g_test-2"
20and `kafkaParam.userName`="pi-algo"
21-- distribute data
22and  enableDataLocal="true"
23and  dataLocalFormat="json"
24-- sklearn params
25and `fitParam.0.moduleName`="sklearn.svm"
26and `fitParam.0.className`="SVC"
27and `fitParam.0.featureCol`="features"
28and `fitParam.0.labelCol`="label"
29and `fitParam.0.class_weight`="balanced"
30and `fitParam.0.verbose`="true"
31
32and `fitParam.1.moduleName`="sklearn.naive_bayes"
33and `fitParam.1.className`="GaussianNB"
34and `fitParam.1.featureCol`="features"
35and `fitParam.1.labelCol`="label"
36and `fitParam.1.class_weight`="balanced"
37and `fitParam.1.labelSize`="2"
38
39-- python env
40and `systemParam.pythonPath`="python"
41and `systemParam.pythonParam`="-u"
42and `systemParam.pythonVer`="2.7";

这段小脚本脚本完成了数据加载,特征工程,最后的训练。所有以train开头的,都是模块,以select 开头的都是标准sql,以load开头的则是各种数据源的加载。

在MLSQL中,任何一个模块都有两个产出:模型和函数。训练时该模块会产生一个对应的模型,预测时该模型会提供一个函数,从而实现

  • 对训练阶段的数据处理逻辑,在预测时能进行复用。
  • 算法训练的模型可以直接部署成一个预测函数。

标准遵循

所有数据处理模块,算法模块,都有标准的暴露参数的方式,也就是前面例子类似下面的句子:

代码语言:javascript
复制
1and `fitParam.0.labelCol`="label"
2and `fitParam.0.class_weight`="balanced"
3and `fitParam.0.verbose`="true"

比如该算法暴露了class_weight,labelCol,verbose等参数。所有人开发的算法模块和数据处理模块都可以很好的进行复用。

分布式和单机多种部署形态

MLSQL是基于Spark改造而成,这就直接继承了Spark的多个优点:

  • 你可以在MLSQL里获取基本上大部分存储的支持,比如ES,MySQL,Parquet,ORC,JSON,CSV等等
  • 你可以部署在多种环境里,比如Yarn,Mesos,Local等模式

数据处理模块/算法模型易于部署

同行启动一个local模式的MLSQL Server,然后注册我们训练的时候使用到的数据处理模块和算法模块,每个模块都会产生一个函数,接着就能通过http接口传递一个函数嵌套的方式完成一个pipeline的使用了。对于函数我们确保其响应速度,一般都是在毫秒级。 注册就是一个简单的register语句:

代码语言:javascript
复制
1-- transform model into udf
2register PythonAlg.`${modelPath}` as topic_spam_predict options 
3pythonScriptPath="${sklearnPredictPath}"
4;

支持所有提供了Python语言接口的算法框架的集成

只要实现MLSQL的标准规范,你就能够轻而易举的将各种框架集成到MLSQL中。目前已经支持SKlearn,同时有Keras图片处理等相关例子。算法可以专注于算法模块的研发,研发可以专注于数据处理模块的开发,所有的人都可以通过MLSQL复用这些模块,完成算法业务的开发。

原文链接:https://www.jianshu.com/p/c7f226232733

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2018-06-24,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 人工智能LeadAI 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
大数据
全栈大数据产品,面向海量数据场景,帮助您 “智理无数,心中有数”!
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档