

@TOC

出错原因:spark命令提交参数json,到另一个jar发现{{或者}}消失了,导致解析异常
解决方案:https://blog.csdn.net/u010814849/article/details/78752074 双括号间+空格
出错原因:spark操作mysql数据库缺少驱动
解决方案:
Properties对象设置props.put("driver", "com.mysql.jdbc.Driver");
出错原因:运行期缺少jar包,问题出在maven程序打包没把依赖打进去
解决方案:添加打包插件指定打入依赖jar
<plugin>
<artifactId>maven-assembly-plugin</artifactId>
<configuration>
<descriptorRefs>
<descriptorRef>jar-with-dependencies</descriptorRef>
</descriptorRefs>
</configuration>
<executions>
<execution>
<id>make-assembly</id>
<phase>package</phase>
<goals>
<goal>single</goal>
</goals>
</execution>
</executions>
</plugin>出错原因:指定bootstrap-servers前面多了空格,导致层级目录出错
解决方案:

出错原因:ip映射没修改对,导致不认识master
解决方案:如果是ambari安装的kafka修改cinfig下面的,如果是自己linux搭建的,需改动kafka下的cinfig下的server.properties,把PLAINTEXT://localhost:6667 -》 改为PLAINTEXT://192.168.20.91:6667

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。