Loading [MathJax]/jax/output/CommonHTML/config.js
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >如何制作带图片的条码

如何制作带图片的条码

原创
作者头像
神奇像素科技
修改于 2021-11-05 07:06:11
修改于 2021-11-05 07:06:11
3.4K0
举报

在使用条码软件制作标签时,很多信息内容我们通过数据库就可以实现批量打印。但是如果需要在标签上添加相对应的图片,而且图片数量很多,该如何实现批量打印呢?如果将图片逐个导入标签内进行打印,费力还容易出错。这时只需将图片放在一个文件夹里,通过条码软件生成一个数据库,就可以实现批量打印了。下面,将详细介绍具体操作方法。

1、先将需要用到的图片整理到一个文件夹中,按顺序排列好。

2、打开软件,在左侧点击图片按钮,选择文件夹里的一张图片。

3、图片插入到画布之后,勾选打印或导出时先读取数据源的字段值作为文件名,然后从该文件中读取图片。然后再点击图片文件名整理工具

4、在弹出的界面里选择图片所在的文件夹,选择完成后就可以在界面下方看见所有的图片。最后点击导出到Excel。将导出的Excel文件保存,这个文件夹图片的数据库就完成了。方便后续使用,保存类型选择后缀为.xls格式的文件。

5、将刚刚生成的表格整理成如下图的样子。

6、回到软件,点击设置数据源,选择刚刚整理好的Excel表格。

7、使用单行文字工具输入文本,插入相对应的数据源字段。

8、给图片选择数据源字段。

9、点击打印预览,可以看到名称和图片一一对应。

制作好的标签可以打印,也可以导出成PDF,通过以上操作可以实现带图片的标签的批量打印。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
Apache-Flink深度解析-TableAPI
在《SQL概览》中我们概要的向大家介绍了什么是好SQL,SQL和Table API是Apache Flink中的同一层次的API抽象,如下图所示
王知无-import_bigdata
2019/04/24
7440
Apache-Flink深度解析-TableAPI
Apache-Flink深度解析-TableAPI
SQL和Table API是Apache Flink中的同一层次的API抽象,如下图所示:
王知无-import_bigdata
2019/03/26
1.3K0
Apache-Flink深度解析-Temporal-Table-JOIN
在《JOIN LATERAL》中提到了Temporal Table JOIN,本篇就向大家详细介绍什么是Temporal Table JOIN。 在ANSI-SQL 2011 中提出了Temporal 的概念,Oracle,SQLServer,DB2等大的数据库厂商也先后实现了这个标准。Temporal Table记录了历史上任何时间点所有的数据改动,Temporal Table的工作流程如下:
王知无-import_bigdata
2019/04/24
4.6K0
Apache-Flink深度解析-Temporal-Table-JOIN
Apache-Flink深度解析-JOIN-LATERAL
本篇介绍一个特殊的JOIN,那就是JOIN LATERAL。JOIN LATERAL为什么特殊呢,直观说因为JOIN的右边不是一个实际的物理表,而是一个VIEW或者Table-valued Funciton。如下图所示:
王知无-import_bigdata
2019/03/26
6K0
Apache-Flink深度解析-JOIN-LATERAL
上一篇《JOIN算子》我们对最常见的JOIN做了详尽的分析,本篇介绍一个特殊的JOIN,那就是JOIN LATERAL。JOIN LATERAL为什么特殊呢,直观说因为JOIN的右边不是一个实际的物理表,而是一个VIEW或者Table-valued Funciton。如下图所示
王知无-import_bigdata
2019/04/24
1.3K0
Apache-Flink深度解析-JOIN-LATERAL
Apache-Flink深度解析-JOIN-LATERAL-Time Interval(Time-windowed)
JOIN 算子是数据处理的核心算子,前面我们在《Apache Flink 漫谈系列(09) - JOIN 算子》介绍了UnBounded的双流JOIN,在《Apache Flink 漫谈系列(10) - JOIN LATERAL》介绍了单流与UDTF的JOIN操作,在《Apache Flink 漫谈系列(11) - Temporal Table JOIN》又介绍了单流与版本表的JOIN,本篇将介绍在UnBounded数据流上按时间维度进行数据划分进行JOIN操作 - Time Interval(Time-windowed)JOIN, 后面我们叫做Interval JOIN。
王知无-import_bigdata
2019/03/26
8800
Apache-Flink深度解析-JOIN-LATERAL-Time Interval(Time-windowed)
前面章节我们介绍了Flink中对各种JOIN的支持,那么想想下面的查询需求之前介绍的JOIN能否满足?需求描述如下:
王知无-import_bigdata
2019/04/24
3.3K1
Apache-Flink深度解析-JOIN-LATERAL-Time Interval(Time-windowed)
Flink重点难点:Flink Table&SQL必知必会(二)
介绍了 Flink Table & SQL的一些核心概念,本部分将介绍 Flink 中窗口和函数。
王知无-import_bigdata
2021/09/22
2.2K0
(上)史上最全干货!Flink SQL 成神之路(全文 18 万字、138 个案例、42 张图)
Apache Flink 提供了两种关系型 API 用于统一流和批处理,Table 和 SQL API。
公众号:大数据羊说
2022/04/04
3.6K0
(上)史上最全干货!Flink SQL 成神之路(全文 18 万字、138 个案例、42 张图)
2021年大数据Flink(三十九):​​​​​​​Table与SQL ​​​​​​总结 Flink-SQL常用算子
SELECT 用于从 DataSet/DataStream 中选择数据,用于筛选出某些列。
Lansonli
2021/10/11
9740
(5)Flink CEP SQL四种匹配模式效果演示
从匹配成功的事件序列中最后一个对应于patternItem的事件开始进行下一次匹配
NBI大数据
2022/08/24
5290
(5)Flink CEP SQL四种匹配模式效果演示
Flink SQL Window源码全解析
1、StreamExecGroupWindowAggregate#createWindowOperator()创建算子
王知无-import_bigdata
2019/12/05
2.1K0
Flink SQL Window源码全解析
(中)史上最全干货!Flink SQL 成神之路(全文 18 万字、138 个案例、42 张图)
CREATE 语句用于向当前或指定的 Catalog 中注册库、表、视图或函数。注册后的库、表、视图和函数可以在 SQL 查询中使用。
公众号:大数据羊说
2022/04/04
6.5K0
(中)史上最全干货!Flink SQL 成神之路(全文 18 万字、138 个案例、42 张图)
Apache-Flink深度解析-JOIN 算子
在《Apache Flink 漫谈系列 - SQL概览》中我对JOIN算子有过简单的介绍,这里我们以具体实例的方式让大家对JOIN算子加深印象。JOIN的本质是分别从N(N>=1)张表中获取不同的字段,进而得到最完整的记录行。比如我们有一个查询需求:在学生表(学号,姓名,性别),课程表(课程号,课程名,学分)和成绩表(学号,课程号,分数)中查询所有学生的姓名,课程名和考试分数。如下:
王知无-import_bigdata
2019/03/26
5.8K0
(2)Flink CEP SQL严格近邻代码演示-风控系统构建利器
上一篇我们对Flink CEP做了简单介绍,这一篇我们通过代码来演示一下Flink CEP SQL中的严格近邻效果:
NBI大数据
2022/08/13
5000
(2)Flink CEP SQL严格近邻代码演示-风控系统构建利器
Flink SQL 知其所以然(二十三):SQL 的时区问题!
至少博主目前没有碰到过,因为这个问题在底层的数据集成系统都已经给解决了,小伙伴萌拿到手的 ODS 层表都是已经按照所在地区的时区给格式化好的了。
公众号:大数据羊说
2022/07/07
4.7K0
Flink SQL 知其所以然(二十三):SQL 的时区问题!
重要|flink的时间及时区问题解决
所谓的”时间纪元”就是1970年1月1日0时0分0秒,指的是开始的时间。比如Java类代码:
Spark学习技巧
2019/06/18
6.9K0
重要|flink的时间及时区问题解决
Flink SQL DDL 和 窗口函数实战
2019 年 8 月 22 日,Flink 发布了 1.9 版本,社区版本的 Flink 新增 了一个 SQL DDL 的新特性,但是暂时还不支持流式的一些概念的定义,比如说水位。
kk大数据
2019/12/19
5.3K0
Flink SQL DDL 和 窗口函数实战
Flink 1.9 实战:使用 SQL 读取 Kafka 并写入 MySQL
北京理工大学硕士毕业,2015 年加入阿里巴巴,参与阿里巴巴实时计算引擎 JStorm 的开发与设计。2016 年开始从事阿里新一代实时计算引擎 Blink SQL 的开发与优化,并活跃于 Flink 社区,于2017年2月成为ApacheFlink Committer,是国内早期 Flink Committer 之一。目前主要专注于分布式处理和实时计算,热爱开源,热爱分享。
小晨说数据
2019/09/19
5.4K0
Flink 1.9 实战:使用 SQL 读取 Kafka 并写入 MySQL
五万字 | Flink知识体系保姆级总结
一、Flink简介 二、Flink 部署及启动 三、Flink 运行架构 四、Flink 算子大全 五、流处理中的 Time 与 Window 六、Flink 状态管理 七、Flink 容错 八、Flink SQL 九、Flink CEP 十、Flink CDC 十一、基于 Flink 构建全场景实时数仓 十二、Flink 大厂面试题
五分钟学大数据
2021/09/22
4.8K0
推荐阅读
相关推荐
Apache-Flink深度解析-TableAPI
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档