前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >如何与 UNI-SELECT 建立 EDI 连接?

如何与 UNI-SELECT 建立 EDI 连接?

原创
作者头像
知行软件EDI
发布于 2023-08-23 02:54:02
发布于 2023-08-23 02:54:02
2130
举报
文章被收录于专栏:EDI技术知识EDI技术知识

UNI-SELECT 是一家专注于汽车零部件分销的领先企业,致力于为全球客户提供优质的汽车维修、保养和美容产品,以满足不断变化的市场需求。多年来,UNI-SELECT 凭借卓越的服务和高品质的产品赢得了众多荣誉和认可,不断推动着整个汽车零部件供应链的发展。

项目挑战

实施 EDI 项目需要注意:

技术兼容性: 不同企业可能使用不同的 ERP 系统、数据格式和标准,因此在建立 EDI 连接时,需要确保双方的技术能够互相兼容,以实现顺畅的数据交换。 数据映射和转换: 供应商的数据格式可能与 UNI-SELECT 要求的 EDI 标准不一致,需要进行数据映射和转换,确保信息能够正确地传递和解释。 网络稳定性: EDI 连接要求稳定的网络连接,任何断开或延迟都可能影响到关键业务流程。供应商需要确保其网络基础设施足够稳定,以防止数据传输中断。

UNI-SELECT EDI 需求分析
传输协议

本次 UNI-SELECT EDI 项目中选择使用 FTP 进行文件传输。

报文标准

在报文标准的选择上,UNI-SELECT 选择 X12。

UNI-SELECT 发送给供应商:850 采购订单

供应商发送给 UNI-SELECT:856 提前发货通知、810 发票

EDI(电子数据交换)是一种通过电子方式在企业之间交换业务文档和数据的系统。采用 EDI 系统有诸多优势,包括实现高效的供应链可见性和透明性、降低错误和人工成本、提升合作效率等。通过 EDI,UNI-SELECT 能够更快速、准确地处理订单、发货通知、发票等关键业务流程,从而更好地满足客户的需求,优化供应链运作。

EDI 解决方案
建立 FTP 传输通道

与 UNI-SELECT 的 EDI 连接采用 FTP。FTP(File Transfer Protocol,文件传输协议)是 TCP/IP 协议组中的协议之一。FTP 服务器用来存储文件,用户可以使用 FTP 客户端通过 FTP 协议访问位于 FTP 服务器上的资源。

在知行之桥 EDI 系统中,通过 FTP 端口进行可视化的配置即可与 UNI-SELECT 建立连接。

扩展阅读:如何使用知行之桥 EDI 系统实现 FTP Client 和 FTP Server 连接?

数据格式转换

UNI-SELECT 发送数据给供应商:供应商需要通过 EDI 系统接收来自 UNI-SELECT 的符合 X12 报文标准的业务报文,将其转换为内部业务系统能够处理的格式。常见的有 XML、Json、IDOC 等。

供应商发送给 UNI-SELECT:通过 EDI 系统将供应商内部业务系统输出的文件转换为符合 X12 报文标准的文件,并发送给 UNI-SELECT。

系统集成

本次 EDI 项目中采用中间数据库方案,实现企业内部业务系统与 EDI 系统的集成。目前知行之桥 EDI 系统支持的数据库有:MySQLPostgreSQLSQLiteSQL Server、Oracle等。

中间数据库表,作为 EDI 系统和 ERP 系统间数据传输的纽带,它既可以用于 EDI 数据的溯源,避免纠纷,也保证了 EDI 和 ERP 集成后的平稳运行。EDI 和 ERP 约定不直接修改中间数据库表中的数据,以此完整保留 EDI 所传输数据,方便在出现业务数据争议时进行数据溯源;ERP 自行从中间数据库表抓取及存放数据,不直接修改 ERP 生产数据库的数据,便是在 EDI 和 ERP 集成中对 ERP 系统平稳运行的一个侧面保护也可以在不影响 ERP 原有业务的基础上完成和 EDI 的集成。

扩展阅读:知行之桥 EDI 系统如何通过中间数据库表方式集成金蝶 ERP

项目成果

根据上述 EDI 需求,可以在知行之桥 EDI 系统中搭建如下图所示的工作流:

通过以上工作流即可实现 EDI 业务报文收发:供应商与 UNI-SELECT 需要进行订单(850)、发货通知(856)、发票(810)等主要 EDI 业务报文的收发。满足 UNI-SELECT 的 EDI 需求,这些报文传输的内容如下:

订单(850)报文:UNI-SELECT 用此报文向供应商提供订单信息,包括产品、数量、价格等,以促进订单流程的自动化处理。 发货通知(856)报文:供应商利用该报文通知 UNI-SELECT 已经发货的详细信息,如产品描述、数量、运输信息等,确保及时的库存和发货信息同步。 发票(810)报文:供应商利用发票报文向 UNI-SELECT 传递销售信息,包括产品、数量、价格,用于准确处理付款和财务流程。

了解更多 EDI 信息,请参阅: EDI 是什么?

阅读原文

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
Selenium+BeautifulSoup+json获取 Script 标签内的 json 数据
Selenium爬虫遇到 数据是以 JSON 字符串的形式包裹在 Script 标签中, 假设Script标签下代码如下:
诡途
2022/05/09
3.5K0
BeautifulSoup使用
Beautiful Soup将复杂HTML文档转换成一个复杂的树形结构,每个节点都是Python对象,所有对象可以归纳为4种: Tag , NavigableString , BeautifulSoup , Comment .
听城
2018/08/30
1K0
快速入门网络爬虫系列 Chapter09 | JSON数据处理
JSON是指JavaScript对象表示法(JavaScript Object Notation):
不温卜火
2020/10/28
1.1K0
快速入门网络爬虫系列 Chapter09 | JSON数据处理
python爬虫入门(三)XPATH和BeautifulSoup4
 XML和XPATH 用正则处理HTML文档很麻烦,我们可以先将 HTML文件 转换成 XML文档,然后用 XPath 查找 HTML 节点或元素。 XML 指可扩展标记语言(EXtensible M
zhang_derek
2018/04/11
2.5K0
python爬虫入门(三)XPATH和BeautifulSoup4
爬取B站评论:Python技术实现详解
在当今信息爆炸的互联网时代,用户生成的内容不断涌现,其中包括了各种各样的评论。而B站作为一个充满活力的视频分享平台,其评论区更是一个充满了各种各样精彩评论的宝藏地。那么,有没有一种简单的方法可以将这些评论收集起来呢?答案是肯定的!本文将介绍如何使用Python编写一个爬虫程序,轻松实现爬取B站视频的评论,为我们探索互联网数据的奥秘带来便利。
小白学大数据
2024/04/30
8270
04.BeautifulSoup使用
例1: print(type(p.contents)) #list print(p.contents) #可通过索引获取它的某一个元素。
见贤思齊
2020/08/05
2.3K0
04.BeautifulSoup使用
[Python] 首发,批量下载抖音单用户所有无水印视频
2).请求上述url,禁用重定向获取location的value,在正则提取出sec_id
@派大星
2023/06/28
1.3K0
[Python] 首发,批量下载抖音单用户所有无水印视频
微信小程序授权登录与用户信息保存详解(微信报修小程序源码讲解六)
提醒:小程序端源码已经更新整理,相比旧源码,新源码简洁、结构清晰、需要的同学及时找我获取源码。
热心的程序员
2020/04/02
8.7K0
微信小程序授权登录与用户信息保存详解(微信报修小程序源码讲解六)
通过 python 获取钉钉后台人员
通过钉钉官方接口可定时同步得知企业离职人员便于认证管理同步,大大简便了人员账号的管理。
cuijianzhe
2022/06/14
8970
通过 python 获取钉钉后台人员
大江大河,一代人的缩影
因为豆瓣对请求频率限制很严,我不得不使用了付费的代理服务。即便如此,依然遭到了封锁:
Crossin先生
2019/04/30
4660
大江大河,一代人的缩影
Django之CURD插件
CURD顾名思义就是create,update,rearch,delete(所谓的增删改查).
菲宇
2019/06/13
1.7K0
Django之CURD插件
深入解析网页结构解析模块beautifulsoup
beautifulsoup(以下简称bs),是一款网页结构解析模块,它支持传统的Xpath,css selector 语法,可以说很强大了,下面我们就来着重介绍下它的用法。
Python进阶者
2021/04/19
2.5K0
深入解析网页结构解析模块beautifulsoup
Python + Wxpy 搭建简单微信机器人
之前看网上的教程做了一个可以定时发送天气预报的程序, 最近又想到折腾,做了一个更加详细的版本。但是需要主动操作 具体操作看图。 部分代码: #coding=utf8 import requests from requests import exceptions from urllib.request import urlopen from bs4 import BeautifulSoup from urllib.parse import urlencode from threading i
执行上下文
2022/07/26
1.2K0
Python + Wxpy 搭建简单微信机器人
PHP 怎么使用 XPath 来采集页面数据内容
之前有说过使用 Python 使用 XPath 去采集页面数据内容,前段时间参与百度内测的一个号主页展现接口,需要文章页面改造的application/ld+json代码
沈唁
2018/12/19
2K0
一篇长文带你在python里玩转Json数据
很多网站都会用到Json格式来进行数据的传输和交换,就像上篇我提到的网易云音乐接口,它们返回的数据都是Json格式的。
朱小五
2019/11/26
1.7K0
Python基础——PyCharm版本——第八章、文件I/O(核心2——JSON序列化与反序列化——超重点)
如果我们要在不同的编程语言之间传递对象,就必须把对象序列化为标准格式,比如XML,但更好的方法是序列化为JSON,因为JSON表示出来就是一个字符串,可以被所有语言读取,也可以方便地存储到磁盘或者通过网络传输。JSON不仅是标准格式,并且比XML更快,而且可以直接在Web页面中读取,非常方便。
红目香薰
2022/11/29
4630
Python基础——PyCharm版本——第八章、文件I/O(核心2——JSON序列化与反序列化——超重点)
BeautifulSoup解析html介绍
爬虫抓取的数据以html数据为主。有时也是xml数据,xml数据对标签的解析和html是一样的道理,两者都是<tag>来区分数据的。这种格式的数据结构可以说是一个页面一个样子,解析起来很麻烦。BeautifulSoup提供了强大的解析功能,可以帮助我们省去不少麻烦。使用之前安装BeautifulSoup和lxml。
震八方紫面昆仑侠
2020/07/23
1.8K0
BeautifulSoup解析html介绍
BeautifulSoup库
python爬虫抛开其它,主要依赖两类库:HTTP请求、网页解析;这里requests可以作为网页请求的关键库,BeautifulSoup库则是网页内容解析的关键库;爬虫架构分为五部分:调度器、URL管理器、网页下载器、网页解析器、应用程序等。
Mirror王宇阳
2020/11/13
1K0
十一、模拟扫码登录微信(用Django简单的布置了下页面)发送接收消息 url.py templates views.py(逻辑层)
为了能够模拟登陆QQ,并获取信息。对扫码登录微信进行了分析。简单的用了一下Django将获取的信息映射到页面上。(python3+pycharm) 主要过程就是: 1、获取二维码 2、扫码登录(有三种状态) 3、获取联系人信息(index页面获取的是个人信息、最近联系人信息、公众号) 4、获取所有的联系人 5、发送和接收消息(接收消息打印到了后台) 创建Django项目、导入JQuery(发送AJax请求)、创建APP、创建模板(简单的弄一下,能合理显示得到的数据就好) url.py from django
酱紫安
2018/04/19
2.1K0
十一、模拟扫码登录微信(用Django简单的布置了下页面)发送接收消息
		url.py templates views.py(逻辑层)
requests+BeautifulSoup详解
简介 Python标准库中提供了:urllib、urllib2、httplib等模块以供Http请求,但是,它的 API 太渣了。它是为另一个时代、另一个互联网所创建的。它需要巨量的工作,甚至包括各种方法覆盖,来完成最简单的任务。 Requests 是使用 Apache2 Licensed 许可证的 基于Python开发的HTTP 库,其在Python内置模块的基础上进行了高度的封装,从而使得Pythoner进行网络请求时,变得美好了许多,使用Requests可以轻而易举的完成浏览器可有的任何操作。 请求的
人生不如戏
2018/07/05
1.6K0
推荐阅读
相关推荐
Selenium+BeautifulSoup+json获取 Script 标签内的 json 数据
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档