首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >用QQ钱包预订奔驰,移动支付场景之后拼什么?

用QQ钱包预订奔驰,移动支付场景之后拼什么?

作者头像
罗超频道
发布于 2018-04-28 09:51:49
发布于 2018-04-28 09:51:49
9290
举报
文章被收录于专栏:罗超频道罗超频道

2015年对移动支付而言注定是不平凡的一年,每天都有新鲜事。前几天,奔驰GLA新车在QQ钱包做了一场首发预售,用户预付999元预约GLA购买资格后到线下4S店购买。在活动页面用户还可参加互动游戏抽奖,礼物包括GLA一年使用权、奔驰自行车、奔驰背包等等。在移动支付工具上首发预售汽车,是前所未有的跨界尝试,折射出QQ钱包新的思路:要做腾讯能力输出窗口,移动支付竞争2.0时代,开放先行。

移动支付大战2.0:场景之后?

场景是从用户这一侧来看,要让用户在绑卡之后有花钱的场景,打车、买票、零售、买单,都属于场景的构建。2014年腾讯和阿里之间的移动支付大战,从打车打到红包再打到便利店补贴,无非都是在构建场景。2015年百度钱包加入,整个移动支付场景大战还会继续打。

一个逐步发生的变化是,移动支付已不再只是场景之争,而是综合较量,具体体现在以下几点:

1、移动支付平台除了关注用户的刚需场景之外,会更关注商家的诉求。移动支付给钱和收钱的两端都至关重要,收钱一方的资源重量级越来越高,一定程度决定了场景的建立。这与淘宝到后面重视卖家多过买家一个道理。

2、除了关注商家和用户交易本身之外,还关注与之相关的环节,比如售前营销、售后服务。支付不能只停留在给钱收钱这一个点,而是更大的交易层面,形成闭环。这是新一代移动支付与POS机本质的不同,后者只负责收单,并没有形成产业链的闭环。

3、形成生态彻底解决鸡生蛋、蛋生鸡的问题。如果移动支付只搭场景,很难形成持续的粘性和活力,比如打车软件没有补贴之后司机和乘客都没动力了。需要建立一个动态的、各取所需、自动运转的系统,平台只负责制定规则而不是砸钱去驱动。移动支付大战最终都要建立各自的生态,就好像PC端支付宝建立的买家卖家生态一样,鸡生蛋、蛋生鸡的问题解决都得靠生态。

QQ钱包如何打好开放牌?能力输出

QQ钱包与奔驰合作体现的,其实是一种以支付为依托的开放。在此之前,QQ钱包还与哈根达斯等明星企业进行了跨界合作,整体思路是给商家提供支付工具的基础上,通过跨界营销带来更多价值。QQ钱包开放作为QQ开放的一部分,很好地整合、利用好了腾讯的资源。

与奔驰的首发预售合作模式很可能被复制到更多企业和行业。这种模式对于奔驰而言,可以实现潜在用户的获取和筛选,基于QQ庞大的用户基础和社交关系链做了一场低成本的社会化营销,售卖奔驰车这一“噱头”必然会形成话题传播效果,奔驰在用户参加活动分享活动过程中可以对产品进行很好的品牌宣传。除了做首发预售之外,我估计QQ钱包未来还会有更多跨界玩法,比如联合传统企业做抢购、团购、众筹、抽奖等等。

QQ钱包已经把能力开放到腾讯体系之外,它过去更多是与京东、滴滴、美丽说、大众点评等等腾讯系内业务合作,接下来会与更多腾讯体系外企业合作,输出支付能力。第二点很明显的是,QQ钱包不只是支付工具,而是聚合QQ的核心资源即社交关系链并开放给企业,QQ特有的以年轻用户为特征的社交关系在别的地方包括微信都没有。第三点,QQ钱包还整合了腾讯其他资源帮助奔驰进行品牌宣传,输出了推广能力。整体而言,QQ钱包正在开始大力做能力输出,打支付的开放牌。

移动支付2.0大战前瞻:交易、入口还是社交?

2015年,QQ钱包开始做能力输出走开放路线,微信支付、支付宝钱包以及百度钱包不甘示弱,都在搭场景、做开放、跑马圈地抢行业。不过,大家玩法和能力却各有不同。

阿里旗下有淘宝为核心的电商业务,以及支付宝为核心的金融业务。它的生态更多是围绕淘宝进行,卖家和买家是核心,支付宝是服务窗口,一定程度充当淘宝的支撑和导流工具。支付宝在“服务”上整合得最快,水电气之类的服务都进行了很好的整合,与政府部门、行政部门合作,阿里巴巴走得比较快。这也与它是老牌支付工具有关系,有先发优势。不过在营销能力上支付宝并没有社交能力,难以给到商家低成本流量。阿里的支付竞争力还是围绕交易本身。

百度钱包起步比较晚,已进入第一阵营,过去一年票务这块抓得比较紧,据说市场份额已达到50%。2015年百度投资了诸多“场景业务”,UBER、易到、51用车、天天用车等等,最近还有传言说又要做电商,潜力不容小觑。百度要做支付,对于商家而言,支付之外的核心能力是流量,在PC端百度是流量入口,这对于商家的吸引力不言而喻。在手机端则是地图等业务,本地生活、旅游出行都很依赖地图这个入口,入口是百度参与支付2.0大战的基础。

QQ钱包和微信支付,正如前文所言,在过去已建立了场景,投资了大量“场景类”业务,线上线下都有,现正在玩便利店补贴战,绑卡、场景都还在做。在支付生态上,它最大的吸引力恐怕就是用户基础和社交关系了,这是商家在移动端首选的营销和推广阵地。支付宝和淘宝用户不算高频用户,没有社交关系,微博难堪大任;百度钱包虽说高频但缺乏账号体系,社交关系在贴吧,没有与支付打通。不难理解为何马云当初那么急着要做社交,百度最近也关闭了空间单点突破贴吧强化社交了。移动支付生态要形成资金流,要先有人流。这是QQ钱包以及微信支付的优势所在。社交、流量都可以通过它们开放出去进而吸引商家。

围绕交易、入口为王和社交势能,是BAT做移动支付的几个基本逻辑,谁最重要现在还很难说。2015年移动支付大战进入2.0,BAT三军混战,从场景到开放,从补贴烧钱到跨界营销,好戏连场。移动支付正在被它们推着快速普及成熟,人们的钱包距离被淘汰的日子越来越近了。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2015-04-21,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 罗超频道 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
动态 | 英伟达上演GPU「十六合一」,512GB显存独步天下
AI 科技评论按:Buy more GPU,save more money!(买越多GPU,就越省钱!)这句话,英伟达 CEO 黄仁勋在整场 GTC 中足足重复了9次(可能还有数漏的)。 作为英伟达每年最重要的大会,一年一度在美国旧金山举办的 GTC 一直都是英伟达技术实力最集中的展示。而且英伟达的新产品也深深牵动着深度学习领域研究人员的心,更快的 GPU 、更大的显存、新的深度计算 API、更强大的计算集群等等都让更大规模、更高表现的模型变得更为平易近人。 看似槽点、其实亮点: 「世界最大的 GPU」、「
AI科技评论
2018/04/18
1.2K0
动态 | 英伟达上演GPU「十六合一」,512GB显存独步天下
深度学习|如何确定 CUDA+PyTorch 版本
对于深度学习初学者来说,配置深度学习的环境可能是一大难题,因此本文主要讲解CUDA; cuDNN; Pytorch 三者是什么,以及他们之间的依赖关系。
数据科学工厂
2023/09/28
13.6K0
深度学习|如何确定 CUDA+PyTorch 版本
Python CUDA 编程 - 1 - 基础概念
英伟达不同时代产品的芯片设计不同,每代产品背后有一个微架构代号,微架构均以著名的物理学家为名,以向先贤致敬。当前比较火热的架构有:
为为为什么
2022/08/04
1.2K0
Python CUDA 编程 - 1 - 基础概念
OpenCV4 + CUDA 从配置到代码.....
首先确保你有英伟达的独立显卡(GPU),然后请到英伟达官方网站,在线检查与下载最新的显卡驱动版本。地址如下:
小白学视觉
2019/10/24
4.1K0
英伟达CUDA架构核心概念及入门示例
理解英伟达CUDA架构涉及几个核心概念,这些概念共同构成了CUDA并行计算平台的基础。 1. SIMT(Single Instruction Multiple Thread)架构 CUDA架构基于SIMT模型,这意味着单个指令可以被多个线程并行执行。每个线程代表了最小的执行单位,而线程被组织成线程块(Thread Block),进一步被组织成网格(Grid)。这种层级结构允许程序员设计高度并行的算法,充分利用GPU的并行计算核心。 2. 层级结构 - 线程(Threads): 执行具体计算任务的最小单位。 - 线程块(Thread Blocks): 一组线程,它们共享一些资源,如共享内存,并作为一个单元被调度。 - 网格(Grid): 包含多个线程块,形成执行任务的整体结构。 3. 内存模型 - 全局内存: 所有线程均可访问,但访问速度相对较慢。 - 共享内存: 位于同一线程块内的线程共享,访问速度快,常用于减少内存访问延迟。 - 常量内存和纹理内存: 优化特定类型数据访问的内存类型。 - 寄存器: 最快速的存储,每个线程独有,但数量有限。 4. 同步机制 屏蔽同步(Barrier Synchronization) 通过同步点确保线程块内或网格内的所有线程达到某个执行点后再继续,保证数据一致性。 5. CUDA指令集架构(ISA) CUDA提供了专门的指令集,允许GPU执行并行计算任务。这些指令针对SIMT架构优化,支持高效的数据并行操作。 6. 编程模型 CUDA编程模型允许开发者使用C/C++等高级语言编写程序,通过扩展如`__global__`, `__device__`等关键字定义GPU执行的函数(核函数,kernel functions)。核函数会在GPU上并行执行,而CPU代码负责调度这些核函数并在CPU与GPU之间管理数据传输。 7. 软件栈 CUDA包含一系列工具和库,如nvcc编译器、CUDA runtime、性能分析工具、数学库(如cuFFT, cuBLAS)、深度学习库(如cuDNN)等,为开发者提供了完整的开发环境。
用户7353950
2024/07/05
6850
英伟达CUDA架构核心概念及入门示例
一文揭开 NVIDIA CUDA 神秘面纱
Hello folks,我是 Luga,今天我们继续来聊一下人工智能生态相关技术 - 用于加速构建 AI 核心算力的 GPU 编程框架 - CUDA 。
Luga Lee
2024/11/11
1.2K0
一文揭开 NVIDIA CUDA 神秘面纱
英伟达CUDA介绍及核心原理
CUDA定义了一种针对GPU特性的指令集,允许程序员直接编写针对GPU硬件的代码。这些指令专为大规模并行处理而设计,能够高效地驱动GPU上的数千个并行处理单元(如CUDA核心或流处理器)同时工作。
用户7353950
2024/04/30
4.8K0
英伟达CUDA介绍及核心原理
《C++与简单人工智能算法:开启智能编程之旅》
在当今科技飞速发展的时代,人工智能已经成为了一个热门话题。从智能手机的语音助手到自动驾驶汽车,人工智能技术正在逐渐改变我们的生活。而 C++作为一种高效、强大的编程语言,也可以用来实现简单的人工智能算法。本文将带你探索在 C++中如何实现一个简单的人工智能算法,让你领略人工智能的魅力。
程序员阿伟
2024/12/09
1850
英伟达Volta架构深度解读:专为深度学习而生的Tensor Core到底是什么?
机器之心报道 编辑:CZ、Jenny Huang、李泽南、吴攀、蒋思源 当地时间 5 月 8-11 日,英伟达在加州圣何塞举行了 2017 年的 GPU 技术大会(GTC 2017)。机器之心作为本次大会的特邀媒体,也来到了现场,参阅《现场报道 | 英伟达 GTC 大会开幕,盘点首日三大亮点》。昨天,英伟达 CEO 黄仁勋在大会上正式发布了目前最先进的加速器 NVIDIA Tesla V100。之后,英伟达开发博客又更新了一篇深度解读文章,剖析了 Tesla V100 背后的新一代架构 Volta,其在提供
机器之心
2018/05/08
4.2K0
英伟达Volta架构深度解读:专为深度学习而生的Tensor Core到底是什么?
cuda和cudnn的在windows上下载安装教程
概述 CUDA和cuDNN是由NVIDIA提供的两个关键软件库,用于利用NVIDIA GPU进行高性能计算和深度学习加速。 CUDA是一个由NVIDIA开发的并行计算平台和编程模型,用来加速计算密集型任务 cuDNN是一个GPU加速的深度学习库,是许多深度学习框架(如 TensorFlow、PyTorch、MXNet 等)中不可或缺的组件,因为它能够极大地提高深度学习任务的性能。 简单来说,CUDA 是一个通用的GPU编程平台,而cuDNN则是基于CUDA之上的一个专门用于深度学习的优化库。 安装前提:必须有一块支持CUDA的英伟达显卡,如果电脑没有英伟达显卡,那没办法使用哦。 接下来我将手把手教你们安装cuda和cudnn
云未归来
2025/07/22
9520
cuda和cudnn的在windows上下载安装教程
【玩转 GPU】英伟达GPU架构演变
1999年,英伟达发布第一代GPU架构GeForce 256,标志着GPU时代的开始。随后,英伟达推出了Tesla、Fermi、Kepler、Maxwell、Pascal、Volta、Turing和Ampere等GPU架构,不断增强GPU的计算能力和程序性,推动GPU在图形渲染、人工智能和高性能计算等领域的应用。
疯狂的KK
2023/06/08
12K0
【玩转 GPU】英伟达GPU架构演变
《C++与 Armadillo:线性代数助力人工智能算法简化之路》
在人工智能领域,线性代数运算可谓是构建各类模型与算法的基石。从神经网络中的矩阵乘法、向量运算,到数据处理中的特征分解、奇异值分解等,无一不依赖高效且精准的线性代数计算。而 C++作为一种强大且高效的编程语言,在人工智能开发中有着独特的地位。Armadillo 库的出现,则为在 C++中处理线性代数运算提供了极大的便利,本文将深入探讨如何借助 Armadillo 库简化线性代数运算在人工智能算法中的实现。
程序员阿伟
2024/12/23
4220
《C++与 BLAS、LAPACK:加速人工智能算法的线性代数秘籍》
在人工智能的广袤天地中,基础线性代数运算犹如大厦的基石,支撑着各类复杂算法与模型的构建与运行。从神经网络的层层矩阵运算,到数据处理中的特征分解与线性方程组求解,无不依赖高效精准的线性代数计算。而 C++语言以其卓越的性能和对底层资源的强大掌控力,在人工智能开发中占据重要地位。其中,BLAS(Basic Linear Algebra Subprograms)和 LAPACK(Linear Algebra PACKage)这两个强大的库,成为 C++开发者优化线性代数运算、加速人工智能算法的得力助手。本文将深入探讨如何借助它们达成这一目标。
程序员阿伟
2024/12/18
2820
《C++与 BLAS、LAPACK:加速人工智能算法的线性代数秘籍》
GPU计算加速01 : AI时代人人都应该了解的GPU知识
金融建模、自动驾驶、智能机器人、新材料发现、脑神经科学、医学影像分析...人工智能时代的科学研究极度依赖计算力的支持。提供算力的各家硬件芯片厂商中,最抢镜的当属英伟达Nvidia了。这家做显卡起家的芯片公司在深度学习兴起后可谓红得发紫,如果不聊几句GPU和英伟达,都不好意思跟别人说自己是做人工智能的。
PP鲁
2019/12/26
1.7K0
《C++与人工智能库的完美邂逅:环境配置全攻略》
在当今科技飞速发展的时代,人工智能无疑是最热门的领域之一。而 C++作为一种高效且强大的编程语言,在人工智能开发中依然占据着重要的地位。将 C++与流行的人工智能库相结合,可以充分发挥两者的优势,为开发高性能、智能化的应用程序提供有力支持。本文将详细介绍如何在 C++环境中配置流行的人工智能库,帮助开发者开启 C++人工智能之旅。
程序员阿伟
2024/11/25
4850
《C++与人工智能库的完美邂逅:环境配置全攻略》
小蛇学python(22)pytorch配置cuda实现GPU加速
深度学习如火如荼,使用普通的cpu来跑模型真的让人急死,就算最普通的垃圾显卡,只要支持cuda,就可以实现gpu加速,其速度至少是cpu的5倍。
用户2145057
2020/02/13
1.8K0
GPU加速02:超详细Python Cuda零基础入门教程,没有显卡也能学!
Python是当前最流行的编程语言,被广泛应用在深度学习、金融建模、科学和工程计算上。作为一门解释型语言,它运行速度慢也常常被用户诟病。著名Python发行商Anaconda公司开发的Numba库为程序员提供了Python版CPU和GPU编程工具,速度比原生Python快数十倍甚至更多。使用Numba进行GPU编程,你可以享受:
PP鲁
2019/12/26
7K0
GPU加速02:超详细Python Cuda零基础入门教程,没有显卡也能学!
CUDA C/C++总结
需要提下学习CUDA的目的,就是为了加速自己的应用,相比于CPU-only的应用程序,可以用GPU实现较大加速,当然程序首先是计算密集型而非IO密集型
零式的天空
2022/03/08
7230
waifu2x 二次元动漫图片放大/降噪黑科技
这个工具的作用是将二次元插画、动漫截图、甚至真实照片使用深度卷积神经网络进行缩放,以取得比通常缩放算法更优的效果,并对图片进行降噪处理(因为放大的时候会使原有的噪点变得更加明显或者产生更多噪点),使得放大后的图片显得更加自然,甚至你会以为这就是原图
子润先生
2021/06/09
2.1K0
英伟达发布12G显存版3080!AI超级分辨率:1080p帧数、4K画质
Tom's Hardware高级编辑Brandon Hill表示:「事实上,我们对这个产品的发布感到有点惊讶,这显然也是由英伟达的合作伙伴驱动的。」
新智元
2022/02/24
1.2K0
英伟达发布12G显存版3080!AI超级分辨率:1080p帧数、4K画质
推荐阅读
相关推荐
动态 | 英伟达上演GPU「十六合一」,512GB显存独步天下
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档