机器之心报道
机器之心编辑部
据日本媒体近日报道,英伟达最近修改了其在 GeForce 系列显卡软件上的用户许可协议(EULA)上的部分条款,使得其在服务器端除区块链软件以外,运行其他的所有程序均成为「未经许可的行为」。这意味着开发者们在未来将难以利用云服务器端的 Geforce 显卡进行诸如深度学习模型训练等工作。这一行动被认为是英伟达在机器学习上强推 Tesla 系列计算卡的举动。
根据新的协议,普通用户仍可以购买并使用 Geforce 系列显卡的硬件,自由进行使用。而在数据中心上,除区块链程序以外的所有程序都不在软件许可的允许范围之内。由于类似性能的 Tesla 系列产品(不受此条款限制)要比 GeForce 价格贵上十倍,这或许意味着面向深度学习的云服务器价格将会大幅上涨,从而导致云端 GPU 训练神经网络不再是一个相对划算的选择。
条款 2.1.3「限制」中提到:(英伟达 GeForce 显卡的软件)不能部署在数据中心上,除区块链程序以外。(http://www.nvidia.com/content/DriverDownload-March2009/licence.php?lang=us)
中文的「NVIDIA GeForce软件用户使用许可」也同时进行了更新。
该条款的限制已经在日本执行,该限制主要针对软件,且没有直接针对 GeForece 显卡硬件,但实际上我们所用的驱动都是来自英伟达的。造成如此影响的原因,很大程度是因为英伟达提供最多 API 接口和软件的硬件制造商。例如在深度学习中,英伟达提供的 CUDA 可以使复杂度的算法在 GPU 上执行高效的并行运算。正因为如此强大的影响力,英伟达在日本实现的限制才会引起这么大的争议。
UEI 公司总裁兼 CEO 清水亮在文章中表示 [1],「英伟达最近在没有任何事前警告的情况下更新了它的终端用户许可协议。协议中最重要的变化是添加了一个条款,禁止 GeForce 使用数据中心。」
因此,任何涉及深度学习实验的数据中心,无论是商业的还是学术的,在日本还是国外,将无法继续工作,除非购买价格昂贵的 Tesla 取代价格适中的 GeForce。他认为,「这明显是英伟达在日本滥用其垄断地位的做法。优先考虑自身的商业利润,客观来看实在很阴险。深度学习社区让英伟达获得创纪录的利润,却得到了这样的回报。」
值得一提的是,目前英伟达的官网上显示,开发者们在 NVIDIA GPU Cloud 服务中仍然可以使用 GeForce 1080Ti、Titan Xp 与最新推出的 Titan V 进行云端深度学习运算。对用户条款更新一事,机器之心向英伟达做了求证,目前英伟达还未做出回应。
本文为机器之心报道,转载请联系本公众号获得授权。