例如,我在pytorch中有一个cuda张量,如何在gpu中直接将其转换为mxnet/tensorflow,而无需将其复制到cpu?频繁地在cpu和gpu之间复制数据非常耗时。
发布于 2019-09-06 18:19:00
最快的方法是使用CUDA API。
仅在CPU上支持通过PyTorch共享张量。
如果你想做一些Python展示,你会因为GIL而变慢。
https://stackoverflow.com/questions/57824511
相似问题
领取专属 10元无门槛券
AI混元助手 在线答疑
洞察 腾讯核心技术
剖析业界实践案例