这一系列开源项目代表着多个领域的最新技术成果,包括深度学习、自然语言处理、计算机视觉和分布式训练。它们共同的特点是致力于教育、资源分享、开源精神、多领域应用以及性能和效率的追求,为广大开发者、研究者和学生提供了宝贵的工具和知识,推动了人工智能领域的不断发展和创新。
Stars: 46.5k
License: Apache-2.0
本开源项目代表了我们的一种尝试:我们将教给读者概念、背景知识和代码;我们将在同一个地方阐述剖析问题所需的批判性思维、解决问题所需的数学知识,以及实现解决方案所需的工程技能。我们的目标是创建一个为实现以下目标的统一资源:
Stars: 36.9k
License: MIT
Whisper是一个通用的语音识别模型,它通过大规模弱监督训练了多样化的音频数据,并且可以执行多语言语音识别、语音翻译和语种鉴定等任务。该项目采用Transformer sequence-to-sequence 模型,在各种处理任务中进行训练,使用一组特殊标记作为任务指示器或分类目标。这使得单个模型能够替代传统的多阶段流程,提高效率并降低成本。
优点:
可用性:
Stars: 27.9k
License: NOASSERTION
OpenPose 是一个开源项目,它是第一个能够在单个图像上联合检测人体、手部、面部和脚步关键点 (总共 135 个关键点) 的实时多人系统。该项目具有以下核心优势:
Stars: 24.2k
License: Apache-2.0
DeepSpeed是一个深度学习优化库,使分布式训练和推理变得简单、高效和有效。它能够在资源受限的GPU系统上进行训练/推理,并实现了模型参数数十亿或万亿级别的密集或稀疏模型的训练/推理。此外,它还可以以前所未有的低延迟和高吞吐量进行推断,并且具有极端压缩功能来减少成本并提供无与伦比的推断速度和模型大小缩小。DeepSpeed软件套件包括三个创新支柱:DeepSpeed-Training、DeepSpeed-Inference 和 DeepSpeed-Compression, 分别用于大规模DL训练、超大规模DL预测及其压缩技术等领域。
Stars: 11.8k
License: MIT
tinygrad是一个深度学习框架,其核心代码不足1000行。它的设计目标是简单易用,并且容易添加新的加速器支持。虽然功能较少,但支持基本操作和一些SOTA模型(如efficientnet.py和transformer.py)。另外还提供了对Apple Neural Engine和Google TPU等硬件加速器的支持。