首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    WAIC 2022 | 澜舟科技创始人&CEO 周明:基于预训练语言模型的可控文本生成研究与应用

    机器之心报道 演讲:周明 编辑:萝卜皮 在 WAIC 2022 AI 开发者论坛上,澜舟科技创始人兼 CEO、中国计算机学会 CCF 副理事长、创新工场首席科学家周明发表主题演讲《基于预训练语言模型的可控文本生成研究与应用》。 在演讲中,他主要从四个部分进行了介绍:可控文本生成背景、可控文本生成研究进展、澜舟可控文本生成应用实践、总结与展望。说到可控文本生成研究进展,周明总结了三个技术要点:可控文本生成神经网络模型、可控文本生成模型训练与解码、改进生成文本的事实正确性。此外,周明还介绍了澜舟可控文本生成平

    02

    少数派实测报告:AI巨无霸模型GPT-3 | 附送API 调用方法「AI核心算法」

    编者按:在今年5月29日,OpenAI 发表了一篇关于 GPT-3 的论文,论文描述了他们的下一代基于 Transformers 的文本生成神经网络。其中最值得注意的是,与之前 GPT-2 迭代的 15 亿个参数相比,新模型有 1750 亿个参数:模型尺寸扩大了近 117倍!要知道,今年2月微软推出的深度学习模型 Turing NLG 的参数规模是 170亿,是前任“史上最大语言模型英伟达“威震天”(Megatron)的两倍,但只有GPT-3的十分之一。不过,在围观群众的一片惊呼声中,GPT-3 却没有引起广泛的技术性讨论,模型参数和对算力的要求都太过惊人,大部分群众只能远观而无法上手。

    03
    领券