首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    赠书丨打开人工智能“黑盒”,发展可解释、可扩展、可信赖、安全可靠的人工智能

    进入21世纪以来,人工智能(Artificial Intelligence,AI)取得了长足发展,已经逐步在自然语言处理、计算机视觉、语音识别、自动驾驶等领域落地。AI与人类紧密的结合,使得智能化的人机协同成为大势所趋。人类在全方位应用AI的同时,更希望能理解、信任、管理AI。因此,发展可解释、可扩展、安全可靠的AI显得至关重要。 而人工智能技术的高速发展也面临诸多困难与挑战。其中,如何把AI技术的基本原理,其自动决策机制,潜在风险及防范措施,以通俗易懂的方式向人类说明,成为发展可信赖,安全可靠人工智能的首

    01

    人工智能在生物学和神经科学中的应用

    人工智能(AI)一词没有严格的定义。广义上说,人工智能指的是旨在模仿人类智能的计算机系统,其目标是执行人类可以完成的任何任务(图1)。人工智能通常被认为是计算机科学的一个子领域,但它与其他几个研究领域密切相关,包括数据科学和机器学习,以及统计学。人工智能在科学领域的大部分前景来自于它在大型数据集中发现(或“学习”)结构的能力,以及使用这种结构来做出预测甚至执行任务的能力。这种人工智能系统的优势可以补充人类的优势。例如,人工智能系统能够在非常高维的数据中看到模式,因此可以作为一个强大的工具来帮助而不是取代人类研究人员。几乎所有的现代人工智能系统都依赖于人工神经网络(ANN)的变化,这是受到神经系统组织的启发。

    02

    是时候解决大模型的信任问题了

    以ChatGPT为代表AI大语言模型(LLMs)是一项具有革命性的技术。它不仅可以像之前的人工智能一样进行分类或预测,还可以通过自然语言与人类对话,生成文本、图像、视频、可执行代码等各种形式的内容,这将对人们的生产生活和社会发展产生深远影响。但是人工智能开发和应用阶段的任何错误都可能是灾难性的。[1]现在大语言模型已经面临诸多信任挑战,比如人们越来越无法分辨区分出ChatGPT生成的内容与人类生成的内容;大语言模型存在幻觉问题,会生成错误、具有诱导性的内容,那么人们该如何分辨并信任大语言模型生成的内容;大语言模型还存在偏见、歧视、隐私侵犯、有害言论等多方面伦理风险,继而带来一系列信任危机,甚至遭到业界的抵制和封杀。信任是人工智能发展的一个核心问题,人与技术之间信任关系更是技术发展趋势与人类未来的一个核心问题。[2]DeepMind首席运营官Lila Ibrahim表示,AI大模型是一种变革性技术,但它只有在得到信任的情况下才能充分发挥潜力。

    01
    领券