首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >LaWGPT:你的私人法律顾问!

LaWGPT:你的私人法律顾问!

作者头像
测试开发囤货
发布于 2023-05-25 09:33:40
发布于 2023-05-25 09:33:40
2.1K0
举报
文章被收录于专栏:测试开发囤货测试开发囤货
LaWGPT:你的私人法律顾问!

LaWGPT[1] 是一系列基于中文法律知识的开源大语言模型。

该系列模型在通用中文基座模型(如 Chinese-LLaMA、ChatGLM 等)的基础上扩充法律领域专有词表、「大规模中文法律语料预训练」,增强了大模型在法律领域的基础语义理解能力。在此基础上,「构造法律领域对话问答数据集、中国司法考试数据集进行指令精调」,提升了模型对法律内容的理解和执行能力。


「又双叒叕裁员,互联网裁员几时休?被裁员了如何赔偿?」

我们可以用「LaWGPT」来了解相关的法律法规,维护自身的合法权益!

快速开始

  1. 准备代码,创建环境
代码语言:javascript
AI代码解释
复制
# 下载代码
git clone git@github.com:pengxiao-song/LaWGPT.git
cd LaWGPT

# 创建环境
conda create -n lawgpt python=3.10 -y
conda activate lawgpt
pip install -r requirements.txt

# 启动可视化脚本(自动下载预训练模型约15GB)
bash ./scripts/webui.sh
  1. 访问 http://127.0.0.1:7860 :
  1. 合并模型权重(可选) 「如果您想使用 LaWGPT-7B-alpha 模型,可跳过改步,直接进入步骤3.」 如果您想使用 LaWGPT-7B-beta1.0 模型: 由于 LLaMA[2] 和 Chinese-LLaMA[3] 均未开源模型权重。根据相应开源许可,「本项目只能发布 LoRA 权重」,无法发布完整的模型权重,请各位谅解。 本项目给出合并方式[4],请各位获取原版权重后自行重构模型。

项目结构

代码语言:javascript
AI代码解释
复制
LaWGPT
├── assets    # 静态资源
├── resources # 项目资源
├── models    # 基座模型及 lora 权重
│   ├── base_models
│   └── lora_weights
├── outputs   # 指令微调的输出权重
├── data      # 实验数据
├── scripts   # 脚本目录
│   ├── finetune.sh # 指令微调脚本
│   └── webui.sh    # 启动服务脚本
├── templates # prompt 模板
├── tools     # 工具包
├── utils
├── train_clm.py  # 二次训练
├── finetune.py   # 指令微调
├── webui.py      # 启动服务
├── README.md
└── requirements.txt

数据构建

本项目基于中文裁判文书网公开法律文书数据、司法考试数据等数据集展开,详情参考中文法律数据汇总

模型评估

输出示例

「问题:请给出判决意见。」

「问题:请介绍赌博罪的定义。」

「问题:请问加班工资怎么算?」

「问题:民间借贷受国家保护的合法利息是多少?」

「问题:欠了信用卡的钱还不上要坐牢吗?」

「问题:你能否写一段抢劫罪罪名的案情描述?」

局限性

由于计算资源、数据规模等因素限制,当前阶段 LawGPT 存在诸多局限性:

  1. 数据资源有限、模型容量较小,导致其相对较弱的模型记忆和语言能力。因此,在面对事实性知识任务时,可能会生成不正确的结果。
  2. 该系列模型只进行了初步的人类意图对齐。因此,可能产生不可预测的有害内容以及不符合人类偏好和价值观的内容。
  3. 自我认知能力存在问题,中文理解能力有待增强。

请诸君在使用前了解上述问题,以免造成误解和不必要的麻烦。

免责声明

请各位严格遵守如下约定:

  1. 本项目任何资源「仅供学术研究使用,严禁任何商业用途」
  2. 模型输出受多种不确定性因素影响,本项目当前无法保证其准确性,「严禁用于真实法律场景」
  3. 本项目不承担任何法律责任,亦不对因使用相关资源和输出结果而可能产生的任何损失承担责任。

致谢

本项目基于如下开源项目展开,在此对相关项目和开发人员表示诚挚的感谢:

  • Chinese-LLaMA-Alpaca: https://github.com/ymcui/Chinese-LLaMA-Alpaca
  • LLaMA: https://github.com/facebookresearch/llama
  • Alpaca: https://github.com/tatsu-lab/stanford_alpaca
  • alpaca-lora: https://github.com/tloen/alpaca-lora
  • ChatGLM-6B: https://github.com/THUDM/ChatGLM-6B

此外,本项目基于开放数据资源,详见 Awesome Chinese Legal Resources[5],一并表示感谢。

参考资料

[1]

LaWGPT: https://github.com/pengxiao-song/LaWGPT

[2]

LLaMA: https://github.com/facebookresearch/llama

[3]

Chinese-LLaMA: https://github.com/ymcui/Chinese-LLaMA-Alpaca

[4]

合并方式: https://github.com/pengxiao-song/LaWGPT/wiki/%E6%A8%A1%E5%9E%8B%E5%90%88%E5%B9%B6

[5]

Awesome Chinese Legal Resources: https://github.com/pengxiao-song/awesome-chinese-legal-resources

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2023-05-23,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 测试开发囤货 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
基于中文法律知识的大语言模型——LaWGPT
在ChatGPT引领的AI浪潮下,涌现了一大批AI应用,其背后其实蕴含着一个基本事实:AI能力得到了极大突破—大模型的能力有目共睹,未来只会变得更强。这世界唯一不变的就是变,适应变化、拥抱变化、喜欢变化,天行健君子以自强不息。我们相信未来会有越来越多的大模型出现,AI正在逐渐平民化,将来每个人都可以利用大模型轻松地做出自己的AI产品。
山行AI
2023/06/14
3.8K0
基于中文法律知识的大语言模型——LaWGPT
国产法律AI大模型,未来人人都能请AI当律师
ChatGPT浪潮下,人工智能的不断扩展和发展为LLM的扩散提供了肥沃的土壤,目前在写作、医疗、教育、金融领域已逐渐有了各自的模型,但法律领域迟迟没有明显进展。下面介绍几个项目,用大模型来解决法律问题给出了解决方案,有了这些火种,经过技术深度迭代,相信会快速出现可以使用的法律AI大模型产品出来。
MavenTalker
2023/09/06
1.8K0
国产法律AI大模型,未来人人都能请AI当律师
本草[原名:华驼(HuaTuo)]: 基于中文医学知识的LLaMA微调模型
在大模型兴起的时代浪潮引领下,无数款AI应用应运而生,本文的核心目标除了技术知识科普外,还有还重要的一点,就是进行知识梳理。
山行AI
2023/06/14
2.1K0
本草[原名:华驼(HuaTuo)]: 基于中文医学知识的LLaMA微调模型
LLM资料大全:文本多模态大模型、垂直领域微调模型、STF数据集、训练微调部署框架、提示词工程等
自ChatGPT为代表的大语言模型(Large Language Model, LLM)出现以后,由于其惊人的类通用人工智能(AGI)的能力,掀起了新一轮自然语言处理领域的研究和应用的浪潮。尤其是以ChatGLM、LLaMA等平民玩家都能跑起来的较小规模的LLM开源之后,业界涌现了非常多基于LLM的二次微调或应用的案例。本项目旨在收集和梳理中文LLM相关的开源模型、应用、数据集及教程等资料,目前收录的资源已达100+个!
汀丶人工智能
2024/04/29
3.7K0
LLM资料大全:文本多模态大模型、垂直领域微调模型、STF数据集、训练微调部署框架、提示词工程等
开源大语言模型LLMs汇总
大语言模型(LLM)是指使用大量文本数据训练的深度学习模型,可以生成自然语言文本或理解语言文本的含义。大语言模型可以处理多种自然语言任务,如文本分类、问答、对话等,是通向人工智能的一条重要途径。
机器学习AI算法工程
2023/09/04
2.6K0
开源大语言模型LLMs汇总
中文LLaMA模型和指令精调的Alpaca大模型:中文数据进行二次预训练
以ChatGPT、GPT-4等为代表的大语言模型(Large Language Model, LLM)掀起了新一轮自然语言处理领域的研究浪潮,展现出了类通用人工智能(AGI)的能力,受到业界广泛关注。然而,由于大语言模型的训练和部署都极为昂贵,为构建透明且开放的学术研究造成了一定的阻碍。
汀丶人工智能
2023/07/29
2.6K0
中文LLaMA模型和指令精调的Alpaca大模型:中文数据进行二次预训练
收藏!大型语言模型(LLMs)大盘点,含源码及Demo地址(附链接)
来源:AINLPer 本文约4000字,建议阅读8分钟 本文作者盘点了一些组织或者个人开源的模型。 ChatGPT爆火出圈,国内很多高校、研究机构和企业都发出类似ChatGPT的发布计划。ChatGPT没有开源,复现难度极大,即使到现在GPT3的完全能力也没有任何一个单位或者企业进行了复现。刚刚,OpenAI又官宣发布了图文多模态的GPT4模型,能力相对ChatGPT又是大幅提升,似乎闻到了以通用人工智能主导的第四次工业革命的味道。 无论是国外还是国内,目前距离OpenAI的差距越来越大,大家都在紧锣密鼓的
数据派THU
2023/05/11
2.1K0
收藏!大型语言模型(LLMs)大盘点,含源码及Demo地址(附链接)
InstructGLM:基于ChatGLM-6B在指令数据集上进行微调
https://github.com/yanqiangmiffy/InstructGLM
致Great
2023/08/25
1.3K0
InstructGLM:基于ChatGLM-6B在指令数据集上进行微调
不再对大模型望而生畏 | 鹅厂一线程序员从零接入实感
开源大模型迭代速度真的是越来越快了。META 最近开源了新的 Llama2 模型,百花齐放!本文我将总结几个主流的开源大模型,分享我的使用体验,帮助各位初学者更快地使用这些大模型。
腾讯云开发者
2023/08/17
9251
不再对大模型望而生畏 | 鹅厂一线程序员从零接入实感
怎么让英文大语言模型支持中文?(三)进行指令微调
这里是最后一部分了:怎么让英文大语言模型支持中文?(三)对预训练模型进行指令微调。
西西嘛呦
2023/07/10
1.3K0
基于中文金融知识的 LLaMA 系微调模型的智能问答系统
基于 LLaMA 系基模型经过中文金融知识指令精调/指令微调(Instruct-tuning) 的微调模型。通过中文金融公开问答数据+爬取的金融问答数据构建指令数据集,并在此基础上对 LLaMA 系模型进行了指令微调,提高了 LLaMA 在金融领域的问答效果。
汀丶人工智能
2023/07/30
9240
基于中文金融知识的 LLaMA 系微调模型的智能问答系统
AI 模型训练与优化:提升中文理解能力 | 开源专题 No.88
100-Days-Of-ML-Code 是一个由 Siraj Raval 提出的机器学习编程挑战项目。 该项目的主要功能、关键特性和核心优势包括:
小柒
2024/06/11
2290
AI 模型训练与优化:提升中文理解能力 | 开源专题 No.88
训练个中文版ChatGPT没那么难:不用A100,开源Alpaca-LoRA+RTX 4090就能搞定
机器之心报道 机器之心编辑部 Alpaca-LoRA 将微调类 ChatGPT 模型的算力需求降到了消费级,训练个自己的中文对话模型真就没那么难了。 2023 年,聊天机器人领域似乎只剩下两个阵营:「OpenAI 的 ChatGPT」和「其他」。 ChatGPT 功能强大,但 OpenAI 几乎不可能将其开源。「其他」阵营表现欠佳,但不少人都在做开源方面的努力,比如前段时间 Meta 开源的 LLaMA。 LLaMA 是一系列模型的总称,参数量从 70 亿到 650 亿不等,其中,130 亿参数的 LLaM
机器之心
2023/03/29
2.9K0
训练个中文版ChatGPT没那么难:不用A100,开源Alpaca-LoRA+RTX 4090就能搞定
高性能运营级流媒体服务框架:支持多协议互转 | 开源日报 No.250
hey 是使用 Lens Protocol 构建的去中心化和无需许可的社交媒体应用程序。 该项目可以创建一个去中心化和无需许可的平台,使用户可以相互交流、分享和参与,并专注于隐私、安全性和用户控制。
小柒
2024/04/26
3760
高性能运营级流媒体服务框架:支持多协议互转 | 开源日报 No.250
论文解读 Chinese-LLaMA-Alpaca 中文版大语言模型
https://github.com/ymcui/Chinese-LLaMA-Alpaca
唐国梁Tommy
2023/09/01
1.2K0
论文解读 Chinese-LLaMA-Alpaca 中文版大语言模型
开源中文类LLaMA大语言模型汇总
近日笔者在调研开源中文大模型时发现LLaMA可以说是今年最受欢迎的大语言模型之一,LLaMA的开源带动了大语言模型社区的兴起,许多模型例如Vicuna、Alpaca等应运而生。
siri
2023/09/24
2.4K1
开源中文类LLaMA大语言模型汇总
复旦大学团队发布中文智慧法律系统DISC-LawLLM,构建司法评测基准,开源30万微调数据
随着智慧司法的兴起,智能化方法驱动的智能法律系统有望惠及不同群体。例如,为法律专业人员减轻文书工作,为普通民众提供法律咨询服务,为法学学生提供学习和考试辅导。
机器之心
2023/09/28
1.1K0
复旦大学团队发布中文智慧法律系统DISC-LawLLM,构建司法评测基准,开源30万微调数据
「AIGC」- ChatGPT可以怎么玩?
chatGPT这么火,这几天一番体验之后,除了惊叹,同时也引发了作为程序员的担忧:我的工作是否会被AI取代?
百川AI
2023/04/02
3.1K0
「AIGC」- ChatGPT可以怎么玩?
中文大模型 Chinese-LLaMA-Alpaca-2 开源且可以商用
“ Meta 开源 LLAMA2 后,国内出现了不少以此为基座模型训练的中文模型,这次我们来看看其中一个不错的中文模型:Chinese-LLaMA-Alpaca-2 。”
技术人生黄勇
2024/07/19
3960
中文大模型 Chinese-LLaMA-Alpaca-2 开源且可以商用
GPT大语言模型Alpaca-lora本地化部署实践
Tech 导读 大模型技术日新月异,开源大模型层出不穷,本文针对开源大模型Alpaca-lora进行本地化部署实践,探索大模型在部署和使用方面的细节。
京东技术
2023/08/22
1.3K0
GPT大语言模型Alpaca-lora本地化部署实践
推荐阅读
相关推荐
基于中文法律知识的大语言模型——LaWGPT
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档