LaWGPT æ˜¯ä¸€ç³»åˆ—åŸºäºŽä¸æ–‡æ³•律知识的开æºå¤§è¯è¨€æ¨¡åž‹ã€‚
è¯¥ç³»åˆ—æ¨¡åž‹åœ¨é€šç”¨ä¸æ–‡åŸºåº§æ¨¡åž‹ï¼ˆå¦‚ Chinese-LLaMAã€ChatGLM ç‰ï¼‰çš„基础上扩充法律领域专有è¯è¡¨ã€å¤§è§„æ¨¡ä¸æ–‡æ³•å¾‹è¯æ–™é¢„è®ç»ƒï¼Œå¢žå¼ºäº†å¤§æ¨¡åž‹åœ¨æ³•律领域的基础è¯ä¹‰ç†è§£èƒ½åŠ›ã€‚åœ¨æ¤åŸºç¡€ä¸Šï¼Œæž„é€ æ³•å¾‹é¢†åŸŸå¯¹è¯é—®ç”æ•°æ®é›†ã€ä¸å›½å¸æ³•考试数æ®é›†è¿›è¡ŒæŒ‡ä»¤ç²¾è°ƒï¼Œæå‡äº†æ¨¡åž‹å¯¹æ³•律内容的ç†è§£å’Œæ‰§è¡Œèƒ½åŠ›ã€‚
详细内容请å‚考技术报告。
本项目æŒç»å¼€å±•,法律领域数æ®é›†åŠç³»åˆ—模型åŽç»ç›¸ç»§å¼€æºï¼Œæ•¬è¯·å…³æ³¨ã€‚
-
- LaWGPT-7B-beta1.1ï¼šæ³•å¾‹å¯¹è¯æ¨¡åž‹ï¼Œæž„é€ 35w é«˜è´¨é‡æ³•å¾‹é—®ç”æ•°æ®é›†åŸºäºŽ Chinese-alpaca-plus-7B 指令精调
-
📣 2023/05/26:开放 Discussions 讨论区,欢迎朋å‹ä»¬äº¤æµæŽ¢è®¨ã€æå‡ºæ„è§ã€åˆ†äº«è§‚点ï¼
-
ðŸ› ï¸ 2023/05/22:项目主分支结构调整,详è§é¡¹ç›®ç»“构;支æŒå‘½ä»¤è¡Œæ‰¹é‡æŽ¨ç†
-
🪴 2023/05/15:å‘布 䏿–‡æ³•å¾‹æ•°æ®æºæ±‡æ€»ï¼ˆAwesome Chinese Legal Resources) å’Œ 法律领域è¯è¡¨
-
-
Legal-Base-7B:法律基座模型,使用 50w 䏿–‡è£åˆ¤æ–‡ä¹¦æ•°æ®äºŒæ¬¡é¢„è®ç»ƒ
-
LaWGPT-7B-beta1.0ï¼šæ³•å¾‹å¯¹è¯æ¨¡åž‹ï¼Œæž„é€ 30w é«˜è´¨é‡æ³•å¾‹é—®ç”æ•°æ®é›†åŸºäºŽ Legal-Base-7B 指令精调
-
-
🌟 2023/04/12:内部测试
- LaWGPT-7B-alpha:在 Chinese-LLaMA-7B çš„åŸºç¡€ä¸Šç›´æŽ¥æž„é€ 30w æ³•å¾‹é—®ç”æ•°æ®é›†æŒ‡ä»¤ç²¾è°ƒ
-
准备代ç ,创建环境
# 下载代ç git clone git@github.com:pengxiao-song/LaWGPT.git cd LaWGPT # 创建环境 conda create -n lawgpt python=3.10 -y conda activate lawgpt pip install -r requirements.txt
-
å¯åЍ web ui(å¯é€‰ï¼Œæ˜“äºŽè°ƒèŠ‚å‚æ•°ï¼‰
-
首先,执行æœåŠ¡å¯åŠ¨è„šæœ¬ï¼š
bash scripts/webui.sh
-
其次,访问 http://127.0.0.1:7860 :
-
-
命令行推ç†ï¼ˆå¯é€‰ï¼Œæ”¯æŒæ‰¹é‡æµ‹è¯•)
-
首先,å‚考
resources/example_infer_data.json
æ–‡ä»¶å†…å®¹æž„é€ æµ‹è¯•æ ·æœ¬é›†ï¼› -
其次,执行推ç†è„šæœ¬ï¼š
bash scripts/infer.sh
。其ä¸--infer_data_path
傿•°ä¸ºæµ‹è¯•æ ·æœ¬é›†è·¯å¾„ï¼Œå¦‚æžœä¸ºç©ºæˆ–è€…è·¯å¾„å‡ºé”™ï¼Œåˆ™ä»¥äº¤äº’æ¨¡å¼è¿è¡Œã€‚
-
注æ„,以上æ¥éª¤çš„默认模型为 LaWGPT-7B-alpha ,如果您想使用 LaWGPT-7B-beta1.0 模型:
-
由于 LLaMA å’Œ Chinese-LLaMA 凿œªå¼€æºæ¨¡åž‹æƒé‡ã€‚æ ¹æ®ç›¸åº”å¼€æºè®¸å¯ï¼Œæœ¬é¡¹ç›®åªèƒ½å‘布 LoRA æƒé 8000 ‡ï¼Œæ— 法å‘布完整的模型æƒé‡ï¼Œè¯·å„ä½è°…解。
-
本项目给出åˆå¹¶æ–¹å¼ï¼Œè¯·å„ä½èŽ·å–原版æƒé‡åŽè‡ªè¡Œé‡æž„模型。
LaWGPT
├── assets # 陿€èµ„æº
├── resources # 项目资æº
├── models # åŸºåº§æ¨¡åž‹åŠ lora æƒé‡
│ ├── base_models
│ └── lora_weights
├── outputs # 指令微调的输出æƒé‡
├── data # 实验数æ®
├── scripts # 脚本目录
│ ├── finetune.sh # 指令微调脚本
│ └── webui.sh # å¯åЍæœåŠ¡è„šæœ¬
├── templates # prompt 模æ¿
├── tools # 工具包
├── utils
├── train_clm.py # 二次è®ç»ƒ
├── finetune.py # 指令微调
├── webui.py # å¯åЍæœåŠ¡
├── README.md
└── requirements.txt
æœ¬é¡¹ç›®åŸºäºŽä¸æ–‡è£åˆ¤æ–‡ä¹¦ç½‘公开法律文书数æ®ã€å¸æ³•考试数æ®ç‰æ•°æ®é›†å±•开,详情å‚è€ƒä¸æ–‡æ³•å¾‹æ•°æ®æºæ±‡æ€»ï¼ˆAwesome Chinese Legal Resources)。
- åˆçº§æ•°æ®ç”Ÿæˆï¼šæ ¹æ® Stanford_alpaca å’Œ self-instruct æ–¹å¼ç”Ÿæˆå¯¹è¯é—®ç”æ•°æ®
- 知识引导的数æ®ç”Ÿæˆï¼šé€šè¿‡ Knowledge-based Self-Instruct æ–¹å¼åŸºäºŽä¸æ–‡æ³•å¾‹ç»“æž„åŒ–çŸ¥è¯†ç”Ÿæˆæ•°æ®ã€‚
- 引入 ChatGPT 清洗数æ®ï¼Œè¾…åŠ©æž„é€ é«˜è´¨é‡æ•°æ®é›†ã€‚
LawGPT 系列模型的è®ç»ƒè¿‡ç¨‹åˆ†ä¸ºä¸¤ä¸ªé˜¶æ®µï¼š
- 第一阶段:扩充法律领域è¯è¡¨ï¼Œåœ¨å¤§è§„æ¨¡æ³•å¾‹æ–‡ä¹¦åŠæ³•典数æ®ä¸Šé¢„è®ç»ƒ Chinese-LLaMA
- ç¬¬äºŒé˜¶æ®µï¼šæž„é€ æ³•å¾‹é¢†åŸŸå¯¹è¯é—®ç”æ•°æ®é›†ï¼Œåœ¨é¢„è®ç»ƒæ¨¡åž‹åŸºç¡€ä¸ŠæŒ‡ä»¤ç²¾è°ƒ
- å‚考
resources/example_instruction_train.json
æž„é€ äºŒæ¬¡è®ç»ƒæ•°æ®é›† - è¿è¡Œ
scripts/train_clm.sh
- å‚考
resources/example_instruction_tune.json
æž„é€ æŒ‡ä»¤å¾®è°ƒæ•°æ®é›† - è¿è¡Œ
scripts/finetune.sh
8 å¼ Tesla V100-SXM2-32GB :二次è®ç»ƒé˜¶æ®µè€—时约 24h / epoch,微调阶段耗时约 12h / epoch
由于计算资æºã€æ•°æ®è§„模ç‰å› ç´ é™åˆ¶ï¼Œå½“å‰é˜¶æ®µ LawGPT å˜åœ¨è¯¸å¤šå±€é™æ€§ï¼š
- æ•°æ®èµ„æºæœ‰é™ã€æ¨¡åž‹å®¹é‡è¾ƒå°ï¼Œå¯¼è‡´å…¶ç›¸å¯¹è¾ƒå¼±çš„æ¨¡åž‹è®°å¿†å’Œè¯è¨€èƒ½åŠ›ã€‚å› æ¤ï¼Œåœ¨é¢å¯¹äº‹å®žæ€§çŸ¥è¯†ä»»åŠ¡æ—¶ï¼Œå¯èƒ½ä¼šç”Ÿæˆä¸æ£ç¡®çš„结果。
- 该系列模型åªè¿›è¡Œäº†åˆæ¥çš„人类æ„图对é½ã€‚å› æ¤ï¼Œå¯èƒ½äº§ç”Ÿä¸å¯é¢„测的有害内容以åŠä¸ç¬¦åˆäººç±»å好和价值观的内容。
- 自我认知能力å˜åœ¨é—®é¢˜ï¼Œä¸æ–‡ç†è§£èƒ½åŠ›æœ‰å¾…å¢žå¼ºã€‚
请诸å›åœ¨ä½¿ç”¨å‰äº†è§£ä¸Šè¿°é—®é¢˜ï¼Œä»¥å…é€ æˆè¯¯è§£å’Œä¸å¿…è¦çš„麻烦。
如下å„ä½åˆä½œå¼€å±•ï¼ˆæŒ‰å—æ¯åºæŽ’列):@cainiaoã€@njuyxwã€@pengxiao-songã€@WNJXYK
指导è€å¸ˆï¼šæŽå®‡å³°ã€éƒå…°å“²ã€æ¶‚å¨å¨ï¼ˆï¼‰ï¼Œç”±å—äº¬å¤§å¦æœºå™¨å¦ä¹ ä¸Žæ•°æ®æŒ–æŽ˜ç ”ç©¶ç»„ï¼ˆ
Â
)支æŒ
请å„ä½ä¸¥æ ¼éµå®ˆå¦‚下约定:
- 本项目任何资æºä»…供妿œ¯ç ”究使用,严ç¦ä»»ä½•商业用途。
- 模型输出å—多ç§ä¸ç¡®å®šæ€§å› ç´ å½±å“ï¼Œæœ¬é¡¹ç›®å½“å‰æ— 法ä¿è¯å…¶å‡†ç¡®æ€§ï¼Œä¸¥ç¦ç”¨äºŽçœŸå®žæ³•律场景。
- æœ¬é¡¹ç›®ä¸æ‰¿æ‹…任何法律责任,亦ä¸å¯¹å› 使用相关资æºå’Œè¾“出结果而å¯èƒ½äº§ç”Ÿçš„任何æŸå¤±æ‰¿æ‹…责任。
如有问题,请在 GitHub Issue ä¸æäº¤ã€‚
- æäº¤é—®é¢˜ä¹‹å‰ï¼Œå»ºè®®æŸ¥é˜… FAQ åŠä»¥å¾€çš„ issue 看是å¦èƒ½è§£å†³æ‚¨çš„问题。
- 请礼貌讨论,构建和è°ç¤¾åŒºã€‚
åä½œè€…ç§‘ç ”ä¹‹ä½™æŽ¨è¿›é¡¹ç›®è¿›å±•ï¼Œç”±äºŽäººåŠ›æœ‰é™éš¾ä»¥å®žæ—¶å馈,给诸å›å¸¦æ¥ä¸ä¾¿ï¼Œæ•¬è¯·è°…è§£ï¼
本项目基于如下开æºé¡¹ç›®å±•开,在æ¤å¯¹ç›¸å…³é¡¹ç›®å’Œå¼€å‘人员表示诚挚的感谢:
- Chinese-LLaMA-Alpaca: https://github.com/ymcui/Chinese-LLaMA-Alpaca
- LLaMA: https://github.com/facebookresearch/llama
- Alpaca: https://github.com/tatsu-lab/stanford_alpaca
- alpaca-lora: https://github.com/tloen/alpaca-lora
- ChatGLM-6B: https://github.com/THUDM/ChatGLM-6B
æ¤å¤–,本项目基于开放数æ®èµ„æºï¼Œè¯¦è§ Awesome Chinese Legal Resources,一并表示感谢。
如果您觉得我们的工作对您有所帮助,请考虑引用该项目。
@misc{lawgpt,
title={LawGPT: A Chinese Legal Knowledge-Enhanced Large Language Model},
author={Zhi Zhou and Jiang-Xin Shi and Peng-Xiao Song and Xiao-Wen Yang and Yi-Xuan Jin and Lan-Zhe Guo and Yu-Feng Li},
year={2024},
eprint={2406.04614},
archivePrefix={arXiv},
primaryClass={cs.CL}
}