InternLM2 ,即书生·浦语大模型第二代,开源了面向实用场景的70亿参数基础模型与对话模型 (InternLM2-Chat-7B)。模型具有以下特点:
# 进入源码目录
cd /InternLM2/compshare-tmp/InternLM/
streamlit run ./chat/web_demo.py --server.address 0.0.0.0 --server.port 11434
pip换源和安装依赖包,在ipynb文件里写入下面代码,点击运行
# 更换 pypi 源加速库的安装
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple
# 安装python依赖
pip install modelscope==1.9.5
pip install transformers==4.36.2
pip install streamlit==1.24.0
pip install sentencepiece==0.1.99
pip install accelerate==0.24.1
pip install transformers_stream_generator==0.0.4
使用 modelscope 中的 snapshot_download 函数下载模型,第一个参数为模型名称,参数 cache_dir 为模型的下载路径。运行下载internlm2-chat-7b
模型。模型下载需要时间
from modelscope import snapshot_download
model_dir = snapshot_download(Shanghai_AI_Laboratory/internlm2-chat-7b, cache_dir=/InternLM2/compshare-tmp, revision=master)
源码拉取
以下操作,可以在jupyter运行下载模型的过程中,你新开一个命令行终端进行操作
cd /InternLM2/compshare-tmp
# 下载 Internlm 代码
git clone https://github.com/InternLM/InternLM.git
安装依赖
# 进入源码目录
cd /InternLM2/compshare-tmp/InternLM/
# 安装internlm依赖
pip install -r requirements.txt
将 /InternLM2/compshare-tmp/InternLM/chat/web_demo.py
中 183 行和 186 行的模型更换为本地的/InternLM2/compshare-tmp/Shanghai_AI_Laboratory/internlm2-chat-7b
。
修改完成之后,启动web_demo.py
文件
# 进入源码目录
cd /InternLM2/compshare-tmp/InternLM/
streamlit run ./chat/web_demo.py --server.address 0.0.0.0 --server.port 11434
在浏览器打开 http://(外部ip):11434 界面,模型加载,即可使用。