Meta在官方博客官宣了Llama3,标志着人工智能领域迈向了一个重要的飞跃,在这个开源的时代,也来体验一下。

步骤:

部署步骤大致如下:

• 安装Ollama

• 下载Llama3

• 安装Node.js

• 部署WebUI

一、安装Ollama

请前往官网下载安装ollama。地址:https://ollama.com/download 根据自己的操作系统下载对应程序安装即可。安装完成会提示安装llama2,这里不用理会。

下载Llama3

安装完成后会提示执行下载模型命令: 我们直接在命令行执行如下命令,下载llama3模型

ollama run llama3

该命令默认下载8B参数(模型4.7G),即80亿参数版本,还有一个70B模型(模型40G),大概需要64G以上内存运行,根据实际选择。

成功下载模型后会进入交互界面,我们可以直接在终端进行提问,比如介绍一下自己,Llama3几乎是秒回答。

切换模型

Llama3模型中文能力较弱,可以使用llama3微调过的模型,对中文更加友好。

1、下载中文微调模型,这里下载的是如下模型:

https://huggingface.co/hfl/llama-3-chinese-8b-instruct-gguf/tree/main

推荐下载q8_0版本,它在大小和模型表现中做到了比较好的平衡。

2、下载好模型后,在本地新建一个文件夹存放模型,然后在同文件夹下创建 Modelfile 文件,其内容如下(注意正确填写模型目录):

FROM 填写模型目录/ggml-model-q8_0.gguf
TEMPLATE """{{ if .System }}<|start_header_id|>system<|end_header_id|>
{{ .System }}<|eot_id|>{{ end }}{{ if .Prompt }}<|start_header_id|>user<|end_header_id|>{{ .Prompt }}<|eot_id|>{{ end }}<|start_header_id|>assistant<|end_header_id|> 
{{ .Response }}<|eot_id|>"""
SYSTEM """"""
PARAMETER num_keep 24
PARAMETER stop <|start_header_id|>
PARAMETER stop <|end_header_id|>
PARAMETER stop <|eot_id|>
PARAMETER stop assistant
PARAMETER stop Assistant

3、实例化模型,这里根据Modelfile配置实例化了一个模型名称:llama3-zh-inst

ollama create llama3-zh-inst -f Modelfile

4、启动模型即可正常使用。

ollama run llama3-zh-inst

安装Node.js

可以前往(https://nodejs.org/en/download) ,根据自己的操作系统和CPU芯片类型下载对应的Node.js并进行安装。

我这里安装的是node:v16.16.0,要注意配置源以便提速:

# 参考是腾讯源
npm config set registry http://mirrors.cloud.tencent.com/npm/

部署WebUI

这里使用ollama-webui-lite(https://github.com/ollama-webui/ollama-webui-lite),非常轻量级,只需要依赖Node.js。

热度较高的webui:https://github.com/open-webui/open-webui),需要Docker或者Kubernetes部署,有点麻烦,而且镜像也差不多1G,这里没有使用。

1、创建一个目录存放webui,在目录下打开命令行,


#下载webui代码
git clone https://github.com/ollama-webui/ollama-webui-lite.git  

# 移动到代码目录
cd ollama-webui-lite

# 执行编译,中间可能需要执行其他命令,按提示操作即可
npm install

#编译成功后运行
npm run dev

运行成功显示如下:

llama3\ui\ollama-webui-lite>npm run dev
npm WARN config global `--global`, `--local` are deprecated. Use `--location=global` instead.

> ollama-webui-lite@0.0.1 dev
> vite dev --host --port 3000


Forced re-optimization of dependencies

  VITE v4.5.3  ready in 878 ms

  ➜  Local:   http://localhost:3000/
  ➜  Network: http://192.168.100.105:3000/
  ➜  press h to show help

我们本地访问webui:http://localhost:3000/ 即可访问 在打开的界面中选择模型即可,我本地安装了llama2,llama3,llama3-zh-inst,可以随时切换模型进行页面交互。

到此llama3本地部署完成。后续可以训练自己的知识库,做客服中心等场景