Meta 大模型 Llama 3 体验
系统环境
硬件信息
标题 | 型号 | 大小 | 备注 |
---|---|---|---|
CPU | i9-13900KF | - | - |
主板 | ROG STRIX Z790-A GAMING WIFI | - | - |
显卡 | NVIDIA GeForce RTX™ 4070 | - | - |
内存 | - | 128G | - |
硬盘 | - | 3T | - |
软件信息
标题 | 版本 | 备注 |
---|---|---|
系统版本 | ubuntu 23.10 (Mantic Minotaur) | - |
内核版本 | 6.5.0-17-generic #17-Ubuntu SMP PREEMPT_DYNAMIC Thu Jan 11 14:01:59 UTC 2024 x86_64 x86_64 x86_64 GNU/Linux | - |
ollama | v0.1.27 | - |
准备工作
- 确保可以正常访问到 github 项目 ollama v0.1.26+
- 确保本地网络可以翻越 GFW
- 使用 root 用户进行操作
安装 ollama
官方给出的说明:
Get up and running with large language models, locally.
Run Llama 2, Code Llama, and other models. Customize and create your own.
1.在服务器上创建目录 /usr/local/ollama
1 | # mkdir -p /usr/local/ollama/bin |
2.从 github 上下载 ollama v0.1.26(含该该版本) 到上面创建的目录中并重命名为 ollama:
1 | # wget -O /usr/local/ollama/bin/ollama https://github.com/ollama/ollama/releases/download/v0.1.27/ollama-linux-amd64 |
3.赋予 ollama 可执行权限并软链接到 /usr/local/sbin/
目录下:
1 | # chmod +x /usr/local/ollama/bin/ollama && ln -s /usr/local/ollama/bin/ollama /usr/local/sbin/ollama |
4.执行命令启动 ollama
1 | # ollama serve |
5.根据 ollama 项目提供的文档信息进入 ollama 站点,找到 llama3 模块,根据提示执行下面命令进行模块的下载(这个过程非常耗时):
1 | # ollama run llama3:70b |
6.下载完成后,就可以在命令行进行 AI 交互了!(仅支持英文交互)
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 生活日志!
评论