最新 最热

大模型——如何本地跑通一个大模型

这里主要借助两个开源项目 ollama 和 openwebui 这两个项目,来尝试本地跑通llama3.1 8b 、 mistral-nemo 12b 和 qwen2 7b 这些模型,再大的模型机器也撑不住了,机器配置如下:...

2024-09-23
1

从零到一使用 Ollama、Dify 和 Docker 构建 Llama 3.1 模型服务

本篇文章聊聊,如何使用 Ollama、Dify 和 Docker 来完成本地 Llama 3.1 模型服务的搭建。

2024-07-28
2