OpenManus
是 MetaGPT 团队推出的开源 AI Agent 复刻版 Manus,支持多种语言模型和工具链,能够执行代码、处理文件、搜索网络信息等复杂任务,具备实时反馈机制和灵活的配置选项。
接下来我们将一步步介绍如何通过 Ollama 本地部署大模型,以及如何运行 OpenManus。
ollama serve
11434
端口:ollama run qwq
在启动 OpenManus 服务前,我们需要配置 LLM API 的相关信息,请按照以下步骤修改配置文件:
cd OpenManus
OpenManus/config
目录中手动创建一个命名为 config.toml
的配置文件,也可以运行以下命令复制配置文件模版作为新的配置文件:cp config/config.example.toml config/config.toml
config.toml
文件,添加你的 LLM API 密钥并自定义设置,我这里使用的是 QWQ 模型,你可以换其他 ollama 的模型:参考配置:
# Global LLM configuration
[llm]
model = "qwq"
base_url = "http://localhost:11434/v1"
api_key = "sk-11223344qwer"
max_tokens = 4096
temperature = 0.0
# Optional configuration for specific LLM models
[llm.vision]
model = "claude-3-5-sonnet"
base_url = "https://api.openai.com/v1"
api_key = "sk-..."
python main.py
除了简单的任务之外,OpenManus 还可以帮助我们完成更加复杂的任务,如创建一个可运行的应用程序等,快点试试看吧!
⚠️ 注意!输入中不要带空格、下划线等特殊字符,会导致对话内容不识别!
如果你想使用不稳定版本可以运行:
python run_flow.py
Enjoy it!