• 游客, 欢迎您来到九域资源社区,如果您是新人,请前往 论坛公告 板块查看新人引导教程 或者 点我打开
    如果您发现没有下载许可, 请先验证邮箱再进行下载;金锭可通过每日登陆或资源出售获取,目前没有其他渠道可获取。
资源图标

Bukkit OllamaChat — 可对接 Ollama 模型的一款对话插件[1.12.2-1.20.2] 1.0.0

没有下载权限
◆ 支持核心
CatServer,Spigot,PaperSpigot,Magma,Arclight
◆ 插件前置
AyCore
◆ 游戏版本
1.12.2-1.20.2
此插件一时兴起写的,更新随缘,
但已开源,有能力的服主可自行修改
开源地址:https://github.com/blank038/OllamaChat

一、命令
/ollama gen <问题> 进行对话
/ollama reload 重载配置文件

二、截图
1722610667955.png



1722610721554.png


三、接口
消息处理接口,自定义消息需实现 IMessage 接口,默认提供 NormalMessage
代码:
OllamaChatApi.generate(host, model, prompt, messageConsumer, errorConsumer)

四、使用方法 & 自行安装 ollama: https://ollama.com/
⚡ PowerShell
代码:
$Env:OLLAMA_ORIGINS="*" ; ollama serve ; ollama run <模型名, 例如 llama3>
⚡ Bash
Bash:
export OLLAMA_ORIGINS="*" && ollama serve && ollama run <模型名, 例如 llama3>

如果你是本地跑的模型,就不需要修改 host,否则需要修改 config.yml 内的 hosts 配置。
作者
张杰宁
下载
1
查看
872
首次发布
最后更新
评分
0.00 星 0 星

来自张杰宁的更多资源

分享资源