通过ollama配置deepseek实现Python环境下本地模型的交互使用

1、安装 Python SDK,可以使用 pip 安装:

pip install ollama

如果下载慢,替换国内源,pip替换:

pip config set global.index-url https://mirror.nyist.edu.cn/pypi/web/simple

通过ollama配置deepseek实现Python环境下本地模型的交互使用
2、启动ollama本地服务:

ollama serve

3、安装了 SDK 并启动了本地服务后,我们就可以通过 Python 代码与 Ollama 进行交互。首先,从 ollama 库中导入 chat 和 ChatResponse:

from ollama import chat
from ollama import ChatResponse

以下为交互实例,主要注意两处:
模型名称,根据实际模型修改:model=’deepseek-r1:8b’
提问语句,根据实际提问修改:’content’: ‘根据沁园春 雪 写一首沁园春 雨’

from ollama import chat
from ollama import ChatResponse
response: ChatResponse = chat(model='deepseek-r1:8b', messages=[
{
'role': 'user',
'content': '根据沁园春 雪 写一首沁园春 雨',
},
])
# 打印响应内容
print(response['message']['content'])

# 或者直接访问响应对象的字段
#print(response.message.content)

通过ollama配置deepseek实现Python环境下本地模型的交互使用
生成的诗词非常精彩:

沁园春·雨
云涌阴凝望城垣,雨幕胧滞漫眼帘。
青铜色浑浊映苔藓,荷叶浮动摇曳纱窗。
远近驻足雨伞低,人群密集赏景乐。
世事浮生留恋沁园春雨,犹如寒霜洒玉盘。

参考文献:Ollama Python 使用 https://www.runoob.com/ollama/ollama-python-sdk.html

原创文章,作者:开心电脑网,如若转载,请注明出处。

(2)
上一篇 2025年3月6日
下一篇 2023年2月13日

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注