微信扫码
添加专属顾问
我要投稿
“ 2024年11月6日,Ollama发布了0.4版本,新增支持在本地加载和运行Llama3.2视觉模型,包括11B和90B两个大小的版本。”
01
1. 下载安装Ollama 0.4版本
下载地址: https://ollama.com
2. 运行Llama3.2视觉模型:
ollama run llama3.2-vision
3. 如果你的电脑配置足够强大,通过以下命令运行90B模型:
ollama run llama3.2-vision:90b
4. 要将一张图片添加到提示词中,可以拖动并释放它到终端中(Windows),或在Linux上将图片的路径添加到提示词中。
注意:Llama3.2视觉模型11B需要至少8GB的VRAM,而90B模型则需要至少64GB的VRAM。
—
1. 手写识别
2. 光学字符识别(OCR)
3. 图表和表格
4. 图片问答
—
1. 首先拉取模型:
ollama pull llama3.2-vision
2. 调用Python库
可以通过Ollama Python库在代码中调用Llama3.2视觉模型
import ollamaresponse = ollama.chat(model='llama3.2-vision',messages=[{'role': 'user','content': 'What is in this image?','images': ['image.jpg']}])print(response)
3. 调用JavaScript库
也可通过Ollama JavaScript库在代码中调用Llama3.2视觉模型
import ollama from 'ollama'const response = await ollama.chat({model: 'llama3.2-vision',messages: [{role: 'user',content: 'What is in this image?',images: ['image.jpg']}]})console.log(response)
4. 通过cURL调用
还可以通过cURL命令在命令行中调用
curl http://localhost:11434/api/chat -d '{"model": "llama3.2-vision","messages": [{"role": "user","content": "what is in this image?","images": ["<base64-encoded image data>"]}]}'53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-12-15
万字拆解UI-TARS 2.0,看懂豆包手机背后的核心技术
2025-12-14
秒杀传统 TTS?!Gemini 原生中文 TTS 体验 + 提示词模板
2025-12-14
别被“多模态”骗了:用一本200页的教材,我测出了GPT-5.2和Gemini的物种代差
2025-12-11
Qwen3-Omni新升级:声形意合,令出智随!
2025-12-11
首发实测智谱 GLM-TTS:3秒克隆我的声音,连「哎等等这bug怎么回事」都学会了
2025-12-11
硅基流动上线智谱视觉模型 GLM-4.6V
2025-12-11
GLM-TTS技术报告:基于多奖励强化学习的可控发音语音合成
2025-12-11
Qwen3-TTS全面升级:声情并茂,语通八方
2025-09-19
2025-11-10
2025-12-06
2025-10-22
2025-10-31
2025-09-25
2025-09-17
2025-12-07
2025-11-03
2025-11-19
2025-08-04
2025-05-26
2025-05-13
2025-04-08
2025-04-05
2025-03-30
2025-03-26
2025-03-05