Gradio 代理和 MCP 黑客马拉松
使用我们的 Docs MCP
构建演示
区块布局
组件
辅助函数
模态框
路由
其他
Gradio 新手?从这里开始: 入门
查看 发布历史
load
on
gradio.load_chat(···)
import gradio as gr demo = gr.load_chat("https://:11434/v1", model="deepseek-r1") demo.launch()
base_url: str
端点的基础 URL,例如 "https://:11434/v1/"
model: str
您正在加载的模型名称,例如 "llama3.2"
token: str | None
= None
API 令牌或如果您正在使用本地模型则为占位符字符串,例如 "ollama"
file_types: Literal['text_encoded', 'image'] | list[Literal['text_encoded', 'image']] | None
= "text_encoded"
允许用户上传的文件类型。"text_encoded" 允许上传任何文本编码文件(该文件将直接附加到提示中),"image" 则添加图片上传支持。设置为 None 可禁用文件上传。
system_message: str | None
对话中使用的系统消息(如果有)。
streaming: bool
= True
响应是否应以流式传输。
kwargs: <class 'inspect._empty'>
传递给 ChatInterface 以进行自定义的其他关键字参数。