Gradio 代理和 MCP 黑客马拉松

获奖者
Gradio logo
  1. 辅助函数
  2. load_chat

Gradio 新手?从这里开始: 入门

查看 发布历史

load_chat

gradio.load_chat(···)

描述

从 OpenAI API 聊天兼容的端点加载聊天界面。

示例用法

import gradio as gr
demo = gr.load_chat("https://:11434/v1", model="deepseek-r1")
demo.launch()

初始化

参数
🔗
base_url: str

端点的基础 URL,例如 "https://:11434/v1/"

🔗
model: str

您正在加载的模型名称,例如 "llama3.2"

🔗
token: str | None
默认值 = None

API 令牌或如果您正在使用本地模型则为占位符字符串,例如 "ollama"

🔗
file_types: Literal['text_encoded', 'image'] | list[Literal['text_encoded', 'image']] | None
默认值 = "text_encoded"

允许用户上传的文件类型。"text_encoded" 允许上传任何文本编码文件(该文件将直接附加到提示中),"image" 则添加图片上传支持。设置为 None 可禁用文件上传。

🔗
system_message: str | None
默认值 = None

对话中使用的系统消息(如果有)。

🔗
streaming: bool
默认值 = True

响应是否应以流式传输。

🔗
kwargs: <class 'inspect._empty'>

传递给 ChatInterface 以进行自定义的其他关键字参数。