构建你的第一个演示

Open In Colab Open In Studio Lab

让我们从安装 Gradio 开始吧!与安装其他 Python 包一样,只需运行:

pip install gradio

Gradio 支持所有常见的平台,无论是从你最喜欢的 Python IDE、Jupyter notebook 还是 Google Colab 🤯!

所以无论你在哪里运行 Python,都可以安装 Gradio!

让我们从一个简单的“Hello World”示例开始熟悉 Gradio 语法:

import gradio as gr


def greet(name):
    return "Hello " + name


demo = gr.Interface(fn=greet, inputs="text", outputs="text")

demo.launch()

让我们逐步解释上面的代码:

如果你运行这段代码,下面的界面会自动出现在 Jupyter/Colab notebook 中,或者如果在一个脚本中运行,会自动在浏览器中弹出 http://localhost:7860

现在,试着使用你自己的名字或其他的输入来试一试这个 GUI!

你会注意到,在这个 GUI 中,在这个例子中,Gradio 会根据输入参数的名称(name)自动推断文本框顶部的标签。如果你想改变这个标签怎么办?或者,如果你想自定义这个文本框的其他属性?在这种情况下,你可以实例化一个表示输入组件的类。

看看下面的例子:

import gradio as gr


def greet(name):
    return "Hello " + name


# 我们将文本框类实例化
textbox = gr.Textbox(label="Type your name here:", placeholder="John Doe", lines=2)

gr.Interface(fn=greet, inputs=textbox, outputs="text").launch()

在上面的代码中,我们创建了一个带有自定义标签、预设的占位符和固定行数的输入文本框。同时,你也可以自定义输出文本框,但我们现在先不管它。

我们已经看到,只需几行代码,Gradio 就能让你围绕任何函数创建一个简单的界面,同时兼容各种类型的输入或输出。在本节中,我们先从一个简单的文本框开始,但在接下来的节中,我们将介绍其他类型的输入和输出。现在让我们看一下如何在 Gradio 应用中包含一些自然语言处理(NLP)模型。

🤖 使用模型预测

现在让我们构建一个简单的界面,让你可以在这个界面中演示像 GPT-2 这样的文本生成模型。

我们将使用 🤗 Transformers 中的 pipeline() 函数加载我们的模型。 如果你需要快速复习,你可以返回到 第一章 进行回顾。

首先,我们定义一个预测函数,它接收一个文本输入并返回文本生成的结果:

from transformers import pipeline

model = pipeline("text-generation")


def predict(prompt):
    completion = model(prompt)[0]["generated_text"]
    return completion

此函数会不断接龙补全输入,你可以自己尝试各种输入来查看它是如何运行的。下面是一个示例(你可能会得到不同的输出结果):

predict("My favorite programming language is")
>> My favorite programming language is Haskell. I really enjoyed the Haskell language, but it doesn't have all the features that can be applied to any other language. For example, all it does is compile to a byte array.

现在我们有了一个生成预测的函数,接下来可以像之前一样创建和启动一个 Interface

import gradio as gr

gr.Interface(fn=predict, inputs="text", outputs="text").launch()

就是这样!你现在可以在 Interface 创建的 Web 网页上使用 GPT-2 模型生成文本,如下所示 🤯:

接下来,让我们一起了解一下如何使用 Gradio 构建其他输入输出类型的演示!

< > Update on GitHub