PaddlePaddle发布新版API,简化深度学习编程

时间:2022-05-04
本文章向大家介绍PaddlePaddle发布新版API,简化深度学习编程,主要内容包括其使用实例、应用技巧、基本知识点总结和需要注意事项,具有一定的参考价值,需要的朋友可以参考一下。

PaddlePaddle是百度于2016年9月开源的一款分布式深度学习平台,为百度内部多项产品提供深度学习算法支持。为了使PaddlePaddle更加易用,我们已经做了一系列的工作,包括使用Kubernetes集群管理系统来进行部署与运行。

2017年3月11日,我们很高兴地发布新API的Alpha版0.10.0rc1,以及《深度学习入门教程》。目前教程包括八个示例程序,均可以在Jupyter Notebook上运行,即用户可以通过网页浏览文档并运行程序。

使用新API,PaddlePaddle的程序代码将大幅缩短。下图对比展示了一个卷积神经网络在旧API(图左半边)和新API(图右半边)的效果。

新API能达到如此显著的代码简化效果,有以下三个关键的设计思想。

一个新的概念模型

我们的设计原则是:让用户在神经网络中表达和解决实际的问题,并用更加灵活的方式来描述新的深度学习算法。因此,新模型包含以下几部分概念:

  • 模型(model)是一个或多个拓扑结构的组合。
  • 拓扑结构(topology)是一系列层的表达式。
  • 层(layer)可以是任何类型的计算函数,包括损失(cost)函数。
  • 有些层有梯度参数,有些层没有,大多数损失函数没有参数。
  • 在一些拓扑结构中,层与层之间共享参数。
  • 对于多个拓扑结构间存在参数共享的情况,PaddlePaddle能自动找出并创建这些参数。

下面,通过两个例子来展示我们的一些设计思想。

层与层之间共享参数

假设我们要学习一个文本词向量f,训练样本是“对查询Q来说,搜索结果A比B更准确”,任务目标是:sim(f(A), f(Q)) > sim(f(B), f(Q)),也就是f(A)和f(Q)的相似度,大于f(B)和f(Q)的相似度。为了学习f,我们构建了一个三分支的网络结构:

A -> f -
Q -> f --> cost
B -> f -/

这里的模型实际上是x -> f,但我们需要重复三次来学习f,以下伪代码展示了如何构建这样一个模型:

def f(in):
    e = paddle.layer.embedding(in, parameter_name="embedding")
    o = paddle.layer.softmax(e, parameter_name="semantic")
    return o

# 创建三个拓扑结构(子模型),由于它们对应每一层的参数名都相同,因此三个拓扑结构共享参数。
fA = f(paddle.layer.data(input_name="A"))
fB = f(paddle.layer.data(input_name="B"))
fQ = f(paddle.layer.data(input_name="Q"))

# 使用交叉熵代价损失函数,并取最小值。
topology = paddle.layer.less_than(
               paddle.layer.cross_entropy_cost(fA, fQ),
               paddle.layer.corss_entropy_cost(fB, fQ))

# 自动创建参数
parameters = paddle.parameters.create(topology)

拓扑结构之间共享参数

假设GAN模型包含两个拓扑结构d0和d1,d0和d1之间共享了参数。因此在训练过程中,更新一个拓扑结构的参数时可能需要同时更新另一个。如果使用旧API,用户将不得不访问非常底层的API,这部分API接口通常相对晦涩,且文档不全。而使用新API,GAN模型仅需几十行即可,伪代码如下:

def G(in):
    # 生成器,本示例中假设只含有一层。
    return paddle.layer.fc(in, parameter_name="G") 

def D(in, parameters_mutable);
    # 对抗器,本示例中假设只含有一层。
    # parameters_mutable表示是否需要更新参数。
    return paddle.layer.fc(in, parameters_name="D", parameters_mutable)

# 创建第一个拓扑结构d0,包括生成器G和对抗器D,但训练过程中只更新G的参数。
d0 = paddle.layer.should_be_false(
         D(G(paddle.layer.data()),
           False))

# 创建第二个拓扑结构d1,只包含对抗器D,训练过程中更新D的参数。
# 注意:d1和d0的参数是共享的。
d1 = paddle.layer.should_be_true(D(paddle.layer.data()))

# 自动创建参数
parameters = paddle.parameters.create([d0, d1])

可组合的数据加载模块

在工业届的AI应用中,数据加载部分通常需要大量的源代码。为了减轻用户的这部分工作量,新API的数据接口设计包含几个部分:

  • reader:从本地、网络、分布式文件系统等读取数据,也可随机生成数据,并返回一个或多个数据项。
  • reader creator:一个返回reader的函数。
  • reader decorator:装饰器,可组合一个或多个reader
  • batch reader:与reader类似,但可批量返回一个或多个数据项。

下面展示了一个随机生成数据,并返回单个数据项的reader creator函数:

def reader_creator():
    def reader():
        while True:
            yield numpy.random.uniform(-1, 1, size=784)
    return reader

新API还有助于数据加载操作的复用。例如,我们定义两个reader,分别是impressions()clicks(),前者用于读取搜索引擎的日志流数据,后者用于读取点击流数据;然后,我们可以通过预定义的reader decorator缓存并组合这些数据,再对合并后的数据进行乱序操作:

r = paddle.reader.shuffle(
      paddle.reader.compose(
        paddle.reader(impressions(impression_url), buf_size=8192),
        paddle.reader(clicks(click_url), buf_size=8192),      4096)

如果我们希望只使用数据集中的前5000个样本来进行小型实验,代码如下:

paddle.reader.firstn(r, 5000)

此外,我们发布了paddle.datasets包,为教程中的八个示例程序都提供了预定义好的数据加载接口。第一次调用时会自动下载公共数据集并进行预处理,之后的调用则会从本地缓存中自动读取。

更高层次的API

PaddlePaddle是一个诞生在工业界的系统,从一开始就强调支持分布式训练。但在编写分布式程序时,旧API暴露了很多用户不需要知道的细节。另外,PaddlePaddle的C++代码中的训练过程是一个for循环结构,不能跑在交互式的Jupyter Notebook上。因此,我们发布了新API,提供了一些更高层次的接口,如train(训练接口)、test(测试接口)和infer(应用接口)。这些新API既能在本地运行,将来也支持在Kubernets集群上运行分布式作业。

以上述的三分支模型和GAN模型为例,下面展示traininfer的使用思路。

####三分支模型####
# 训练时,使用read_ranking_model_data读入数据,更新topology中的parameters。
paddle.train(topology, parameters, reader=read_ranking_model_data)

# 应用时,因为fA、fB和fQ共享参数,因此只需要fA的参数即可。
[testA, testB, testQ] = read_ranking_model_data()
print "The sematic-vector of testA: ", paddle.infer(fA, parameters, testA)
####GAN模型####
# 循环训练d0和d1,注意两者的训练数据不同。
for ...:
    train(d0, parameters, reader=read_from_rng)
    train(d1, parameters, reader=read_from_realistic_images)

# 使用d1来做应用:
print "D thinks a batch of images are realistic", paddle.infer(d1, parameters, read_mnist_images)

我们会持续优化新API,上述设计思想的具体实现会在0.10.0版中完成,同时也欢迎您的评论、反馈和代码贡献!

参考文献

1.PaddlePaddle’s New API Simplifies Deep Learning Programs.

2.PaddlePaddle Design Doc.

3.PaddlePaddle Python Data Reader Design Doc.

关于《深度学习入门教程》

这本书脱胎于PaddlePaddle Team的线上教材《深度学习入门》,包括新手入门、识别数字、图像分类、词向量、情感分析、语义角色标注、机器翻译、个性化推荐等内容。

以下是《深度学习入门》一书的目录:

在线阅读:http://book.paddlepaddle.org/index.html