点击小眼睛开启蜘蛛网特效

一步一步解读神经网络编译器TVM(二)——利用TVM完成C++端的部署

《一步一步解读神经网络编译器TVM(二)——利用TVM完成C++端的部署》

前言

在上一篇文章中<一步一步解读神经网络编译器TVM(一)——一个简单的例子>,我们简单介绍了什么是TVM以及如何利用Relay IR去编译网络权重然后并运行起来。

《一步一步解读神经网络编译器TVM(二)——利用TVM完成C++端的部署》

上述文章中的例子很简单,但是实际中我们更需要的是利用TVM去部署我们的应用么,最简单直接的就是在嵌入式系统中运行起我们的神经网络模型。例如树莓派。这才是最重要的是不是?所以嘛,在深入TVM之前还是要走一遍基本的实践流程的,也唯有实践流程才能让我们更好地理解TVM到底可以做什么。

所以嘛,在这篇文章中,主要介绍如果将自己的神经网络使用TVM编译,并且导出动态链接库文件,最后部署在树莓派端(PC端),并且运行起来。

环境搭建

环境搭建?有什么好讲的?

废话咯,你需要先把TVM的环境搭建出来才可以用啊,在上一篇文章中已经说过了,另外官方的安装教程最为详细,这里还是多建议看看官方的文档,很详细很具体重点把握的也很好。

但是还是要强调两点:

  • 需要安装LLVM,因为这篇文章所讲的主要运行环境是CPU(树莓派的GPU暂时不用,内存有点小),所以LLVM是必须的
  • 安装交叉编译器:

Cross Compiler

交叉编译器是什么,就是我可以在PC平台上编译生成可以直接在树莓派上运行的可执行文件。而在TVM中,我们需要利用交叉编译器在PC端编译模型并且优化,然后生成适用于树莓派(arm构架)使用的动态链接库。

有这个动态链接库,我们就可以直接调用树莓派端的TVM运行时环境去调用这个动态链接库,从而执行神经网络的前向操作了。

那么怎么安装呢?这里我们需要安装叫做/usr/bin/arm-linux-gnueabihf-g++的交叉编译器,在Ubuntu系统中,我们直接sudo apt-get install g++-arm-linux-gnueabihf即可,注意名称不能错,我们需要的是hf(Hard-float)版本。

安装完后,执行/usr/bin/arm-linux-gnueabihf-g++ -v命令就可以看到输出信息:

prototype@prototype-X299-UD4-Pro:~/$ /usr/bin/arm-linux-gnueabihf-g++ -v
Using built-in specs.
COLLECT_GCC=/usr/bin/arm-linux-gnueabihf-g++
COLLECT_LTO_WRAPPER=/usr/lib/gcc-cross/arm-linux-gnueabihf/5/lto-wrapper
Target: arm-linux-gnueabihf
Configured with: ../src/configure -v --with-pkgversion='Ubuntu/Linaro 5.4.0-6ubuntu1~16.04.9' --with-bugurl=file:///usr/share/doc/gcc-5/README.Bugs --enable-languages=c,ada,c++,java,go,d,fortran,objc,obj-c++ --prefix=/usr --program-suffix=-5 --enable-shared --enable-linker-build-id --libexecdir=/usr/lib --without-included-gettext --enable-threads=posix --libdir=/usr/lib --enable-nls --with-sysroot=/ --enable-clocale=gnu --enable-libstdcxx-debug --enable-libstdcxx-time=yes --with-default-libstdcxx-abi=new --enable-gnu-unique-object --disable-libitm --disable-libquadmath --enable-plugin --with-system-zlib --disable-browser-plugin --enable-java-awt=gtk --enable-gtk-cairo --with-java-home=/usr/lib/jvm/java-1.5.0-gcj-5-armhf-cross/jre --enable-java-home --with-jvm-root-dir=/usr/lib/jvm/java-1.5.0-gcj-5-armhf-cross --with-jvm-jar-dir=/usr/lib/jvm-exports/java-1.5.0-gcj-5-armhf-cross --with-arch-directory=arm --with-ecj-jar=/usr/share/java/eclipse-ecj.jar --disable-libgcj --enable-objc-gc --enable-multiarch --enable-multilib --disable-sjlj-exceptions --with-arch=armv7-a --with-fpu=vfpv3-d16 --with-float=hard --with-mode=thumb --disable-werror --enable-multilib --enable-checking=release --build=x86_64-linux-gnu --host=x86_64-linux-gnu --target=arm-linux-gnueabihf --program-prefix=arm-linux-gnueabihf- --includedir=/usr/arm-linux-gnueabihf/include
Thread model: posix
gcc version 5.4.0 20160609 (Ubuntu/Linaro 5.4.0-6ubuntu1~16.04.9) 

树莓派环境搭建

因为我们是在PC端利用TVM编译神经网络的,所以在树莓派端我们只需要编译TVM的运行时环境即可(TVM可以分为两个部分,一部分为编译时,另一个为运行时,两者可以拆开)。

这里附上官方的命令,注意树莓派端也需要安装llvm,树莓派端的llvm可以在llvm官方找到已经编译好的压缩包,解压后添加环境变量即可:

git clone --recursive https://github.com/dmlc/tvm
cd tvm
mkdir build
cp cmake/config.cmake build   # 这里修改config.cmake使其支持llvm
cd build
cmake ..
make runtime

在树莓派上编译TVM的运行时并不需要花很久的时间。

完成部署

环境搭建好之后,就让我们开始吧~

《一步一步解读神经网络编译器TVM(二)——利用TVM完成C++端的部署》

首先我们依然需要一个自己的测试模型,在这里我使用之前训练好的,识别剪刀石头布手势的模型权重,然后利用Pytorch导出ONNX模型出来。具体的导出步骤可以看我之前的这两篇文章,下述两篇文章中使用的模型与本篇文章使用的是同一个模型。

《一步一步解读神经网络编译器TVM(二)——利用TVM完成C++端的部署》
(上图是之前的识别剪刀石头布的一个权重模型)

OK,那我们拥有了一个模型叫做mobilenetv2-128_S.onnx,这个模型也就是通过Pytorch导出的ONNX模型,利用Netron瞧一眼:

《一步一步解读神经网络编译器TVM(二)——利用TVM完成C++端的部署》

整个模型的输入和输出上图写的都很清楚了。

测试模型

拿到模型后,我们首先测试模型是否可以正确工作,同上一篇介绍TVM的文章类似,我们利用TVM的PYTHON前端去读取我们的.onnx模型,然后将其编译并运行,最后利用测试图像测试其是否可以正确工作,其中核心代码如下:

onnx_model = onnx.load('../test/new-mobilenetv2-128_S.onnx')

img = Image.open('../datasets/hand-image/paper.jpg').resize((128, 128))

img = np.array(img).transpose((2, 0, 1)).astype('float32')  
img = img/255.0           # 注意在Pytorch中的tensor范围是0-1
x = img[np.newaxis, :]

target = 'llvm'

input_name = '0'      # 这里需要注意,因为我生成的.onnx模型的输入代号是0,所以这里改为0
shape_dict = {input_name: x.shape}
sym, params = relay.frontend.from_onnx(onnx_model, shape_dict)

with relay.build_config(opt_level=3):
    intrp = relay.build_module.create_executor('graph', sym, tvm.cpu(0), target)

dtype = 'float32'
func = intrp.evaluate(sym)

# 输出推断的结果
tvm_output = intrp.evaluate(sym)(tvm.nd.array(x.astype(dtype)), **params).asnumpy()
max_index = tvm_output.argmax()
print(max_index)

我这个模型输出的结果为三个手势的输出值大小(顺序分别为布、剪刀、石头),上述的代码打印出来的值为0,意味着可以正确识别paper.jpg输入的图像。说明这个转化过程是没有问题的。

导出动态链接库

上面这个步骤只是将.onnx模型利用TVM读取并且预测出来,如果我们需要部署的话我们就需要导出整个模型的动态链接库,至于为什么是动态链接库,其实TVM是有多种的导出模式的(也可以导出静态库),但是这里不细说了:

《一步一步解读神经网络编译器TVM(二)——利用TVM完成C++端的部署》

总之我们的目标就是导出so动态链接库,这个链接库中包括了我们神经网络所需要的一切推断功能。

那么怎么导出呢?其实官方已经有很详细的导出说明。我这里不进行赘述了,仅仅展示核心的代码加以注释即可。

请看以下的代码:

#开始同样是读取.onnx模型

onnx_model = onnx.load('../../test/new-mobilenetv2-128_S.onnx')
img = Image.open('../../datasets/hand-image/paper.jpg').resize((128, 128))

# 以下的图片读取仅仅是为了测试
img = np.array(img).transpose((2, 0, 1)).astype('float32')
img = img/255.0    # remember pytorch tensor is 0-1
x = img[np.newaxis, :]

# 这里首先在PC的CPU上进行测试 所以使用LLVM进行导出
target = tvm.target.create('llvm')

input_name = '0'  # change '1' to '0'
shape_dict = {input_name: x.shape}
sym, params = relay.frontend.from_onnx(onnx_model, shape_dict)

# 这里利用TVM构建出优化后模型的信息
with relay.build_config(opt_level=2):
    graph, lib, params = relay.build_module.build(sym, target, params=params)

dtype = 'float32'

from tvm.contrib import graph_runtime

# 下面的函数导出我们需要的动态链接库 地址可以自己定义
print("Output model files")
libpath = "../tvm_output_lib/mobilenet.so"
lib.export_library(libpath)

# 下面的函数导出我们神经网络的结构,使用json文件保存
graph_json_path = "../tvm_output_lib/mobilenet.json"
with open(graph_json_path, 'w') as fo:
    fo.write(graph)

# 下面的函数中我们导出神经网络模型的权重参数
param_path = "../tvm_output_lib/mobilenet.params"
with open(param_path, 'wb') as fo:
    fo.write(relay.save_param_dict(params))
# -------------至此导出模型阶段已经结束--------

# 接下来我们加载导出的模型去测试导出的模型是否可以正常工作
loaded_json = open(graph_json_path).read()
loaded_lib = tvm.module.load(libpath)
loaded_params = bytearray(open(param_path, "rb").read())

# 这里执行的平台为CPU
ctx = tvm.cpu()

module = graph_runtime.create(loaded_json, loaded_lib, ctx)
module.load_params(loaded_params)
module.set_input("0", x)
module.run()
out_deploy = module.get_output(0).asnumpy()

print(out_deploy)

上述的代码输出[[13.680096 -7.218611 -6.7872353]],因为输入的图像是paper.jpg,所以输出的三个数字第一个数字最大,没有毛病。

执行完代码之后我们就可以得到需要的三个文件

得到三个文件之后,接下来我们利用TVM的C++端读取并运行起来。

在PC端利用TVM部署C++模型

如何利用TVM的C++端去部署,官方也有比较详细的文档,这里我们利用TVM和OpenCV读取一张图片,并且使用之前导出的动态链接库去运行神经网络对这张图片进行推断。

我们需要的头文件为:

#include <cstdio>
#include <dlpack/dlpack.h>
#include <opencv4/opencv2/opencv.hpp>
#include <tvm/runtime/module.h>
#include <tvm/runtime/registry.h>
#include <tvm/runtime/packed_func.h>
#include <fstream>

其实这里我们只需要TVM的运行时,另外dlpack是存放张量的一个结构。其中OpenCV用于读取图片,而fstream则用于读取json和参数信息:

tvm::runtime::Module mod_dylib =
    tvm::runtime::Module::LoadFromFile("../files/mobilenet.so");

std::ifstream json_in("../files/mobilenet.json", std::ios::in);
std::string json_data((std::istreambuf_iterator<char>(json_in)), std::istreambuf_iterator<char>());
json_in.close();

// parameters in binary
std::ifstream params_in("../files/mobilenet.params", std::ios::binary);
std::string params_data((std::istreambuf_iterator<char>(params_in)), std::istreambuf_iterator<char>());
params_in.close();

TVMByteArray params_arr;
params_arr.data = params_data.c_str();
params_arr.size = params_data.length();

在读取完信息之后,我们要利用之前读取的信息,构建TVM中的运行图(Graph_runtime):

int dtype_code = kDLFloat;
int dtype_bits = 32;
int dtype_lanes = 1;
int device_type = kDLCPU;
int device_id = 0;

tvm::runtime::Module mod = (*tvm::runtime::Registry::Get("tvm.graph_runtime.create"))
        (json_data, mod_dylib, device_type, device_id);

然后利用TVM中函数建立一个输入的张量类型并且为它分配空间:

DLTensor *x;
int in_ndim = 4;
int64_t in_shape[4] = {1, 3, 128, 128};
TVMArrayAlloc(in_shape, in_ndim, dtype_code, dtype_bits, dtype_lanes, device_type, device_id, &x);

其中DLTensor是个灵活的结构,可以包容各种类型的张量,而在创建了这个张量后,我们需要将OpenCV中读取的图像信息传入到这个张量结构中:

// 这里依然读取了papar.png这张图
image = cv::imread("/home/prototype/CLionProjects/tvm-cpp/data/paper.png");

cv::cvtColor(image, frame, cv::COLOR_BGR2RGB);
cv::resize(frame, input,  cv::Size(128,128));

float data[128 * 128 * 3];
// 在这个函数中 将OpenCV中的图像数据转化为CHW的形式 
Mat_to_CHW(data, input);

需要注意的是,因为OpenCV中的图像数据的保存顺序是(128,128,3),所以这里我们需要将其调整过来,其中Mat_to_CHW函数的具体内容是:

void Mat_to_CHW(float *data, cv::Mat &frame)
{
    assert(data && !frame.empty());
    unsigned int volChl = 128 * 128;

    for(int c = 0; c < 3; ++c)
    {
        for (unsigned j = 0; j < volChl; ++j)
            data[c*volChl + j] = static_cast<float>(float(frame.data[j * 3 + c]) / 255.0);
    }

}

当然别忘了除以255.0因为在Pytorch中所有的权重信息的范围都是0-1。

在将OpenCV中的图像数据转化后,我们将转化后的图像数据拷贝到之前的张量类型中:

// x为之前的张量类型 data为之前开辟的浮点型空间
memcpy(x->data, &data, 3 * 128 * 128 * sizeof(float));

然后我们设置运行图的输入(x)和输出(y):

// get the function from the module(set input data)
tvm::runtime::PackedFunc set_input = mod.GetFunction("set_input");
set_input("0", x);

// get the function from the module(load patameters)
tvm::runtime::PackedFunc load_params = mod.GetFunction("load_params");
load_params(params_arr);

DLTensor* y;
int out_ndim = 2;
int64_t out_shape[2] = {1, 3,};
TVMArrayAlloc(out_shape, out_ndim, dtype_code, dtype_bits, dtype_lanes, device_type, device_id, &y);

// get the function from the module(run it)
tvm::runtime::PackedFunc run = mod.GetFunction("run");

// get the function from the module(get output data)
tvm::runtime::PackedFunc get_output = mod.GetFunction("get_output");

此刻我们就可以运行了:

run();
get_output(0, y);

// 将输出的信息打印出来
auto result = static_cast<float*>(y->data);
for (int i = 0; i < 3; i++)
    cout<<result[i]<<endl;

最后的输出信息是

13.8204
-7.31387
-6.8253

可以看到,成功识别出了布这张图片,到底为止在C++端的部署就完毕了。

在树莓派上的部署

在树莓派上的部署其实也是很简单的,与上述步骤中不同的地方是我们需要设置target为树莓派专用:

target = tvm.target.arm_cpu('rasp3b')

我们点进去其实可以发现rasp3b对应着-target=armv7l-linux-gnueabihf

trans_table = {
    "pixel2":    ["-model=snapdragon835", "-target=arm64-linux-android -mattr=+neon"],
    "mate10":    ["-model=kirin970", "-target=arm64-linux-android -mattr=+neon"],
    "mate10pro": ["-model=kirin970", "-target=arm64-linux-android -mattr=+neon"],
    "p20":       ["-model=kirin970", "-target=arm64-linux-android -mattr=+neon"],
    "p20pro":    ["-model=kirin970", "-target=arm64-linux-android -mattr=+neon"],
    "rasp3b":    ["-model=bcm2837", "-target=armv7l-linux-gnueabihf -mattr=+neon"],
    "rk3399":    ["-model=rk3399", "-target=aarch64-linux-gnu -mattr=+neon"],
    "pynq":      ["-model=pynq", "-target=armv7a-linux-eabi -mattr=+neon"],
    "ultra96":   ["-model=ultra96", "-target=aarch64-linux-gnu -mattr=+neon"],
}

还有一点改动的是,我们在导出.so的时候需要加入cc="/usr/bin/arm-linux-gnueabihf-g++",此时的/usr/bin/arm-linux-gnueabihf-g++为之前下载的交叉编译器。

path_lib = '../tvm/deploy_lib.so'
lib.export_library(path_lib, cc="/usr/bin/arm-linux-gnueabihf-g++")

这时我们就可以导出来树莓派需要的几个文件,之后我们将这几个文件移到树莓派中,随后利用上面说到的C++部署代码去部署就可以了。

《一步一步解读神经网络编译器TVM(二)——利用TVM完成C++端的部署》

大家关心的问题

看到这里想必大家应该还有很多疑惑,限于篇幅(写的有点累呀),这里讲几个比较重点的东西:

速度

这里可以毫不犹豫地说,对于我这个模型来说,速度提升很明显。在PC端部署中,使用TVM部署的手势检测模型的运行速度是libtorch中的5倍左右,精度还没有测试,但是在我用摄像头进行演示过程中并没有发现明显的区别。当然还需要进一步的测试,就不在这里多说了。

哦对了,在树莓派中,这个模型还没有达到实时(53ms),但是无论对TVM还是对我来说,依然还有很大的优化空间,实时只是时间关系。

层的支持程度

当然因为TVM还处于开发阶段,有一些层时不支持的,上文中的mobilenetv2-128_S.onnx模型一开始使用Relay IR前端读取的时候提示,TVM中没有flatten层的支持,而mobilenetv2-128_S.onnx中有一个flatten层,所以提示报错。

但是这个是问题吗?只要我们仔细看看TVM的源码,熟悉熟悉结构,就可以自己加层了,但其实flatten的操作函数在TVM中已经存在了,只是ONNX的前端接口没有展示出来,onnx前端展示的是batch_flatten这个函数,其实batch_flatten就是flatten的特殊版,于是简单修改源码,重新编译一下就可以成功读取自己的模型了。

后记

限于时间关系,就暂时说到这里,之后会根据自己的时间发布一些TVM的文章,TVM相关的中文文章太少了,自己就干脆贡献一点吧。不过真的很感谢TVM的工作,真的很强~

参考链接

https://discuss.tvm.ai/t/solved-how-to-export-model-library-to-so-file-instead-of-tar-for-armv7-on-x86-box/970/3
https://docs.tvm.ai/deploy/nnvm.html
https://www.cnblogs.com/muyun/p/3370996.html

  点赞
本篇文章采用 署名-非商业性使用-禁止演绎 4.0 国际 进行许可
转载请务必注明来源: https://oldpan.me/archives/the-first-step-towards-tvm-2

   关注Oldpan博客微信公众号,你最需要的及时推送给你。


  1. a
    alfeng说道:

    球求大佬出一期tvm yolov4 cpp

    1. O
      Oldpan说道:

      哎,最近都没有时间碰TVM...

  2. a
    aiblackman说道:

    楼主,请教一个问题,我在使用c++加载tvm模型时,出现错误undefined reference to `tvm::runtime::Module::LoadFromFile(std::__cxx11::basic_string<char, std::char_traits, std::allocator > const&, std::__cxx11::basic_string<char, std::char_traits, std::allocator > const&)',我在写cmake文件时使用的是cxx14标准,无法加载.so文件,楼主有遇到过这样的情况么?谢谢

    1. O
      Oldpan说道:

      没有遇过,如果.so路径其他基本操作没问题的话,你这个很可能是gcc编译出来的ABI不匹配的问题,不明白你的具体原因是什么,不过建议都换成C++11。

      1. a
        aiblackman说道:

        .so文件可以确定是没有问题的,我换成c++11标准后,它会报错error: ‘make_unique’ is not a member of ‘std’ std::unique_ptr s = std::make_unique(); error: ‘operator==’ function uses ‘auto’ type specifier without trailing return type auto operator==(const Optional& other) const ; 这类的错误,原本在编译源码的时候我使用gcc 5.4.0进行编译,后面我也考虑过可能是因为gcc编译出来的abi不匹配,然后我换了一个gcc 7.3.0进行编译,还是会出现同样的错误。

        1. O
          Oldpan说道:

          CMake的配置也指明C++11了?如果能编译成功但是运行不了,可能编译时和运行时的环境还不一样,建议再核对一下,可能就是缺少特定的.so,用ldd,检查下LD_LIBRARY_PATHLIBRARY_PATH

  3. t
    torcher说道:

    new-mobilenetv2-128_S.onnx,模型文件在哪里获取?

  4. 叫我张晨晨好了说道:

    请问 用c++ 进行部署 ,都要包含哪些so或者.o文件呢?
    libtvm.so,libtvm_topi.so,libvta_fsim.so,libvta_tsim.so,libtvm_runtime.so,libnnvm_compiler.so,test_addone_dll.so
    这些我都包含了 ,可还是找不到
    Scanning dependencies of target tvm
    [ 50%] Building CXX object CMakeFiles/tvm.dir/src/test.cpp.o
    [100%] Linking CXX executable tvm
    /usr/bin/ld: 找不到 -ltest_addone_dll
    collect2: error: ld returned 1 exit status
    CMakeFiles/tvm.dir/build.make:108: recipe for target 'tvm' failed
    make[2]: *** [tvm] Error 1
    CMakeFiles/Makefile2:72: recipe for target 'CMakeFiles/tvm.dir/all' failed
    make[1]: *** [CMakeFiles/tvm.dir/all] Error 2
    Makefile:83: recipe for target 'all' failed
    make: *** [all] Error 2

    1. 叫我张晨晨好了说道:

      解决了 只需要两个so就行了 libtvm.so libtvm_runtime.so,别的就不用加了

  5. c
    cui说道:

    你好,你在tvm论坛提问的问题解决了吗?https://discuss.tvm.ai/t/when-infering-reshape-argument-by-precompute-cause-halideir-assert-fai/2159,我也是遇到了转换reshape这个操作的时候,错误和你一样,论坛提问也是很久没人回复

    1. O
      Oldpan说道:

      这个问题我通过改了源码强行纠正了,但是不完善,也没有提PR,自己这边能用就行了...

      1. c
        cui说道:

        可以简单说下如何修改吗?这个bug已经有一个PR 了,目前还没merge,https://github.com/dmlc/tvm/pull/3230

        1. O
          Oldpan说道:

          类型不同,就强制转化就好,如果在IR中需要类型检查,就将检查代码注释掉。

  6. 月影说道:

    博主,您好,看了您的文章,受益匪浅。现请教一个问题:C++端部署,您的例子以及官方的例子都是一个输出的分类模型。如果是多个输出的检测模型(比如:ssd,三个输出 boxes: (1x'nbox'x4) labels: (1x'nbox') scores: (1x'nbox')),python端可以通过 m.get_output(0), m.get_output(1), m.get_output(2),得到数据,但是C++端没有找到相关操作,请问C++端如何部署检测模型?非常感谢!

    1. O
      Oldpan说道:

      可以的,我这边测试过了,但是没有时间发文章介绍。具体代码可以参考TVM源码中的app那一目录的例子,也是类似于get_output(0, scores);get_output(1, boxes);这样的操作

      1. 月影说道:

        感谢您回复,但是我在apps没有找到相关例子(可能新版本移除了?)我主要是输出的DLTensor不会定义,int out_ndim = 2;
        int64_t out_shape[2] = {1, 1000, };这是单输出的分类模型,我在ssd的python中看到scores和class的shape都为{1,100,1},boxs的shape为{1,100,4},这种情况,我该如何定义输出DLTensor的out_ndim和out_shape呢?期盼指教,如果您方便的话,是否能给我您的测试例子供参考(邮箱:lianglei8568@163.com),非常感谢!

  7. 天行说道:

    请问一下怎么导出静态链接库?没有找到对应的教程

    1. O
      Oldpan说道:

      这个我没有试过,在TVM的官方论坛中有相关讨论,你可以去看看。

  8. x
    xiaocui说道:

    你好,可以指点一下如何实现TVM的自定义op吗?发现有些op没有,比如MUL,ResizeBilinear等,谢谢

    1. O
      Oldpan说道:

      正在写相关教程..着急的话可以看TVM的pull request相关的实现,有很多

      1. x
        xiaocui说道:

        好的,我先看看pr,期待大佬文章

  9. 小菜鸡说道:

    博主,你好,通过TVM构建出优化后模型的信息(graph , params)是否可以将模型可视化?

    1. O
      Oldpan说道:

      目前还不可以,只可以看最终生成的json文件

  10. 夏学海说道:

    厉害。不知道跟ncnn比速度如何?