现在RPC框架很多,但是真正好用的RPC却是少之又少。那么什么是好用的RPC,什么是不好用的RPC呢,有一个评判标准吗?下面是我列举出来的衡量RPC好用与否的几条标准:
下面来分别解释这几条标准。
标准1:真的像本地函数一样调用
RPC的本质是为了屏蔽网络的细节和复杂性,提供易用的api,让用户就像调用本地函数一样实现远程调用,所以RPC最重要的就是“像调用本地函数一样”实现远程调用,完全不让用户感知到底层的网络。真正好用的RPC接口,他的调用形式是和本地函数无差别的,但是本地函数调用是灵活多变的。服务器如果提供和客户端完全一致的调用形式将是非常好用的,这也是RPC框架的一个巨大挑战。
标准2:使用简单,用户只需要关注业务即可
RPC的使用简单直接,非常自然,就是和调用本地函数一样,不需要写一大堆额外代码,用户只用写业务逻辑代码,而不用关注框架的细节,其他的事情都由RPC框架完成。
标准3:灵活,RPC调用的序列化方式可以自由定制
RPC调用的数据格式支持多种编解码方式,比如一些通用的json格式、msgpack格式或者boost.serialization等格式,甚至支持用户自己定义的格式,这样使用起来才会更灵活。
下面根据这几个标准来评估一些国内外知名大公司的RPC框架,这些框架的用法在github的wiki中都有使用示例,使用示例代码均来自官方提供的例子。
gRPC最近发布了1.0版本,他是谷歌公司用c++开发的一个RPC框架,并提供了多种客户端。
协议定义
先定义一个.proto的文件,例如
// Obtains the feature at a given position.
rpc GetFeature(Point) returns (Feature) {}
定义了一个服务接口,接收客户端传过来的Point,返回一个Feature,接下来定义protocol buffer的消息类型,用于序列化/反序列化
message Point {
int32 latitude = 1;
int32 longitude = 2;
}
服务器代码
class RouteGuideImpl final : public RouteGuide::Service {
Status GetFeature(ServerContext* context, const Point* point, Feature* feature) override {
feature->set_name(GetFeatureName(*point, feature_list_));
feature->mutable_location()->CopyFrom(*point);
return Status::OK;
}
}
void RunServer(const std::string& db_path) {
std::string server_address("0.0.0.0:50051");
RouteGuideImpl service(db_path);
ServerBuilder builder;
builder.AddListeningPort(server_address, grpc::InsecureServerCredentials());
builder.RegisterService(&service);
std::unique_ptr<Server> server(builder.BuildAndStart());
std::cout << "Server listening on " << server_address << std::endl;
server->Wait();
}
客户端代码
bool GetOneFeature(const Point& point, Feature* feature) {
ClientContext context;
Status status = stub_->GetFeature(&context, point, feature);
if (!status.ok()) {
std::cout << "GetFeature rpc failed." << std::endl;
return false;
}
if (!feature->has_location()) {
std::cout << "Server returns incomplete feature." << std::endl;
return false;
}
return true;
}
评价
gRPC调用的序列化用的是protocal buffer,RPC服务接口需要在.proto文件中定义,使用稍显繁琐。
根据标准1:gRPC并没有完全实现像本地调用一样,虽然很接近了,但做不到,原因是RPC接口中必须带一个Context的参数,并且返回类型必 须是Status,这些限制导致gRPC无法做到像本地接口一样调用。
根据标准2:gRPC的使用不算简单,需要关注诸多细节,比如Context和Status等框架的细节。
根据标准3:gRPC只支持pb协议,无法扩展支持其他协议。
综合评价:70分。
sofa-pbRPC是百度用c++开发的一个RPC框架,和gRPC有点类似,也是基于protocal buffer的,需要定义协议。
协议定义
// 定义请求消息
message EchoRequest {
required string message = 1;
}
// 定义回应消息
message EchoResponse {
required string message = 1;
}
// 定义RPC服务,可包含多个方法(这里只列出一个)
service EchoServer {
rpc Echo(EchoRequest) returns(EchoResponse);
}
服务器端代码
#include <sofa/pbrpc/pbrpc.h> // sofa-pbrpc头文件
#include "echo_service.pb.h" // service接口定义头文件
class EchoServerImpl : public sofa::pbrpc::test::EchoServer
{
public:
EchoServerImpl() {}
virtual ~EchoServerImpl() {}
private:
virtual void Echo(google::protobuf::RpcController* controller,
const sofa::pbrpc::test::EchoRequest* request,
sofa::pbrpc::test::EchoResponse* response,
google::protobuf::Closure* done)
{
sofa::pbrpc::RpcController* cntl =
static_cast<sofa::pbrpc::RpcController*>(controller);
SLOG(NOTICE, "Echo(): request message from %s: %s",
cntl->RemoteAddress().c_str(), request->message().c_str());
response->set_message("echo message: " + request->message());
done->Run();
}
};
注意:
服务完成后必须调用done->Run(),通知RPC系统服务完成,触发发送Response;
在调了done->Run()之后,Echo的所有四个参数都不再能访问;
done-Run()可以分派到其他线程中执行,以实现了真正的异步处理;
客户端代码
int main()
{
SOFA_PBRPC_SET_LOG_LEVEL(NOTICE);
// 定义RpcClient对象,管理RPC的所有资源
// 通常来说,一个client程序只需要一个RpcClient实例
// 可以通过RpcClientOptions指定一些配置参数,譬如线程数、流控等
sofa::pbrpc::RpcClientOptions client_options;
client_options.work_thread_num = 8;
sofa::pbrpc::RpcClient rpc_client(client_options);
// 定义RpcChannel对象,代表一个消息通道,需传入Server端服务地址
sofa::pbrpc::RpcChannel rpc_channel(&rpc_client, "127.0.0.1:12321");
// 定义EchoServer服务的桩对象EchoServer_Stub,使用上面定义的消息通道传输数据
sofa::pbrpc::test::EchoServer_Stub stub(&rpc_channel);
// 定义和填充调用方法的请求消息
sofa::pbrpc::test::EchoRequest request;
request.set_message("Hello world!");
// 定义方法的回应消息,会在调用返回后被填充
sofa::pbrpc::test::EchoResponse response;
// 定义RpcController对象,用于控制本次调用
// 可以设置超时时间、压缩方式等;默认超时时间为10秒,默认压缩方式为无压缩
sofa::pbrpc::RpcController controller;
controller.SetTimeout(3000);
// 发起调用,最后一个参数为NULL表示为同步调用
stub.Echo(&controller, &request, &response, NULL);
// 调用完成后,检查是否失败
if (controller.Failed()) {
// 调用失败后的错误处理,譬如可以进行重试
SLOG(ERROR, "request failed: %s", controller.ErrorText().c_str());
}
return EXIT_SUCCESS;
}
评价
sofa-pbRPC的使用并没有像sofa这个名字那样sofa。
根据标准1:服务端的RPC接口比gRPC更加复杂,更加远离本地调用了。
根据标准2:用户要做很多额外的事,需要关注框架的很多细节,比较难用。
根据标准3:同样只支持pb协议,无法支持其他协议。
综合评价:62分。
腾讯开源的Pebble也是基于protocal buffer的,不过他的用法比gRPC和sofaRPC更好用,思路都是类似的,先定义协议。
协议定义
struct HeartBeatInfo {
1: i64 id,
2: i32 version = 1,
3: string address,
4: optional string comment,
}
service BaseService {
i64 heartbeat(1:i64 id, 2:HeartBeatInfo data),
oneway void log(1: string content)
}
服务器端代码
class BaseServiceHandler : public BaseServiceCobSvIf {
public:
void log(const std::string& content) {
std::cout << "receive request : log(" << content << ")" << std::endl;
}
};
int main(int argc, char* argv[]) {
// 初始化RPC
pebble::rpc::Rpc* rpc = pebble::rpc::Rpc::Instance();
rpc->Init("", 0, "");
// 注册服务
BaseServiceHandler base_service;
rpc->RegisterService(&base_service);
// 配置服务监听地址
std::string listen_addr("tcp://127.0.0.1:");
if (argc > 1) {
listen_addr.append(argv[1]);
} else {
listen_addr.append("8200");
}
// 添加服务监听地址
rpc->AddServiceManner(listen_addr, pebble::rpc::PROTOCOL_BINARY);
// 启动server
rpc->Serve();
return 0;
}
客户端代码
// 初始化RPC
pebble::rpc::Rpc* rpc = pebble::rpc::Rpc::Instance();
rpc->Init("", -1, "");
// 创建rpc client stub
BaseServiceClient client(service_url, pebble::rpc::PROTOCOL_BINARY);
// 同步调用
int ret = client.log("pebble simple test : log");
std::cout << "sync call, ret = " << ret << std::endl;
评价
Pebble比gRPC和sofa-pbrpc更好用。
根据标准1:调用方式和本地调用一致了,接口中没有任何限制。
根据标准2:除了定义协议稍显繁琐之外已经比较易用了,不过服务器在使用上还是有一些限制,比如注册服务的时候只能注册一个类对象的指 针,不能支持lambda表达式,std::function或者普通的function。
根据标准3:gRPC只支持pb协议,无法扩展支持其他协议。
综合评价:75分。
msgpack-RPC是基于msgpack定义的RPC框架,不同于基于pb的RPC,它无需定义专门的协议。
服务器端代码
#include <jubatus/msgpack/rpc/server.h>
class myserver : public msgpack::rpc::server::base {
public:
void add(msgpack::rpc::request req, int a1, int a2)
{
req.result(a1 + a2);
}
public:
void dispatch(msgpack::rpc::request req)
try {
std::string method;
req.method().convert(&method);
if(method == "add") {
msgpack::type::tuple<int, int> params;
req.params().convert(¶ms);
add(req, params.get<0>(), params.get<1>());
} else {
req.error(msgpack::rpc::NO_METHOD_ERROR);
}
} catch (msgpack::type_error& e) {
req.error(msgpack::rpc::ARGUMENT_ERROR);
return;
} catch (std::exception& e) {
req.error(std::string(e.what()));
return;
}
};
客户端代码
#include <jubatus/msgpack/rpc/client.h>
#include <iostream>
int main(void)
{
msgpack::rpc::client c("127.0.0.1", 9090);
int result = c.call("add", 1, 2).get<int>();
std::cout << result << std::endl;
}
评价
msgpack-RPC使用起来也很简单,不需要定义proto文件。
根据标准1:客户端的调用和本地调用一致,不过,服务器的RPC接口有一个msgpack::rpc::request对象,并且也必须派生于base类,使用上有一 定的限制。
根据标准2:服务器端提供RPC服务的时候需要根据method的名字来dispatch,这种方式不符合开闭原则,使用起来有些不方便。
根据标准3:msgpack-rpc只支持msgpack的序列化,不能支持其他的序列化方式。
综合评价:80分。
目前虽然国内外各大公司都推出了自己的RPC框架,但是真正好用易用的RPC框架却是不多的,这里对各个厂商的RPC框架仅从好用的角度做一个评价,一家之言,仅供参考,希望可以为大家做RPC的技术选型的时候提供一些评判依据。