论文部分内容阅读
随着业务量、用户量的增大,提高服务器集群的效率变得越来越重要.本文使用机器学习算法,通过对历史数据进行训练得到响应时间预测模型,来预测新请求的响应时间,根据每个服务器节点的预估响应时间将请求分配给具有最少响应时间的服务器节点,从而提高集群中请求分配的均衡性,提高集群的效率.本文通过对三种机器学习算法的实验,均表明本策略能降低小集群高并发场景中系统的平均响应时间.