筛选

AI 模型 × 基础设施

vLLM:人人可用的简单、快速且低成本的大模型服务方案

9月14日

10:50 - 11:25

地点: 会场4-338

vLLM是一个快速且易于使用的大语言模型推理和服务库。在这次演讲中,我将简要介绍vLLM项目的发展历程、背后的开源社区,并重点介绍一些用户感兴趣的功能特性。

讲师