岗位职责:
1.大模型系统架构开发:
a.设计并实现高性能、可扩展的大模型训练与推理系统,优化分布式计算、显存管理、通信效率等关键模块。
b.开发或改进大模型框架(如Verl、vLLM、Megatron等),支持十亿级/百亿级/千亿级参数的稳定训练与高效推理。
2.性能优化与调优:
a.解决大模型在训练/推理中的瓶颈问题(如计算、存储、通信),通过算子融合、流水线并行、量化压缩等技术提升效率。
b.针对硬件(GPU/昇腾)特性进行底层优化,实现低延迟、高吞吐的推理服务。
3.基础设施构建:
a.搭建大模型开发与部署的全栈工具链,包括数据预处理、分布式训练集群管理、模型服务化(如vLLM、SGLang)等。
b.设计容错、弹性伸缩的推理平台,支持多租户、高并发场景需求。
4.前沿技术探索:
a.跟踪LLM领域最新进展(如MoE、RLHF、多模态),将研究成果工程化落地。
b.探索大模型与边缘计算、知识图谱、具身智能等技术的结合。
岗位要求:
1.计算机科学、人工智能或相关领域的硕士/博士学历,2年以上系统研发经验;
2.精通以下至少一个方向:
a.分布式系统:熟悉NCCL、RDMA、MPI等通信协议,有大规模分布式训练调优经验。
b.GPU/NPU编程:精通CUDA、OpenAI Triton或Ascend C,能进行内核级性能优化。
c.机器学习框架:深入理解Verl/vLLM/Megatron底层机制,参与过框架开发或贡献者优先。
3.扎实的算法基础,熟悉Transformer架构及大模型关键技术(如KV Cache、Flash Attention)。
4.优秀的编程能力(Python/C++),熟悉Linux开发环境与容器化技术(Docker/K8s)。
5.熟悉LLM生态工具链(如Hugging Face、LangChain、LoRA)。
加分项
1.发表过MLSys、NeurIPS、OSDI等顶会论文,或开源项目核心贡献者。
2.有百亿以上参数的大模型训练/推理落地经验。
3.熟悉LLM生态工具链(如Hugging Face、LangChain、LoRA)。