職位描述
該職位還未進行加V認證,請仔細了解后再進行投遞!
1. 碩士及以上學歷,計算機科學、人工智能、數學、數據科學或相關專業背景。
2. 具備扎實的機器學習與深度學習理論基礎,熟悉 Transformer 架構、注意力機制和預訓練范式。
3. 至少 2 年以上大規模模型研發經驗,熟悉 PyTorch、DeepSpeed、Megatron-LM、vLLM 等主流訓練/推理框架。
4. 具備大規模分布式訓練調優經驗,能夠獨立設計高效的分布式訓練策略,解決 GPU 集群資源利用與性能瓶頸問題。
5. 熟練掌握至少一種大語言模型微調技術(LoRA、P-Tuning、RLHF、DPO 等),有實際落地案例。
6. 具備將復雜業務需求抽象為模型問題并提出創新性解決方案的能力。
1、大模型研發與優化:負責預訓練語言模型的研發與優化,包括參數規模在百億級以上的 Transformer 類模型;探索混合專家(MoE)、長上下文(Long-Context)、稀疏注意力等前沿架構提升推理與訓練效率。
2、模型訓練與微調:針對不同業務場景,開展大規模語料預訓練、指令微調(Instruction Tuning)、偏好對齊(RLHF、DPO 等)和低成本高效微調(LoRA、QLoRA、P-Tuning 等),提高模型在垂直領域的表現。
3、性能與部署優化:研究并實現分布式訓練(如 ZeRO、FSDP、DeepSpeed、Megatron-LM)、模型并行與推理加速(vLLM、TensorRT-LLM、FlashAttention),降低 GPU 內存消耗與推理時延。
4、工程落地:與平臺團隊協作,提供模型推理服務 API,封裝高性能 SDK,支持多端調用(Web/移動端);負責大模型在知識圖譜、搜索推薦、對話系統等場景的落地與優化。
5、前沿探索:跟蹤 LLM、Multimodal、RAG(檢索增強生成)、Agent 框架以及模型安全性(安全對齊、防幻覺)領域的最新進展,推動大模型與知識圖譜、圖神經網絡等技術結合。
2. 具備扎實的機器學習與深度學習理論基礎,熟悉 Transformer 架構、注意力機制和預訓練范式。
3. 至少 2 年以上大規模模型研發經驗,熟悉 PyTorch、DeepSpeed、Megatron-LM、vLLM 等主流訓練/推理框架。
4. 具備大規模分布式訓練調優經驗,能夠獨立設計高效的分布式訓練策略,解決 GPU 集群資源利用與性能瓶頸問題。
5. 熟練掌握至少一種大語言模型微調技術(LoRA、P-Tuning、RLHF、DPO 等),有實際落地案例。
6. 具備將復雜業務需求抽象為模型問題并提出創新性解決方案的能力。
1、大模型研發與優化:負責預訓練語言模型的研發與優化,包括參數規模在百億級以上的 Transformer 類模型;探索混合專家(MoE)、長上下文(Long-Context)、稀疏注意力等前沿架構提升推理與訓練效率。
2、模型訓練與微調:針對不同業務場景,開展大規模語料預訓練、指令微調(Instruction Tuning)、偏好對齊(RLHF、DPO 等)和低成本高效微調(LoRA、QLoRA、P-Tuning 等),提高模型在垂直領域的表現。
3、性能與部署優化:研究并實現分布式訓練(如 ZeRO、FSDP、DeepSpeed、Megatron-LM)、模型并行與推理加速(vLLM、TensorRT-LLM、FlashAttention),降低 GPU 內存消耗與推理時延。
4、工程落地:與平臺團隊協作,提供模型推理服務 API,封裝高性能 SDK,支持多端調用(Web/移動端);負責大模型在知識圖譜、搜索推薦、對話系統等場景的落地與優化。
5、前沿探索:跟蹤 LLM、Multimodal、RAG(檢索增強生成)、Agent 框架以及模型安全性(安全對齊、防幻覺)領域的最新進展,推動大模型與知識圖譜、圖神經網絡等技術結合。
工作地點
地址:北京石景山區中國電科智能科技園北京石景山區中國電科智能科技園
??
點擊查看地圖
詳細位置,可以參考上方地址信息
求職提示:用人單位發布虛假招聘信息,或以任何名義向求職者收取財物(如體檢費、置裝費、押金、服裝費、培訓費、身份證、畢業證等),均涉嫌違法,請求職者務必提高警惕。
職位發布者
Jerr..HR
科銳爾人力資源服務(蘇州)有限公司
-
零售業
-
500-999人
-
國內上市公司
-
新理想大廈

應屆畢業生
學歷不限
2026-01-24 02:49:51
2006人關注
注:聯系我時,請說是在云南人才網上看到的。
