TensorRT 是什么
以 CUDA 为基础构建而成,用于高性能 深度学习推理的 SDK, 能够优化在所有主要框架中训练的神经网络模型,精确校正低精度,并最终将模型部署到超大规模数据中心、嵌入式或汽车产品平台上.
热招岗位名称
Deep Learning Inference Software Engineer-上海
你会做些什么呢:
- TensorRT library 开发(新 feature,新 GPU 架构支持等)
- Inference kernel 开发及性能优化
- 端到端 inference 性能分析及优化
- 为下一代 GPU/DLA 架构设计提供输入
我们想看到这样的你
- 扎实的编程能力(C++)
- 严谨的逻辑思维和分析能力
- 在以下一项或多项技术领域有工作经验(加分)
- CUDA 软件开发及优化
- Deep Learning 软件开发
- GPU 或通用 CPU 架构研究
简历投递