岗位职责:
1. 开展人工智能治理相关的前沿研究,包括但不限于动态伦理建模、大模型行为评估及多模态推理系统的开发;
2. 设计和实施越狱防范机制及红队攻击测试,提升大模型的鲁棒性与泛化能力;
3. 构建针对AI系统的技术驱动型治理框架,提出数据偏见及安全风险的量化解决方案;
4. 推动多样性数据集的规范化建设,研发动态伦理计算模型,提升AI系统的长期决策能力;
5. 支持团队制定技术与政策法规协同发展的AI治理标准体系,助力相关技术的商用化与规模化应用;
任职要求:
1. 计算机科学、人工智能、伦理学、机器学习或相关领域硕士及以上学历;
2. 熟悉大模型、多模态学习、强化学习或因果推理相关技术,具有相关研究经验者优先;
3. 对人工智能伦理及安全治理有深入理解,具备独立解决复杂技术问题的能力;
4. 具有扎实的编程能力(如Python、TensorFlow、PyTorch等),以及良好的数据处理与建模能力;
5. 具备优秀的学术写作与团队协作能力,能够撰写高质量的技术文档或研究论文。
加分项:
1.有参与红队攻击测试、越狱防范研究经验者优先;
2. 在顶会或顶刊发表过相关论文者优先;
3. 熟悉政策法规与技术结合的标准化建设流程者优先。