学历要求
硕士及以上学历;
专业要求
人工智能、计算机、电子信息、软件工程、通信工程、网络安全等相关专业
岗位职责:
1.开展人工智能治理相关的前沿研究,包括但不限于动态伦理建模、大模型行为评估及多模态推理系统的开发;
2.设计和实施越狱防范机制及红队攻击测试,提升大模型的鲁棒性与泛化能力;
3.构建针对AI系统的技术驱动型治理框架,提出数据偏见及安全风险的量化解决方案;
4.推动多样性数据集的规范化建设,研发动态伦理计算模型,提升AI系统的长期决策能力;
5.支持团队制定技术与政策法规协同发展的AI治理标准体系,助力相关技术的商用化与规模化应用;
应聘资格要求
1. 计算机科学、人工智能、伦理学、机器学习或相关领域硕士及以上学历;
2. 熟悉大模型、多模态学习、强化学习或因果推理相关技术,具有相关研究经验者优先;
3. 对人工智能伦理及安全治理有深入理解,具备独立解决复杂技术问题的能力;
4. 具有扎实的编程能力(如Python、TensorFlow、PyTorch等),以及良好的数据处理与建模能力;
5. 具备优秀的学术写作与团队协作能力,能够撰写高质量的技术文档或研究论文。