报告题目:Model Interpretation and Alignment
报告人:王希廷 高级研究员
单位:微软亚洲研究院
报告时间:2023年6月14日(周三)上午10:00
报告地点:翡翠湖校区科教楼A座804会议室
报告摘要:大模型时代,可解释和模型对齐变得至关重要。大模型对人的工作生活影响越来越大,但却更加难以理解和控制。OpenAI对外支持的七大研究方向中,可解释和模型对齐就是其中两个。我们应该怎么让深度学习模型变得更透明、可理解、更容易训练、调试和优化,确保它和人类意图对齐呢?这次报告将围绕这些问题进行探讨,介绍我们近期发表在ICML、NeurIPS、KDD的可解释人工智能(XAI)以及利用强化学习从人类反馈学习(RLHF)的方法。
报告人简介:王希廷是MSRA社会计算组高级研究员,研究兴趣为可解释、负责任的人工智能。发表论文50多篇,其中CCF-A类论文40篇。两篇论文被CCF-A类期刊IEEE TVCG评选为封面论文。H-Index为24,谷歌学术引用2300多。相关科研成果落地全球占有量第二的必应搜索引擎。被邀请担任IJCAI、AAAI领域主席,加入IEEE VIS组委会担任档案主席,被评为AAAI 2021 杰出高级程序委员。两次受邀在SIGIR可解释推荐研讨会上发表主旨演讲,是CCF和IEEE高级会员。