12月4日,应数学与统计学院邀请,复旦大学江如俊副教授做客百年校庆之“牧野格致”讲堂,为学院师生作题为“Accelerated Gradient Descent by Concatenation of Stepsize Schedules”的学术讲座,学院相关研究方向师生参加此次讲座,副院长裴永刚主持。
讲座主要研究光滑凸目标上梯度下降的步长调度问题。首先,江如俊副教授介绍了研究相关的主要文献综述和背景,提出了一种统一的方法来构造任意迭代的具有解析界的步长。该技术通过连接两个短的步长调度来构建新的步长调度。然后,江如俊副教授利用这种方法,引入了两个新的步长调度族,实现了的良好的收敛速率,分别为最后一次迭代的目标值和梯度范数的最新常数。此外,江如俊副教授的分析导出的步长调度匹配或超过现有的最佳数值计算步长调度。报告结束后,江如俊副教授就相关问题与台下师生展开深入的讨论和交流。江如俊副教授的报告内容丰富,使参会师生对梯度下降的步长调度问题有了深刻的认识,受益匪浅。
专家简介:江如俊,复旦大学大数据学院副教授,博士生导师。2016年7月于香港中文大学获得博士学位。研究方向主要包括优化算法和理论分析及其在运筹学、机器学习和金融工程领域的应用。其研究成果发表在Math. Program., SIAM J. Optim.、Math. Oper. Res.、INFORMS J. Comput.和ICML、NeurIPS等国际顶级期刊或会议上。获上海市扬帆计划、国家级青年人才计划支持,主持国家自然科学基金青年项目和面上项目。获国际机器学习大会ICML 2022杰出论文奖。
(数学与统计学院 郭静邑)