415人看过
编号 1130129

叶海山老师

暂无评分

叶海山

系 别:信息系统与智能商务系

擅长领域:

擅长行业:

身份资质

职 称:副教授(长聘)
研究方向:机器学习与大数据,及其与管理学交叉
教育背景
2014.09-2018.06 上海交通大学 计算机科学与技术/博士 导师:邓小铁,张志华
工作经历
2021.01 至今 西安交通大学管理学院 助理教授/副教授
2018.07-2021.01 香港科技大学 博士后 导师:张潼
科研项目
主持科研项目:国家自然科学基金青年项目、陕西省高层次人才引进计划(青年项目)、
中国博士后科学基金第 70 批面上资助二等。
参与科研项目:国家重点研发计划等

擅长课题

《机器学习与大数据分析》
《最优化理论》
学术论文
在 JMLR、MP、TNNLS、PR 优化和人工智能杂志及 NuerIPS、ICML、ICLR、CVPR、AAAI、AISTAST 等人工智能顶级会议
上发表多篇论文,担任 JMLR、TPAMI、TSP、SIAM Opt、SIAM Data 杂志及 NuerIPS、ICML、ICLR 审稿人。代表性工作
有六 篇,5 篇发 表在 Journal of Machine Learning Research (JMLR,机 器学习 顶刊 ),一 篇发表 在 Mathematical
Programming(MP,优化顶刊)。主要的研究内容包括随机牛顿法、拟牛顿法、去中心分布式算法的研究。
1. 随机牛顿法(两篇论文)
Haishan Ye, Luo Luo, Zhihua Zhang;Approximate Newton methods;JMLR
Haishan Ye, Luo Luo, Zhihua Zhang;Nesterov's Aceleration for Approximate Newton;JMLR
第一项工作给出了当前最优的随机牛顿方法的收敛性分析,解决了之前理论无法精确刻画随机牛顿法收敛性质的困
境,给出了各因素对随机牛顿法的收敛率影响的精确刻画。第二项工作第一次将加速技术引入到二阶优化算法中,该
方法进一步降低随机牛顿法单次迭代的计算量,同时可以保证算法仍然具有快速收敛的性质。该工作将牛顿法的适用
范围扩展到处理在高维问题中。
2. 拟牛顿法(两篇论文)
Dachao Lin, Haishan Ye*, Zhihua Zhang;Explicit convergence rates of greedy and random quasi-Newton methods;JMLR
Haishan Ye, Dachao Lin, Xiangyu Chang, Zhihua Zhang;Towards explicit superlinear convergence rate for SR1; MP
我们的工作主要集中在拟牛顿法这一经典方法的显式收敛率问题上,该问题是运筹优化领域的一个长期开放性问题。
我们的工作解决了部分重要的问题,给出了贪婪和随机拟牛顿法的当前最优显式超线性收敛速率,解决了优化领域著
名学者 Nesterov(2023 世界顶尖科学家协会奖、2009 冯诺依曼奖获得者)留下的开放性问题。第二项工作改进了传
统的 SR1 算法,经过简单的改进,改进后 SR1 算法也可以得到超线性收敛,并且我们的工作也可以给出显式的超线性
收敛率。
3. 去中心分布式算法(两篇论文)
Haishan Ye, Tong Zhang;DeEPCA: Decentralized exact PCA with linear convergence rate;JMLR
Haishan Ye, Luo Luo, Ziang Zhou, Tong Zhang; Multi-Consensus Decentralized Accelerated Gradient Descent; JMLR
第一项工作给出了第一个实用的去中心分布式 PCA 算法,该方法一改以往算法每轮迭代需要逐步增加通信次数的弱
点,该算法每次迭代只需要少量固定的通信次数。因此大大提升了算法的通讯效率,并且克服了之前算法调参困难的
问题。第二项工作提出了首个和全局条件数相关的近似最优去中心算法,大大提升了算法的收敛速率,并且解决了机
器学习著名学者 Francis Bach 留下的开放性问题。

客户评价

正在载入评价...
X

信息丰富度

同领域培训师

【工作履历】
康弘年老师拥有20年以上人力行业...
曾在世界500强、大型央企从事生产、行政、法务、风险...
培训效果评估:
0分 0人评论
0个已审核视频
0个已鉴证学历
0个已鉴证履历
0个已鉴证案例