报告时间:2018年6月4日(周一)上午10:00-11:00
报告地点:yh1122银河国际微格教室7教306
主讲人: 吴强副教授
报告内容摘要:
Distributed learning provides effective tools for big data processing. An effective non-interactive approach for distributed learning is the divide and conquer method. It first partitions a big data set into multiple subsets, then a base algorithm is applied to each subset, and finally the results from these subsets are pooled together. In the context of nonlinear regression analysis, regularized kernel methods usually serve as efficient base algorithms for the second stage. In this talk, I will discuss the minimax optimality of several kernel based regression algorithms in distributed learning.
报告人简介:
吴强,美国中田纳西州立大学数学系,副教授。2005年毕业于香港城市大学数学系,获博士学位;2008年美国杜克大学博士后出站。先后任职于美国密歇根大学数学系、英国利物浦大学、美国中田纳西州立大学等多所高校。
吴强博士的主要研究领域为统计模型与计算、机器学习、高维数据挖掘及应用,计算调和分析等。在Journal of Machine Learning Research, Applied and Computational Harmonic Analysis等国际权威期刊发表论文40余篇,出版专著“Classication and Regularization in Learning Theory”。特别在学习理论中的分类学习、基于系数正则化的学习、MEE学习等研究方向作出了标志性的研究成果,受到国内外学者的广泛关注。
欢迎全院师生参加!