12月23日: Chris H.Q. Ding: Sparse Coding and Low-rank Matrix Models for Data Recovery and Feature Selection(可信计算论坛)
讲座题目:Sparse Coding and Low-rank Matrix Models for Data Recovery and Feature Selection
主 讲 人:Chris H.Q. Ding 【University of Texas at Arlington (Dallas Metroplex)】
主 持 人:查宏远
开始时间:2015-12-23 周三 15:00——16:30
讲座地点:中北校区数学馆201报告厅
报告人简介:
Chris H.Q. Ding(丁宏强)教授早年在美国哥伦比亚大学李政道教授研究小组求学,获博士学位。长期工作于美国加州理工学院,喷气动力实验室及伯克利国家实验室。2007年加入德州大学阿灵顿分校任教授。他在哥伦比亚大学期间的研究成果发表在Science杂志封面文章,在加州理工学院的研究成果得到自然杂志(Nature)主编的高度评价并专文评述。他的研究领域包括数据挖掘,机器学习,信息检索,高性能计算等。从2000年开始,他和合作者推广创立了用矩阵作为中心理论模型和计算方法的子领域,研究PCA和K均值聚类的等价性,非负矩阵分解,提出矩阵L21范数的概念。发表200余篇论文,被引用19000余次。曾在加州大学伯克利、斯坦福大学、卡耐基梅隆大学、滑铁卢大学、阿尔伯塔大学、Google研究院、IBM研究院、Microsoft研究院、香港大学、香港科技大学、新加坡国立大学、北大、清华等做学术报告。安徽大学特聘教授。
报告内容:
Sparse coding and low rank models are mostly based on matrix models using L1 , L21 , trace matrix norm, etc. Sparse coding starts from LASSO using L1 norm for 2-class feature selection, and grow into L21 norm based multi-class feature selection. Group LASSO incorporates class label information. L2p norm based models show further improvements. Dictionary learning obtains data representations better than PCA by learning the basis and codes with L1 regularization. Robust dictionary learning uses L21 norm or L1 norm for data representation. Trace norm is used to enforce low rank in data representation. Many new ideas and variants are proposed. In this talk, we survey these new and growing areas, and their main computational methods: proximal gradient descent, iteratively reweighted (EM-like) method, and augmented Lagrangian method.