报告题目:不均衡学习的泛在适配
报告摘要:
不均衡学习是一个广泛存在且研究已久的领域,随着深度学习的发展,近些年来有了一些新的设计和改善。然而,随着整个人工智能领域趋势的演进,原有仅仅围绕类别不均衡的研究设定未必符合或者考虑了各种情形下的领域需求,如何把不均衡学习拓展到泛在情形就变得很重要。本报告将简要回顾不均衡学习领域的发展历史和现状,分析现有不均衡学习领域需要考虑的关键点,重点围绕将经典的不均衡学习的思想推广到表征学习、偏标签学习和增量学习的场景中,来克服样本不均衡影响的问题进行展开。本次报告将分别介绍我们在上述情景下提出的记忆增强对比学习方法、全局特征校正方法和惯性增强方法,以解决不均衡学习方法泛在适配的难点,相关成果发表于ICML、ICLR和Transactions on Image Processing等会议和期刊上。
报告人简介:
姚江超,上海交通大学助理教授、