/

En
从生物视觉到计算机视觉
Time:October 29 13:30-15:30
location:第二会议厅(A)

1.Theme

从生物视觉到计算机视觉

2. Purpose and Significance

(1)Purpose

为视觉神经科学及人工智能和计算机视觉领域的跨学科交叉提供一个相互交流的机会,从类脑智能的角度为基于视频或图像的智能环境感知技术和计算机视觉应用提供新思路。

(2)Significance

视觉是人类认识外部世界最主要、最直接的形式,约80%外界信息是通过视觉系统获得的。视觉感知也是大脑中最为复杂而又高效的信息加工过程之一。 随着视觉实验研究手段的飞速发展,越来越多的生物视觉机理被揭示。随之而来的是,与生物视觉计算相关的主题开始越来越多地出现在信息技术与人工智能领域(如图像处理、模式识别、 计算机视觉)的国内外重要学术会议及期刊上。其原因在于,生物视觉计算模型不仅对于帮助阐明脑功能,而且对于促进计算机视觉应用的生物智能化均具有重要意义。面对复杂多变的非结构化环境, 以智能环境感知为基础的众多工程应用(如目标检测、识别与跟踪等)有望从以自适应(adaptation)为核心的生物视觉机理中寻求启示和高效解决方案。

3. Schedule

Time:October 29 13:30-15:30
location:第二会议厅(A)
Theme 1: 从生物视觉到计算机视觉
Time Headline Speaker Host
13:30-14:10 小鼠成像视觉通路的结构和功能 张嘉漪 李永杰
14:10-14:50 中、高级视觉的生物学结构和机理 邢大军
14:50-15:10 前端视觉通路的计算模型与应用 李永杰
15:10-15:30 视觉引导注意的计算模型与应用 杨开富

4. the Introduction of Invited Speakers

Invited Report 1:小鼠成像视觉通路的结构和功能
张嘉漪

Invited Speaker:张嘉漪,1999年江苏省苏州中学毕业,2003年毕业于香港浸会大学。2009年在美国布朗大学获物理学博士学位。2009-2011年在美国耶鲁大学神经生物学系进行博士后研究。2012年起担任复旦大学脑科学研究院青年研究员、研究员。 现任医学神经生物学国家重点实验室副主任、中国生理学会青年委员会副主任委员和中国神经科学学会感觉与运动分会副主任委员。围绕修复神经系统功能的主题,发挥材料和器件的特性,开发了新一代纳米线人工光感受器,实现了视网膜光感受器退化后光感的修复; 构建了多点光遗传刺激器件,加快脑损伤后上肢偏瘫的恢复;建立了视觉脑电控制的“变色龙”系统,在军事和日常生活中有广泛的应用价值。近5年以通讯(含共同)作者在Advanced Materials、Nature Communications等发表论文10篇, 被Nature Nanotechnology等杂志引用480余次,Nature Asia亮点介绍。申请专利3项。入选国家海外高层次人才引进计划,承担了自然科学基金委优秀青年基金项目、科技部“863”计划、上海市“浦江人才”计划、国防科技创新等项目。2020年获上海市巾帼创新新秀奖。
(email: jiayizhang@fudan.edu.cn)


Invited Report 2:中、高级视觉的生物学结构和机理
邢大军

Invited Speaker:邢大军,北京师范大学认知神经科学与学习国家重点实验室、IDG/McGovern Institute for Brain Research 教授、研究员,国家中组部“青年千人计划”(2014), 教育部新世纪优秀人才(2014),北京神经科学学会理事。2005年获纽约大学神经生物学博士学位。2005-2013年先后任纽约大学神经科学中心任研究学者,纽约市立大学亨特学院心理学系任兼职助理教授以及 美国纽约大学神经科学中心任助理研究教授。主要的研究方向为利用电生理、数学建模、信号处理、心理物理以及解剖学等手段,系统地研究高等哺乳动物(猕猴和人)的大脑视皮层视觉信息处理中,群体编码、 信息加工以及脑部振荡信号的神经机理和数学模型。相关工作发表在PNAS、Journal of Neuroscience等期刊。
(email: dajun.xing@gmail.com)


Invited report 3:前端视觉通路的计算模型与应用
李永杰

Invited Speaker:李永杰,电子科技大学生命科学与技术学院、神经信息教育部重点实验室教授、博士生导师,教育部新世纪优秀人才(2007),四川省认知科学学会理事,中国人工智能 学会模式识别专业委员会委员、中国计算机学会计算机视觉专业委员会委员、中国电子学会生物医学电子学分会副秘书长(候任副主任委员)。2004年在电子科技大学取得生物医学工程专业博士学位。 2009.9-2010.10在哥伦比亚大学神经科学系做访问学者。主要研究方向为大脑视觉感知计算模型及计算机视觉应用。先后在NeuroImage、IEEE Trans on PAMI/IP,IJCV,PR等等期刊及 ICCV/CVPR/ECCV等会议上发表论文近100篇,申请中国发明专利30余项(已授权20余项),曾获吴文俊人工智能自然科学奖三等奖(2020)。
(email: liyj@uestc.edu.cn)


Invited Report 4:视觉引导注意的计算模型与应用
杨开富

Invited Speaker:杨开富,电子科技大学生命科学与技术学院、神经信息教育部重点实验室副研究员,硕士生导师,中国人工智能学会模式识别专业委员会委员、中国图像图形学学会视觉认知与计算专业委员会委员。 曾获共青团中央中国光华科技基金会医学奖学金(2016)、CSIG优秀博士论文提名奖(2018)、吴文俊人工智能自然科学奖三等奖(2020)。2016年在电子科技大学取得生物医学工程专业博士学位并留校任特聘副研究员。 2019.08-2020.08在苏黎世联邦理工学院(ETH Zurich)计算机视觉实验室做访问学者。主要研究方向为大脑视觉感知机理及计算模型、类脑图像处理与计算机视觉应用等。已在IEEE Trans. PAMI/IP/CSVT, IJCV等期刊及ICCV/CVPR/ECCV等国际会议上发表学术论文30余篇,申请中国发明专利10余项。
(email: yangkf@uestc.edu.cn)





微表情分析
Time:October 29 15:40-17:40
Location:第二会议厅(A)

1. Theme

微表情分析

2. Purpose and Significance

(1)Purpose

由于微表情具有强度低、持续时间短和只存在局部运动的特点,微表情相关特征很难提取。另外,因为微表情样本的人工标注十分困难,目前只有五个公开的自发微表情数据库, 包括中国科学院心理研究所发布的CASME系列,芬兰奥卢大学发布的SMIC和英国曼彻斯特城市大学发布的SAMM,视频总量约800个,这是典型的小样本问题。大数据驱动的深度学习已经在诸多领域获得成功, 但是微表情小样本问题限制了基于深度学习的微表情分析。
        我们希望通过讲习班的举办,基于心理学和计算机科学的学科交叉介绍微表情 分析的研究现状、存在问题以及未来发展问题,吸引更多的研究人员 加入到微表情研究的队伍中来,集思广益,从而进一步促进结合面部表情的情感计算与理解的发展。

(2)Significance

微表情是非常重要的非语言交流线索,它可以揭示真实的情绪和个人的心理状态。作为谎言识别的重要线索之一,微表情的有效性甚至显著高于言语内容、语音、语调、 身体姿势等其他线索,可以被广泛地应用于国家安全、司法实践、临床诊断、学生教育、卫生防疫等领域。例如微表情可以作为重要线索来帮助此次新冠疫情的排查工作,包括甄别人员是否对旅行史、 密切接触情况以及发热症状等有所隐瞒。
        微表情具备三个特征:持续时间短,动作强度低和只存在局部运动。观察者单纯通过肉眼 很难在视频中捕捉人脸微表情。微表情的人工检测和识别需要花费大量的 人力物力,并且参与分析的人员需要经过专业的训练。Ekman在2002年开发了第一个微表情培训工具(Micro-Expression Training Tool, METT),其目的是训练人类检测和识别微表情。然而即使是 经过培训的专家,其肉眼的识别率也低于50%。因此,为了将微表情分析应用到实际场景中,对微表情智能检测与识别的研究十分迫切。
        近十年来,微表情研究越来越受到科学领域和大众媒体的重视。研究人员也试图通过计算机科学与心理学的结合,研发自动检测和识别微表情的 技术,以帮助人们更有效地利用微表情线索来识别谎言。微表情识别是对于给定的微表情片段进行分类,技术相对成熟。反之, 微表情检测是在长视频中准确定位微小短暂的微表情片段,任务十分具有挑战性,并且 相关的论文数量仍然相对较少,但其研究具有很高的实用价值。如果能在一段视频中准确地检测到某个时间点有微表情出现, 那么就说明这个人在这个时刻可能会有异常。
         目前通过计算机技术对微表情进行分析成为了一个研究热点,国内很多团队都开展了相关的科研工作,比如中国科学院心理研究所、芬兰奥卢大学、英国曼彻斯 特城市大学和马来西亚多媒体大学 率先对微表情进行了研究。清华大学、中国科学院自动化研究所、复旦大学、东南大学、山东大学等也相继开展了微表情相关的研究。

3. Schedule

Time:October 29 15:40-17:40
Location:第二会议厅(A)
Theme 2: 微表情分析
Time Headline Speaker Host
15:40-16:10 微表情研究概述—背景、理论与数据库 王甦菁 王甦菁
16:10-16:40 基于神经生理学与认知心理学的微表情数据标注 东子朝
16:40-17:10 微表情的智能检测与识别 李婧婷
17:10-17:40 心理学与人工智能学科交叉背景下的的人脸表情识别探索 颜文靖

4. the Introduction of Speakers

Invited Report 1:微表情研究概述—背景、理论与数据库
王甦菁

Invited Speaker:王甦菁,中国科学院心理研究所副研究员,博士生导师。2012 年 6 月博士毕业于吉林大学计算机科学与技术学院,2012 年 8 月至 2015 年 6 月在中国科学院 心理研究所做博士后工作。2015 年 7 月加入中国科学院心理研究所。主要研究方向为模式识别与机器学习,特别是微表情识别。在国内外重要期刊和学术会议上发表五十余篇论文,包括TPAMI、TIP、 TNN、ECCV 等。2014 年起担任 Neurocomputing 期刊的 Associate Editor。CCF 杰出会员,IEEE 高级会员,中国计算机学会计算机视觉专业委员会委员,中国人工智能学会人工心理与 人工情感专业委员会委员,中国图象图形学学会机器视觉专业委员会委员。主持国家自然科学基金面上项目 2 项,北京市自然科学基金面上项目 1项,中国博士后基金 2 项。获 2018 年第八届吴文俊 人工智能科学技术奖一等奖。被新华社称为“中国版霍金”。


Invited Report 2:基于神经生理学与认知心理学的微表情数据标注
东子朝

Invited Speaker:东子朝,中国科学院心理研究所MELAB研究助理,她于2018年毕业于中华女子学院应用心理系,获得教育学学士学位,目前在中国科学院心理研究所人工智能专业研究生就读, 具有认知心理学、神经生理学等方向有扎实的理论基础和丰富实践经验,多次参与认知心理学与人工智能结合的国家及省部级课题的实验设计与实施,并且参与了CASME系列数据库的样本采集和数据标注工作。


Invited Report 3:微表情的智能检测与识别
李婧婷

Invited Speaker:李婧婷,李婧婷博士目前是中国科学院心理研究所博士后。她于2016年获得北京航空航天大学电子与通信工程专业的硕士学位。她曾在法国中央理工高等电力学校的FAST (面部分析,合成和跟踪)研究团队中攻读博士学位,并于2019年获得信号,图像,视觉的博士学位。她参加了微表情挑战赛MEGC2019和MEGC2020的组织工作,作为主席组织2021年面部微表情挑战赛, 并举办了CSIG云上微表情系列讲座。她发表学术论文多篇,包括发表在IEEE Transactions on Affective Computing 和IEEE Transactions on Image Processing的期刊论文,还在 VISAPP2019,ACCV2020微表情研讨会等国际会议上作口头报告。主要研究方向包括计算机视觉、模式识别,以及与人工智能结合的人脸微表情分析。


Invited Report 4:心理学与人工智能学科交叉背景下的的人脸表情识别探索
颜文靖

Invited Speaker:颜文靖,心理学博士,毕业于中国科学院心理研究所。原温州大学心理系主任、副教授、硕士生导师、韩国全南大学兼职博士生导师。长期开展心理学与计算机的交叉研究, 研究兴趣主要包括表情与姿态、欺骗以及心理健康,建立了国际上使用最多的微表情数据库CASME。现在京东数字科技开展心理学与人工智能结合的应用研究。





可信计算机视觉
Time:October 29 18:30-20:30
Location:第二会议厅(A)

1. Theme

可信计算机视觉

2. Purpose and Significance

(1)Purpose

本课程将聚焦在计算机视觉的安全性与公平性问题,并进行系统而深入的剖析。安全性主要包含内生安全和衍生安全两类问题,也即技术本身的安全漏洞 (如对抗和后门攻击)和技术不当运用引发的安全风险(如伪造图像和视频)。随着视觉技术的普及应用,公平性视觉技术旨在保证不同群体获得平等的人工智能服务,是可信人工智能的核心技术。

(2)Significance

近年来,随着以深度学习为代表的人工智能技术的崛起,计算机视觉也取得了突破性的发展,包括图像和视频的识别、分割、检测、生成、理解等重要任务, 并被成功应用于诸多实际场景,比如金融、安检、卫生医疗、社交、自动驾驶等。然而,除了高精度之外,隐私和安全对于视觉识别技术的成功也至关重要。同时,要使得人们信任算法做出的决定, 系统还必须保证对各类用户的决策是公平的。尽管系统的准确性在不断提高,但识别系统非常容易受到攻击。常见的对抗和后门攻击,以及泛滥的伪造和生成数据引起了公众的广泛担忧。此外, 由于对视觉识别系统的信任基于我们对其工作方式的理解,模型必须具有可解释性,能够解释其识别过程和错误原因。最后,专家或用户希望选择与系统交互以增加我们的信任。因此,研究多种方法 以实现公平性、鲁棒性、可解释性、透明性,并将它们集成到视觉识别应用系统的整个生命周期中变得至关重要。

3. Schedule

Time:October 29 18:30-20:30
Location:第二会议厅(A)
Theme 3: 可信计算机视觉
Time Headline Speaker Host
18:30-18:50 Adversarial Machine Learning:A Unified Perspective for Adversarial Examples, Backdoor Learning and Weight Attack 吴保元 吴保元
18:50-19:10 Adversarial attacks in physical world 韦星星
19:10-19:30 图像视频的篡改检测 吴祖煊
19:30-19:50 Deep facial image synthesis and forgery detection 黄怀波
19:50-20:10 公平性人脸识别与分析 邓伟洪
20:10-20:30 提问与讨论 吴保元

4. the Introduction of Speakers

Invited Report 1:Adversarial Machine Learning:A Unified Perspective for Adversarial Examples, Backdoor Learning and Weight Attack
吴保元

Invited Speaker:吴保元,香港中文大学(深圳)数据科学学院副教授,深圳市大数据研究院大数据安全计算实验室主任。2014年获得中国科学院自动化研究所模式识别国家重点实验室 模式识别与智能系统博士学位。2016年11月至2018年12月担任腾讯AI Lab高级研究员, 2019年1月至2020年8月担任T4专家研究员。他在人工智能的顶级期刊和会议上发表论文40多篇,包括TPAMI, IJCV, CVPR, ICCV, ECCV, ICLR, AAAI等,并曾入选人工智能顶级会议CVPR 2019最佳论文候选名单。在腾讯工作期间,他领衔发布了业内第一个AI安全风险矩阵,得到业内和媒体的广泛关注。 2021年5月,组织开办了“AI安全与隐私”系列学术论坛,定期邀请知名专家学者分享AI安全与隐私领域的最新科研成果。其担任人工智能权威期刊Neurocomputing副主编、顶级国际会议ICLR 2022、 AAAI 2022领域主席、顶级国际会议AAAI 2021、IJCAI 2020/2021高级程序委员、中国计算机学会、中国自动化学会多个专业委员会委员。作为项目负责人承担国家自然科学基金面上项目1项, 腾讯研究专项基金2项。


Invited Report 2:Adversarial attacks in physical world
韦星星

Invited Speaker:韦星星,博士,北京航空航天大学人工智能研究院副教授,博士生导师,北航青年拔尖人才。他于2017年至2019年在清华大学计算机系从事博士后研究。在这之前 分别在北京航空航天大学和天津大学获得学士及博士学位,毕业后曾在阿里巴巴公司任计算机视觉资深算法工程师。他的主要研究方向为对抗机器学习和计算机视觉,在CVPR、ICCV、ECCV、IJCAI、 AAAI、ACMMM和TCYB、TMM、TGRS等人工智能领域顶级会议和期刊发表学术论文30余篇。他与团队一起获得DEFCON2018举办的对抗样本国际测评赛CAAD CTF冠军,并指导学生获得ACMMM2021 举办的鲁棒logo检测比赛亚军以及CVPR2021举办的ImageNet无限制对抗攻击比赛全球第4名。多次受邀担任人工智能领域顶级国际会议的程序委员会委员。作为项目负责人,他主持科技部“新一代 人工智能”2030重大项目课题、国家自然科学基金面上项目和青年项目、中国博士后基金特别资助项目和面上项目、CCF-腾讯犀牛鸟基金以及华为/腾讯/阿里等知名企业的横向项目。


Invited Report 3:图像视频的篡改检测
吴祖煊

Invited Speaker:吴祖煊,复旦大学计算机科学技术学院青年副研究员。2020年在美国马里兰大学获得博士学位。主要研究方向为计算机视觉、深度学习与多媒体内容分析。 获得2021年AI 2000最具影响力学者提名奖、2019年微软博士奖学金(全球10人)、2017年Snap博士奖学金(全球10人)。带领团队在多项国际比赛中名列前茅,如2018年阿里巴巴FashionAI 全球挑战赛服饰关键点定位第四名、2017年谷歌 YouTube视频识别比赛、2014年ICME华为手机视频识别大赛等。担任国际知名期刊审稿人、国际会议程序委员会委员。


Invited Report 4:Deep facial image synthesis and forgery detection
黄怀波

Invited Speaker:黄怀波,中国科学院自动化研究所模式识别国家重点实验室副研究员。2019年获得中国科学院大学人工智能学院计算机应用技术博士学位,此前获得西安交通大学学士学位 和北京航空航天大学硕士学位。从事模式识别和计算机视觉基础理论研究,并应用到图像分析、图像生成和图像复原等。在TPAMI、IJCV、NeurIPS、CVPR、ICCV、AAAI、ACM MM等国际权威期刊和会议 发表论文累计30余篇,出版人脸图像生成相关专著一部。申请发明专利10项,已授权5项。入选北京市科协青年人才托举工程,获得北京市优秀毕业生、中国科学院院长优秀奖、ICME研讨会最佳学生论文奖等 荣誉。担任北京图象图形学学会理事、中国图象图形学学会视觉大数据专委会委员等。


Invited Report 5:公平性人脸识别与分析
邓伟洪

Invited Speaker:邓伟洪,北京邮电大学人工智能学院教授,博士生导师,教育部青年长江学者,研究方向为生物特征识别、可信人工智能、情感计算、多模态学习。近年来主持国家重点研发计划课题、 国家自然科学基金等项目二十余项,与华为、中兴、滴滴、腾讯、百度、阿里、佳能等科技企业开展广泛深入的技术合作,曾三次指导学生获得图像识别类的国际算法竞赛第一名,指导博士生入选“博新计划”,担任ACMMM、 IJCAI、ICPR、ICME、IJCB、FG、ICIG等国际会议的领域主席,担任IEEE Transactions on Biometrics, Behaviors, and Identity Science和Image and Vision Computing客座编委, 《中国图象图形学报》青年编委。在IEEE TPAMI、TIP、TIFS、IJCV、PR等国际期刊以及ICCV、CVPR、ECCV、NIPS、AAAI等国际会议发表论文100多篇,谷歌学术引用7000余次。曾入选北京市优秀博士学位论文、 教育部新世纪优秀人才、北京市科技新星、Elsevier中国高被引学者等。





深度学习大模型
Time:October 29 13:30-15:30
Location:第二会议厅(B+C)

1. Theme

深度学习大模型

2. Schedule

Time:October 29 13:30-15:30
Location:第二会议厅(B+C)
Theme 4: 深度学习大模型
Time Headline Speaker Host
13:30-14:10 视觉目标检测大模型GAIA —面向行业的视觉物体检测一站式 张兆翔 郑伟诗
14:10-14:50 Conformer: 全局表示与局部特征融合的基网模型 叶齐祥,王耀威,郑伟诗
14:50-15:30 大规模图像的多粒度目标检测 程明明

3. the Introduction of Speakers

Invited Report 1:视觉目标检测大模型GAIA —面向行业的视觉物体检测一站式
Summary:伴随着深度学习的兴起,计算机视觉领域的诸多任务如物体检测、物体分割等取得长足进展,但是单一模型应用到特定领域和任务时还是存在迁移困难、 数据少、定制性差等问题。本报告介绍课题组最新的进展GAIA模型。该模型能够针对不同任务和边缘计算,自动提供定制化模型,具有较好的理论价值和应用前景
张兆翔

Invited Speaker:张兆翔,中国科学院自动化研究所研究员、博士生导师,中国科学院大学岗位教授,中国科学院脑科学与智能技术卓越创新中心骨干, 入选“教育部长江学者奖励计划”、“国家万人计划青年拔尖人才”,研究方向包括:物体检测与分割,视觉认知计算,类脑智能等,担任或曾担任 IEEE T-CSVT、 Patten Recognition、NeuroComputing 编委(Associate Editor),是CVPR、ICCV、AAAI、IJCAI、ACM MM、ICPR、ACCV 等国际会议的领域主席(Area Chair)。


Invited Report 2:Conformer: 全局表示与局部特征融合的基网模型
Summary:卷积运算善于提取局部特征,却不具备提取全局表征的能力。为了感受图像全局信息,CNN必须依靠堆叠卷积层,采用池化操作来扩大感受野。 Visual Transformer的提出则打破了CNN在视觉表征方面的垄断。 得益于自注意力机制,Visual Transformer (ViT、Deit)具备了全局、动态感受野的能力, 在图像识别任务上取得了更好的结果。但是受限于的计算复杂度,Transformer需要减小输入分辨率、增大下采样步长,这造成切分patch阶段损失图像细节信息。 中国科学院大学联合鹏城实验室和华为提出了Conformer基网模型,将Transformer与CNN进行了融合。Conformer模型可以在不显著增加计算量的前提下显著提升了基网表征能力。 实验验证了Conformer做为视觉大模型的潜力,在ImageNet21K预训练测试的设定条件下,140M参数的Conformer模型ImageNet1K的Top-1分类性能达到了87%以上。 论文已被ICCV 2021接收并且开源。
/github.com/pengzhiliang/Conformer
叶齐祥

Invited Speaker:叶齐祥,中国科学院大学长聘教授,卢嘉锡青年人才奖获得者,中国科学院优秀博士生导师。2013至2014年在美国马里兰大学先进计算机技术研究所 (UMIACS)任访问助理教授,2016年Duke大学信息技术研究所(IID)访问学者。主要进行监督信息不完备条件下的视觉特征表示与高性能目标感知方法研究,在IEEE CVPR, ICCV, NeurIPS, AAAI、ECCV等顶级会议与T-PAMI, TNNLS, TIP, T-ITS, PR等期刊发表论文100余篇,H-Index为42,Google引用6000余次,多篇论文ESI高被引。 承担了自然基金重点项目、部队创新特区项目,开发的高精度目标感知方法支撑了华为、航天等单位应用系统。获ICCV2017、 CVPR2019、高分辨率对地观测重大专项遥感目标解译竞赛冠军、 美国马里兰大学杰出研究学者奖、中国电子学会、中国图像图形学会自然科学二等奖。培养多名博士生获中科院院长奖、中国科学院百篇优秀博士论文、博士后创新人才计划等。担任AAAI、 IJCAI国际会议资深程序委员和Session Chair、国际期刊IEEE T-ITS,IEEE T-CSVT编委。


Invited Report 3:大规模图像的多粒度目标检测
Summary:从图像中快速准确地获取目标信息是计算机视觉的核心任务。鲁棒的目标检测与信息提取需要对不同粒度的信息进行高效的整合。本报告从多层次卷积特征融合、 基于短连接的多尺度融合与深度监督、基于分层递进残差设计的层内多尺度特征表达、时序多层次信息提取、霍夫空间度尺度检测、多模型高效融合、多图像联系分析等角度入手,系统地介绍南开大学 媒体计算团队在边缘检测、显著性物体检测、图像分类、语义分割、物体检测、关键点估计、视频动作分割,语义线检测、行人计数、年龄估计、图像超分辨率等领域的最新研究进展。同时, 本次报告也将从实例、图像、以及整个数据集三个粒度出发,对大规模图像集合进行联合分析,以减少图像理解算法对大规模精确标注的依赖。
程明明

Invited Speaker:程明明,南开大学教授,计算机系主任,国家“万人计划”青拔、“优青”。他的主要研究方向是计算机视觉和计算机图形学,在SCI一区/CCF A类国际期刊和会议上 发表学术论文100余篇(含IEEE TPAMI论文20篇),论文Google学术引用2万余次,一作论文单篇最高引用4000余次,连续5年入选Elsevier中国高被引学者榜单。技术成果被应用于华为手机智能拍照、 推想科技CT影像智能分析、金风科技风电设备运行监控、和中化农业病虫害识别等领域。获得ACM中国新星奖、天津市青年科技奖、吴文俊人工智能自然科学二等奖、中国图象图形学学会自然科学一等奖、 教育部自然科学一等奖等奖项。现担任中国图象图形学学会副秘书长、天津市人工智能学会副理事长和SCI一区期刊IEEE TPAMI, IEEE TIP编委。