论坛二报告专宵?/h3>

(按姓氏笔画排序(?/p>

王京涚?/th>
谷歌AI中国中心研究呗?/td>
报告题目9?/b>AttentiveLearner: Improving Mobile MOOC Learning via Implicit Physiological Signal Sensing
报告摘要9?/b>Massive Open Online Courses (MOOCs) are becoming a promising solution for delivering high-quality education on a large scale at low cost in recent years. Despite the great potential, today’s MOOCs also suffer from challenges such as low student engagement, little personalization, and most importantly, lack of direct, immediate feedback channels from students to instructors. In this talk, I report the use of implicit physiological signals collected via a ""sensorless"" approach as a rich feedback channel to understand, model, and improve learning in mobile MOOC contexts.
      AttentiveLearner (http://www.attentivelearner.com) is an intelligent mobile learning system optimized for consuming lecture videos in both MOOCs and flipped classrooms. AttentiveLearner uses on-lens finger gestures as an intuitive control channel for video playback. More importantly, AttentiveLearner implicitly extracts learners? heart rates and infers their attention and cognitive states by analyzing learners? fingertip transparency changes in learning on today's unmodified smartphones.
专家简介:王京涛博士现任谷歌资深研究科学家。他的主要研究兴趣包括移动设备感知技术,智能界面,交互式机器学习和教育技术。在加入谷歌前,王博士曾任美国匹兹堡大学计算机科学系助理教授。王博士曾获得微? Azure 云计算科研奖,谷歌教授科研奖, 以及ACIE教育创新奖。京涛于美国加州大学伯克利分校获得计算机科学专业博士学位, 于西安交通大学获得学士和硕士学位、?br>       个人主页9?a href="http://www.cs.pitt.edu/~jingtaow">http://www.cs.pitt.edu/~jingtaow
庄越挹?/th>
浙江大学教授
报告题目9?/b>跨媒体认知与智能
报告摘要9?/b>人类智能是多元化的,既包含数理逻辑、语言文字的智能,也包含视觉空间、肢体动觉、音乐韵律、人际社交等多方面的智能。多种智能的交互与混合,形成了人类智能这个复杂的对象。人工智能(AI)脱胎于对人类智能行为的模仿与学习,理应是复杂多元的。跨媒体智能试图从视觉、语言、交互、控制等多个角度来刻画机器智能,结合主动感知、自然语言理解、目标驱动的自主导航、常识推理等技术,形成具有多元智能并能与人类自然交互的自主智能体。本次报告将介绍跨媒体计算理论的发展历程,以及在新一代人工智能规划下跨媒体智能未来发展的远景、?br> 专家简介:浙江大学教授、博士生导师、国家杰出青年科学基金获得者、“百千万人才工程”国家级人选、教育部长江学者特聘教授??73首席科学家、教育部“网络多媒体智能信息处理技术”创新团队带头人??997年至1998年赴美国伊利诺斯大学(UIUC)计算机系和Beckman研究所访问,师从美国工程院院士Thomas S. Huang教授。主持国家自然科学基金重大研究计划重点支持项目??73项目??63重点、中国工程科技知识中心、教育部211工程建设等研究项目。主要研究方向为人工智能、跨媒体计算、数字图书馆等领域,取得多项具有国际影响力的创新性研究成果,发表学术论文200余篇,其??0余篇发表在IEEE TPAMI、IEEE TIP、IEEE TMM、IJCV等国际权威期刊以及ACM Multimedia、CVPR、IJCAI、ICCV和AAAI等顶级学术会议上。曾获国家科技进步二等? (3次:2010年,2005年,1993??、浙江省科学技术奖自然科学一等奖??015年)、浙江省科技进步一等奖??次:2007年,2003年)、中科院科技进步一等奖??993年)、?/span>
孙宏滨
西安交通大学教掇?/td>
报告题目9?/b>系统级优化:算法与架构的协同设计
报告摘要9?/b>视频显示处理技术的任务是连接视频源和显示终端,将任意来源、任意格式的视频内容以最佳的视觉质量呈现在任意显示终端上。随着主流视频格式与显示终端进入超高清晰度时代,视频显示在实时性能、硬件效率方面受到严峻挑战。解决这一挑战主要依赖算法与VLSI架构的协同设计。本次报告将分析视频显示处理及其集成电路设计领域的研究现状和最新进展,重点介绍利用算法与VLSI架构协同设计解决高倍率视频缩放、视频增强与降噪、视频处理带宽压缩的方法与技术、?br> 专家简介:孙宏滨,西安交通大学人工智能与机器人研究所教授。分别于2003年??009年获得西安交通大学电气工程及其自动化、控制科学与工程专业学士学位和博士学位??007-2008年,在美国伦斯勒理工学院做联合培养博士生。主要研究方向是视频与视觉处理集成电路、计算存储架构和自主驾驶智能车等。在上述领域发表国际高水平论??0余篇,获得国家发明专利授??0余项。孙宏滨教授是IEEE会员、IEEE电路与系统学会超大规模集成电路系统与应用委员会委员、中国通信学会通信专用集成电路专委会委员、中国电子学会电子设计自动化专委会委员。孙宏滨教授??007年获得国家技术发明二等奖??011年获得全国百篇优秀博士学位提名??012年入选教育部新世纪优秀人才计划和陕西省青年科技新星??017年获得国家自然科学基金委优秀青年科学基金资助、?/span>
孙剑
旷视科技教授
报告题目9?/b>云、端、芯上的视觉计算
报告摘要9?/b>越来越大和越来越深的神经网络不断降低着识别错误率,甚至在不少语音和图像识别任务上超过了人类。但是这些深度网络也对计算提出了新的要求和挑战:在很多视觉应用场景中,我们需要在不同的计算平台上最大化推理算法的性能。在这个报告,我将介绍一系列我们的近期分别针对云、移动端、芯片的深度神经网络设计工作,包括ResNet,ShuffleNet,DorefaNet等,以获得最佳的识别精度。同时也会介绍一些旷视科技在云、端、芯等应用场景的人工智能实践、?br> 专家简介:孙剑博士目前在旷视科技(Face++)担任首席科学家、旷视研究院院长。孙剑博士于西安交通大学毕业后加入微软亚洲研究院,任至首席研究员;2015-2016年在微软美国研究院任合伙人级研究主管。其主要研究方向是基于深度学习的图像理解、人脸识别、和计算摄影学。自2002年以来在CVPR, ICCV, ECCV, SIGGRAPH, PAMI五个顶级学术会议和期刊上发表学术论文100+篇,Google Scholar 引用 45,000+次,H-index 70+,两次获得CVPR Best Paper Award (2009, 2016)。孙剑博士于2010被美国权威技术期刊MIT Technology Review评选为“全??5岁以下杰出青年创新者TR35”??015年,孙剑博士带领的微软团队获得ImageNet & COCO 图像识别国际大赛五项冠军??017年,孙剑带领的旷视科技团队获得 COCO & Places 图像理解国际大赛三项冠军。其团队开发出来的“ResNet”、“Faster R-CNN”、“ShuffleNet”等目前是图像识别学术和工业界最普遍使用的方法、?/span>
李远渄?/th>
华南理工大学教授
报告题目9?/b>多模态脑机交互及其临床应用
报告摘要9?/b>提高目标检测性能和实现多维控制是脑机接口研究的两大基本问题。我们首先介绍多种多模态脑机交互,包括基于SSVEP和P300的脑机接口,视听觉脑机接口,基于P300和运动想象的脑机接口,这些脑机接口或者可以提高目标检测性能,或者可以实现多维控制。然后我们介绍这些脑机接口两个方面的临床应用:(1)意识障碍患者(如植物人等)的意识检测是一个难点问题,主要原因是这些病人缺乏行为能力,认知水平低下。我们开发了多种脑机接口,用于意识障碍患者(如植物人等)的意识检??数字认知检测、临床辅助诊??取得了良好效果。(2)面向严重的颈椎损伤的高位截瘫病人,我们开发了环境控制系统。该系统集成轮椅、家电和护理床于一体,实现了脑控,有效提高了这些病人的生活自理能力、?br> 专家简介:李远清,华南理工大学自动化科学与工程学院院长、华南理工大学脑机接口与脑信息处理研究中心主任、教授、博士生导师、IEEE Fellow、国家杰出青年科学基金获得者、教育部长江学者特聘教授、国家百千万人才工程国家级人选,广东省南粤百名杰出人才培养工程人选,获国家自然科学二等奖1项、教育部自然科学一等奖1项、广东省自然科学一等奖2项等。是IEEE Trans. on Fuzzy Systems, IEEE Trans. on Human Machine Systems ??份SCI国际期刊的副主编??988 年本科毕业于武汉大学数学系,1994 年硕士毕业于华南师范大学数学系,1997 年博士毕业于华南理工大学自动控制工程系??000年以来,先后致力于独立分量分析与盲源分离、稀疏编码、半监督机器学习、脑电与fMRI信号分析、脑机接口、脑内视听觉整合等方面的研究。迄今为止,发表论文100余篇,其中在IEEE Trans. on Information Theory,IEEE Trans. on Signal Processing,IEEE Trans. on bio1medical Engineering,IEEE Signal Processing Magazine,Proceedings of the IEEE等汇刊上发表长文30余篇,在Cerebral Cortex, Human Brain Mapping, NeuroImage, Scientific Reports, Machine Learning,Pattern Recognition,Neural Computation,Journal of Neural Engineering,NIPS等国际著名期刊及权威会议上发表论文共30余篇。申请获批专??0余项。主持项目包括国家重点研发计划项目、国家自然科学基金重点项目、科技??63课题、广东省自然科学基金团队项目等。担任365体育彩票常务理事、中国人工智能学会混合智能分会副主任委员、中国生物医学工程学会医学神经工程分会副主任委员等、?/span>
张艳宁
西北工业大学教授
报告题目9?/b>"先见之明与他山之石——大数据时代下知识迁移的探索与实??
报告摘要9?/b>大数据时代下,我们对数据的需求反而似乎变得越来越得不到满足。在数据域或问题域的一个微小的变化都可能导致原有数据的失效? ?在数据驱动的深度学习技术成为主流的今天,我们仍然难以用一个通用的学习模型兼容不同数据、不同模态和不同任务。解决该问题的途径之一即通过知识迁移减少算法对数据的依赖,而知识既可以源自人类对问题本身的认识(先见之明),也可以源自算法在其他相关数据、模态、任务下所学到的经验(他山之石)、?br>       从数据驱动的先验知识学习,到结构化数据的域自适应;从多任务框架下的信息传递,到跨域跨媒体知识的获取与嵌入。在本报告中,讲者将介绍实验室近年来在知识迁移方向上的一些探索与实践、?br> 专家简介:张艳宁,西北工业大学教授,博导,西北工业大学校长助理,国务院学科评议组成员,长江学者特聘教授,中组部首批万人计划科技创新领军人才,国??73项目首席,总装侦查测绘专家组成员。国家发改委“空天地海一体化大数据应用技术国家工程实验室”负责人,“移动平台环境感知及空天应用”国家级国际联合研究中心负责人,“无人航行智能感知与自主计算”国家级??11”引智基地负责人,陕西省语音与图像处理省重点实验室主任,陕西省首批重点科技创新团队负责人。长期致力于图像处理、模式识别、计算机视觉与智能信息处理等的研究,并与航天、航空等方面的国家重大需求相结合。获国防技术发明一等奖一项、国家教学成果二等奖1项、省部级科技进步??项,曾获全国三八红旗手称号和总装863科技攻关先进个人? 先后承担国防973项目、国家自然科学基金重点项目、国??国防863、总装预研等国家级项目40余项。在IEEE TPAMI、IEEE TIP、PR、IEEE TSMC-B、Info. Fusion、CVPR、ICCV等国内外本领域权威期刊和重要国际会议上发表论文百余篇。研究成果被多个国家级重大工程攻关项目采用,成功应用于航天、航空、能源、水利等行业??0余家单位。获授权国防国家发明专利50余项,出版专??部、?/span>
徐波
中国科学院自动化研究所研究呗?/td>
报告题目9?/b>受脑启发的听觉模型研究进展与展望
报告摘要9?/b>随着深度学习技术的发展,语音信息智能处理近几年取得巨大进步,尤其体现在特定场景、特定任务下的语音识别。然而要让机器达到人类对复杂背景语音的鸡尾酒效应处理能力,则需要从人类听觉更基础层面的认知机理、模型和算法等进行探索。本报告介绍研究团队在本领域的最新研究进展及发展展望、?br> 专家简介:徐波,博士,研究员,长期从事语音语言信息处理和人工智能技术的研究和应用。近年来重点围绕听觉模型、口语对话和翻译等应用,进行深度认知计算和类脑智能模型研究。目前任中科院自动化研究所所长、类脑智能研究中心主任、中国科学院脑科学与智能技术卓越创新中心副主任等职、?/span>
高新泡?/th>
西安电子科技大学教授
报告题目9?/b>基于人机混合智能与深度学习的异质人脸图像识别
报告摘要9?/b>本次报告将以异质人脸图像合成和识别为例探讨人机混合智能和跨媒体智能的相关问题和思考。报告将首先探讨人机混合智能的基本模型——基于三元空间融合模式识别基本框架及其哲学基础,进而介绍基于人机混合智能的异质人脸图像合成与识别的研究进展,即素描画像和灰度图像之间的跨媒体识别工作,重点介绍基于深度学习的异质图像合成与识别方法。这些方法可以推广到其他异质图像的变换和识别中,如近红外与可见光图像,低分辨与高分辨图像,甚至CT和MR图像中,在在刑侦破案、网络追逃、动漫设计以及医学诊断等领域具有广泛的应用前景、?br> 专家简介:高新波,博士,教授,综合业务网理论及关键技术国家重点实验室主任,国家万人计划科技创新领军人才,新世纪百千万人才工程国家级人选,国家杰出青年科学基金获得者,教育部长江学者特聘教授,科技部重点领域创新团队负责人、教育部创新团队负责人。IET Fellow、CIE Fellow、IEEE高级会员、中国图象图形学学会常务理事、中国计算机学会理事、中国指挥与控制学会富媒体指挥专委会常务委员、中国电子学会青年科学家俱乐部副主席。主要从事计算机视觉机器学习等领域的研究和教学工作,发表SCI论文200余篇,引??1000余次,获国家自然科学二等??项、省部级科学技术一等奖3项、?/span>
龚怡宏
西安交通大学教掇?/td>
报告题目9?/b>Transductive Semi-Supervised Deep Learning?using Min-Max Features
报告摘要9?/b>In this talk, we propose Transductive Semi-Supervised Deep?Learning (TSSDL) method that is effective for training Deep Convolutional Neural Network (DCNN) models with a small set of training samples. The method applies transductive learning principle to DCNN training, introduces confidence levels on?unlabeled image samples to overcome unreliable label estimates on outliers and uncertain samples, and develops the Min-Max Feature (MMF)?regularization that encourages DCNN to learn feature descriptors with?better between-class separability and within-class compactness. TSSDL?method is independent of any DCNN architectures and complementary to the latest Semi-Supervised Learning (SSL) methods. Comprehensive?experiments on the benchmark datasets CIFAR10 and SVHN have shown?that the DCNN model trained by the proposed TSSDL method can?produce image classification accuracies compatible to the state-of-the-art SSL methods, and that combining TSSDL with the Mean Teacher?method can produce the best classification accuracies on the two benchmark datasets.
专家简介:龚怡宏,西安交通大学教授,博导,中组部"千人计划"教授, IEEE Fellow??73项目首席科学家,西安交大–海尔联合实验室主任,西安交大–长虹研究院首席科学家。研究领域包括机器学习、模式识别、多媒体内容分析,是国际上第一批从事多媒体视频图像识别的学者之一、?/span>
曾文冚?/th>
微软亚洲研究院研究员
报告题目9?/b>Towards Human-Centric Video Understanding
报告摘要9?/b>People are the very heart of our daily work and life. As we strive to leverage AI to empower every person on the planet to achieve more, we will need to understand people far better than we can today. Human-computer interaction plays a significant role in human-machine hybrid intelligence, and human understanding becomes a critical step in video understanding. In this talk, I will share our views on why and how to use a human centric approach to address computer vision problems, using, as examples, some of our recent efforts on human pose based human activity recognition, where view-invariant models and spatial-temporal visual attention mechanisms are developed.
专家简介:曾文军,微软亚洲研究院首席研究员,Senior Leadership Team (SLT)成员,IEEE Fellow,密苏里大学、西安交通大学、中国科学技术大学,天津大学等多所高校博士生导师。目前负责微软亚洲研究院视频分析和理解的研发,为微软认知服务,微软云平台Azure的媒体分析服务,和Windows Machine Learning平台提供技术。他是IEEE Multimedia Magazine、IEEE Trans. on Circuits & Systems for Video Technology、IEEE Trans. on Info. Forensics & Security、IEEE Trans. on Multimedia的副主编,并担任多个IEEE会议(例如,ICME??018,ICIP??017)的共同主席或技术程序委员会主席。曾教授曾获得多项最佳论文奖,包括IEEE VCIP??016,IEEE ComSoC MMTC??015最佳期刊论文,ACM ICMCS??012等、?/span>
鲁继斆?/th>
清华大学副教掇?/td>
报告题目9?/b>深度强化学习与视觉内容理觢?br> 报告摘要9?/b>报告将介绍清华大学自动化系智能视觉实验室近两年来提出的面向视觉内容理解的多个深度强化学习方法,主要包括多智能体深度强化学习、协同深度强化学习、渐进式深度强化学习、注意力敏感深度强化学习、图表示深度强化学习等,以及它们在人脸检测与识别、物体检测与跟踪、图像识别与检索、行为预测与识别等多个视觉内容理解任务中的应用、?br> 专家简介:鲁继文,清华大学自动化系副教授,博士生导师,国家青年千人计划入选者,国家优秀青年科学基金获得者。主要研究方向为计算机视觉、模式识别和机器学习。发表IEEE汇刊论文57篇(其中PAMI论文10篇),ICCV、CVPR、ECCV和NIPS论文39篇,ESI热点论文和高被引论文9篇,SCI他引1500余次,谷歌学术引??500余次,H指数??9。作为负责人主持国家重点研发计划课题、国家自然科学基金、国内外知名企业合作研究项目十余项。曾/现任IEEE Transactions on Circuits and Systems for Video Technology、IEEE Transactions on Biometrics, Behavior, and Identity Science和Pattern Recognition??个国际期刊编委,中国工程院院刊Engineering青年通讯专家,IEEE信号处理学会多媒体信号处理技术委员会委员,IEEE信号处理学会信息取证与安全技术委员会委员,IEEE电路与系统学会多媒体系统与应用技术委员会委员、?/span>

365bet官网app下载,银河娱乐网站_网址,bet36 - bet36体育在线 - bet36体育在线投注,必威体育_玩球通,bt365投注_bt365体育投注,bet36体育在线,mg电子平台_网站,bet36备用 - bet36体育备用网址