头像

孔万增

博士 教授 | 博导 学科:计算机科学与技术 职务:党委委员、组织部部长

毕业院校:浙江大学

研究方向:脑机接口、脑电信号处理、模式识别、机器视觉

电话: 邮箱:kongwanzeng@hdu.edu.cn

地址:

手机访问

孔万增,二级教授、博导,2008年博士毕业于浙江大学,脑机协同智能技术(科技部)国际联合研究中心副主任,全省脑机协同智能技术及应用重点实验室主任,校党委委员、组织部部长、统战部部长,入选2023、2024年度全球前2%顶尖科学家榜单,中国电子学会优秀科技工作者,中国计算机学会杰出会员(专业会员比例 3‰),省万人计划科技创新领军人才。近年来先后主持(完成)国家自然科学基金(青年、面上、联合重点)、国家重点研发计划国际科技创新合作重点专项、国家国际科技合作专项、JWKJW 173计划领域基金、浙江省重点研发计划等多项科研项目。同时在国际、国内重要的学术组织兼职,担任SCI期刊Cognitive Neurodynamics副主编、Journal of Neuroscience Methods编委,IEEE Senior Member,Technical Committee Member of IEEE Biomedical Signal Processing Society以及杭州市人工智能学会理事长。在人工智能与脑机交互研究领域顶级会议NeurIPS、ACL、IJCAI、ACM MM和权威期刊IEEE TPAMI、TNNLS、TNSRE、TAFFC、TCDS、TIM等发表高水平学术论文100余篇,出版英文专著1部(Springer 出版)谷歌学术引用5100余次,申请国家发明专利40余项,已授权近20项,研究成果获省部级科技奖项4项,同时荣获国家教学成果二等奖和浙江省研究生教育成果一等奖各1项。

  • 2003-9 至 2008-7, 浙江大学, 控制理论与控制工程, 博士

  • 1999-9 至 2003-7, 浙江大学, 自动化, 学士 


  • 2016-01 至 今, 杭州电子科技大学, 计算机学院, 教授

  • 2010-09 至 2015-12, 杭州电子科技大学, 计算机学院, 副教授

  • 2012-11 至 2013-11, 明尼苏达大学, 神经工程中心, 访问学者

  • 2008-06 至 2010-08, 杭州电子科技大学, 计算机学院, 讲师 


《模式识别》《人工智能导论》《形势与政策》《创新综合实践》《创新实践1》

纵向科研

[1] 国家自然科学基金面上项目,跨场景跨时段脑纹识别若干关键技术研究,62471169,53万,2025.01-2028.12,主持。

[2] 浙江省“尖兵”“领雁”研发攻关计划,基于多模态混合的双向闭环个性化脑机康复及评估关键技术-基于多模态混合的双向闭环个性化脑机康复及评估技术研究,2023C03026,360万元,2023.01-2025.12,主持;

[3] 自然科学基金委企业(中电科)创新联合基金重点项目,面向海量视频复杂目标识别的多脑脑机协同智能关键理论与技术,U20B2074,255万,2021.01-2024.12,主持;

[4] 科技部国家重点研发计划政府间国际科技创新合作重点专项张量表征的深度学习及在大脑运动功能康复中的应用,2017YFE0116800,245万,2019.01-2021.12,主持

[5] 浙江省重点研发计划国际合作项目,面向助老助残的可穿戴外骨骼机器人关键技术研究与应用,2018C04012,250万,2018.01-2020.12,主持;

[6] 自然科学基金委面上项目,任务无关脑纹识别的若干关键技术研究61671193,71万,2017.01-2020.12,主持

[7] 科技部国家国际科技合作专项,基于脑肌电的中风康复其神经预测系统的合作研究,2014DFG12570,90万,2014.04-2017.04,主持;

[8] 自然科学基金委区域创新联合基金重点项目,双向脑机接口的互适应理论与关键技术研究U1909202,238/71万,2020.01-2023.12,课题主持;

[9] 浙江省科学技术厅重点研发计划-择优委托项目,高精度运动脑机接口关键技术与方法研究-面向语音交互的多模态混合脑机接口的关键技术与方法研究,2021C03003,780/60万,2021.01-2024.11,课题主持。



横向科研
论文

[1] Liu D, Dai W, Zhang H, Jin X, Cao J, Kong W*. Brain-Machine Coupled Learning Method for Facial Emotion Recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence (CCF A), 2023.

[2] Jin X, Li N, Kong W*, Zhao Q, Tang J, Zhu L, Cao J. Disentangled Adversarial Generalization Network for cross-session Task-independent Brainprint Recognition[J]. IEEE Transactions on Cognitive and Developmental Systems, 2023.

[3]Cui J, Jin X, Hu H, Zhu L, Ozawa K, Pan G, Kong W*. Dynamic distribution alignment with dual-subspace mapping for cross-subject driver mental state detection[J]. IEEE Transactions on Cognitive and Developmental Systems, 2021.

[4] Kong W*, Qiu M, Li M, Jin X, Zhu L. Causal Graph Convolutional Neural Network For Emotion Recognition[J]. IEEE Transactions on Cognitive and Developmental Systems, 2022.

[5]Jin X, Tang J, Kong X, Peng Y, Cao J, Zhao Q, Kong W*, et al. CTNN: A convolutional tensor-train neural network for multi-task brainprint recognition[J]. IEEE Transactions on Neural Systems and Rehabilitation Engineering, 2020, 29: 103-112.

[6]Zeng H, Dai G*, Kong W*, Chen F, Wang L. A novel nonlinear dynamic method for stroke rehabilitation effect evaluation using eeg[J]. IEEE Transactions on Neural Systems and Rehabilitation Engineering, 2017, 25(12): 2488-2497.

[7]Peng Y, Liu H, Li J, Huang J, Lu B L, Kong W*. Cross-session emotion recognition by joint label-common and label-specific EEG features exploration[J]. IEEE Transactions on Neural Systems and Rehabilitation Engineering, 2022, 31: 759-768.

[8]Peng Y, Jin F, Kong W*, Nie F, Lu B L, Cichocki A. OGSSL: A semi-supervised classification model coupled with optimal graph learning for EEG emotion recognition[J]. IEEE Transactions on Neural Systems and Rehabilitation Engineering, 2022, 30: 1288-1297.

[9]Peng Y*, Wang W, Kong W*, Nie F, Lu B L, Cichocki A. Joint feature adaptation and graph adaptive label propagation for cross-subject emotion recognition from EEG signals[J]. IEEE Transactions on Affective Computing, 2022, 13(4): 1941-1958.

[10]Peng Y, Zhang Y, Kong W*, Nie F, Lu B L, Cichocki A. S 3 LRR: A Unified Model for Joint Discriminative Subspace Identification and Semisupervised EEG Emotion Recognition[J]. IEEE Transactions on Instrumentation and Measurement, 2022, 71: 1-13.

[11]Tang J, Liu D, Jin X, Peng Y, Zhao Q, Ding Y, Kong W*. Bafn: Bi-direction attention based fusion network for multimodal sentiment analysis[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2022, 33(4): 1966-1978.

[12]Peng Y, Huang W, Kong W*, Nie F, Lu B L. JGSED: An End-to-End Spectral Clustering Model for Joint Graph Construction, Spectral Embedding and Discretization[J]. IEEE Transactions on Emerging Topics in Computational Intelligence, 2023.

[13]Peng Y, Liu H, Kong W*, Nie F, Lu B L, Cichocki A. Joint EEG feature transfer and semi-supervised cross-subject emotion recognition[J]. IEEE Transactions on Industrial Informatics, 2022.

14]Zeng H, Wu Q, Jin Y, Zheng H, Li M, Zhao Y, Hu H, Kong W*. Siam-GCAN: A Siamese graph convolutional attention network for EEG emotion recognition[J]. IEEE Transactions on Instrumentation and Measurement, 2022, 71: 1-9.

[15]Peng Y, Chen K, Nie F, Lu B L, Kong W*. Two-dimensional embedded fuzzy data clustering[J]. IEEE Transactions on Emerging Topics in Computational Intelligence, 2022.

[16]Hou M, Tang J, Zhang J, Kong W, Zhao Q*, Deep multimodal multilinear fusion with high-order polynomial poolin[C]. 33rd Conference on Neural Information Processing Systems (NeurIPS, CCF A会)2019331-10.

[17] Tang J, Li K, Jin X, Cichocki A, Zhao Q, Kong W*. Ctfn: Hierarchical learning for multimodal sentiment analysis using coupled-translation fusion network[C]. Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers)(ACL, CCF A会). 2021: 5301-5311.

[18] Guo J, Tang J, Dai W, Ding Y, Kong W*. Dynamically adjust word representations using unaligned multimodal information[C]. Proceedings of the 30th ACM International Conference on Multimedia (ACM MM, CCF A会). 2022: 3394-3402.

[19] Tang J, Li K, Hou M, Jin X, Kong W*, Ding Y, Zha Q. MMT: Multi-Way Multi-Modal Transformer for Multimodal Learning[C]. Proceedings of the Thirty-First International Joint Conference on Artificial Intelligence, IJCAI-22, LD Raedt, Ed. International Joint Conferences on Artificial Intelligence Organization (IJCAI, CCF A会). 2022, 7: 3458-3465.


著作

1.        一种基于频空指标的脑纹识别方法(ZL201810921009.4),发明专利1/42021

2.        一种基于脑电相位同步的身份识别方法(ZL201410018604.9),发明专利1/52015

3.        一种基于双脑的多层次信息融合的目标检测方法(ZL202110373684.X),发明专利1/52024

4.        一种基于张量化高阶互注意力机制的多源域适应方法(ZL202110678075.5),发明专利1/52024

5.        一种基于脑机模态共空间的情绪识别方法(ZL202111272389.1),发明专利1/72023

6.        一种基于脑机生成对抗的情绪识别方法(ZL202111248689.6),发明专利1/72023

7.        一种基于互信息特征提取及多人融合的运动想象识别方法(ZL202011541158.1),发明专利1/52022

8.        一种基于脑-机协同智能的表情识别方法(ZL201910261637.9),发明专利1/32020

9.        一种基于低秩和稀疏矩阵分解的脑电信号处理方法(ZL201510771113.6),发明专利1/52017

10.     一种基于相位同步的多类别运动想象脑电信号分类方法(ZL201410185328.5),发明专利1/62017


1.        浙江省科学技术进步三等奖,面向智慧健康的脑机协同智能关键技术应用,第一完成人,2019-05-17,浙江省人民政府。

2.        吴文俊人工智能科学技术奖三等奖,基于脑机接口的主动式康复效果评价系统,第一完成人,2018-10-20,中国人工智能学会。

3.        2023国际物联网与智能应用协会最佳研究者奖,2023-02-09,国际学术组织ScienceFather

4.        中国质量评价协会科技创新成果优秀奖,基于生物电技术的汽车驾驶安全监视预警系统,第一完成人,2017-12-20,中国质量评价协会。

5.        中国侨界团队贡献奖,脑机接口与认知计算创新团队,第三完成人,2014-09-20,中华全国归国华侨联合会。

6.        中国电子学会优秀科技工作者,2019-03-30,中国电子学会。