杨鸿武个人简介

发布者:卜小龙发布时间:2019-07-05浏览次数:9911


姓名

杨鸿武

职称职务

教授(二级)、博士生导师

学科专业

计算机应用

Email

yanghw@nwnu.edu.cn




【个人简历】

教育背景:

2003.9~2007.7:清华大学计算机系,博士研究生

1992.9~1995.6:西北师范大学物理系,硕士研究生

1988.9~1992.6:西北师范大学物理系,本科

研究工作经历:

2019.7-今:西北师范大学教育技术学院教授、博士生导师

2014.9~2015.8:中组部“西部之光”访问学者

2013.01~2019.7:甘肃省重点学科“电子科学与技术”一级学科带头人

2011.11~2012.11:日本名古屋工业大学计算机系外国研究学者

2011.08~2011.10:澳大利亚皇家墨尔本理工大学校双语教学骨干教师培训

2009.0411~12:香港中文大学系统工程与工程管理学系访问学者

2006.02~2006.07:香港中文大学系统工程与工程管理学系研究助理

1995.07~2019.0:西北师范大学物理与电子工程学院任教


【课程教学】

本科生课程:《人工智能》、《计算机网络》、《数据结构》

研究生课程:《语音信号处理》《人工智能》、《模式识别》、《机器学习》、《智能教育研究方法》、《智能教育关键技术》

主持的《人工智能》课程是省级一流课程、校级课程思政课程、研究生荣誉课、本科生通识课,慕课课程入选国家高等教育智慧教育平台


【科学研究】

主要研究方向为智能教育、人工智能技术。研制的面向基础教育的《人工智能技术与工程素养框架》已被中央电化教育馆发布,编写了中央电化教育馆《中小学人工智能教育系列-人工智能》(小学、初中版)教材,提出的“四位一体”人工智能创新教育课程体系被全国1200多所学校采用。研制的彝语和藏语三大方言的语音合成系统已应用于中国民族语文翻译局的智能民族语言语音翻译系统中。主持国家自然科学基金项目4项、甘肃省杰出青年基金项目1项、甘肃省高等学校创新团队项目1项、甘肃省教育科学“十三五”规划重点课题1项、其他项目项目多项,获教育部高等学校科研优秀成果奖等奖励多项,发表SCICSSCICPCIEI等检索论文50余篇,获得国家专利和计算机软件著作权40余件


【学术暨社会兼职】

中央电化教育馆人工智能教育工作组组长,中国计算机学会语音对话与听觉专业工作组委员,中国科协青少年科技中心、中国青少年科技辅导员协会科技教育乡村行特聘专家,甘肃省青少年科技教育协会理事。甘肃省科普专家,金城首席科普专家。Speech Communication等多个国际知名期刊审稿人,IEEEACMCCF会员。互联网教育数据学习分析技术国家地方联合工程实验室副主任。


【代表论文】

[1] Hongwu Yang*, Dong Li, Yajing Yan, Improving Fluency of Spoken Mandarin for Nonnative Speakers by Prosodic Boundary Prediction Based on Deep Learning, Wireless Communications and Mobile Computing, vol. 2022, 2022. (SCI)

[2] Zhang, W, Yang, H*. Meta-Learning for Mandarin-Tibetan Cross-Lingual Speech Synthesis. Appl. Sci. 2022, 12, 12185.(SCI)

[3] Guo W*, Yang H, Liu Z, et al.  Deep Neural Networks for Depression Recognition Based on 2D and 3D Facial Expressions Under Emotional Stimulus Tasks.[J].  Frontiers in neuroscience, 2021, 15:609760.(SCI)

[4] 杨鸿武*, 张笛, 郭威彤. STEM背景下人工智能素养框架的研究[J]. 电化教育研究, 2022,43(04):26-32.(CSSCI,人大复印资料全文转载)

[5] 王伟喆, 郭威彤*, 杨鸿武. 手语到情感语音的转换[J]. 计算机工程与科学, 2022, 44(10):1869-1876.(CSCD)

[6] 王莉莉, 郭威彤, 杨鸿武*. 利用学习者画像实现个性化课程推荐[J]. 电化教育研究, 2021, 42(12):55-62.(CSSCI)

[7] Li, X., W. Guo, H. Yang*. Depression Severity Prediction from Facial Expression based on the DRR_Depressionnet Network, BIBM,IEEE, 2020.(CCF B类会议,CPCI)

[8] Hongwu Yang(*), Keiichiro Oura, Haiyan Wang, Zhenye Gan, Keiichi Tokuda. Using speaker adaptive training to realize Mandarin-Tibetan cross-lingual speech synthesis [J]. Multimedia Tools and Applications, 2015, 74(22): 9927-9942.(SCI)

[9] 宋南, 吴沛文, 杨鸿武(*). 融合人脸表情的手语到汉藏双语情感语音转换[J]. 声学技术, 2018,37(4):372-379.

[10] 智鹏鹏, 杨鸿武, 宋南(*). 利用说话人自适应实现基于DNN的情感语音合成[J]. 重庆邮电大学学报(自然版), 2018.

[11] 甘振业, 陈浩, 杨鸿武(*). 结合EEMD与K-SVD字典训练的语音增强算法[J]. 清华大学学报(自然科学版), 2017(3):286-292.

[12] 郭威彤,杨鸿武(*),宋继华,顾香,甘振业。面向方言语音合成的文本分析的研究[J]. 计算机工程, 2015,  41(9): 184-189.

[13] 王海燕, 杨鸿武(*), 甘振业, 裴东. 基于说话人自适应训练的汉藏双语语音合成[J]. 清华大学学报, 2013, 53(6): 776-780.  

[14] Wang L, Yang H(*). Tibetan Word Segmentation Method Based on BiLSTM_CRF Model[C]// International Conference on Asian Language Processing, IEEE, 2018.

[15] Song N, Yang H(*), Zhang T. A DNN-based framework for converting sign language to Mandarin-Tibetan cross-lingual emotional speech[C]// International Conference on Asian Language Processing, IEEE, 2018.

[16] Chen L, Yang H(*), Wang H. Research on Dungan speech synthesis based on Deep Neural Network [C]// International Symposium on Chinese Spoken Language Processing (ISCSLP), IEEE, 2018.

[17] Zhang W, Yang H(*), Zhi P. Emotional speech synthesis based on DNN and PAD emotional state model [C]// International Symposium on Chinese Spoken Language Processing (ISCSLP), IEEE, 2018.

[18] Song N, Yang H(*), Zhi P. A deep learning based framework for converting sign language to emotional speech[C]// Asia-Pacific Signal and Information Processing Association Annual Summit and Conference, IEEE, 2018.

[19] Guo W, Yang H(*), Gan Z. A DNN-based Mandarin-Tibetan cross-lingual speech synthesis[C] Asia-Pacific Signal and Information Processing Association Annual Summit and Conference, IEEE, 2018.

[20] Yang H(*), Zhang W, Zhi P. A DNN-based emotional speech synthesis by speaker adaptation[C]// Asia-Pacific Signal and Information Processing Association Annual Summit and Conference, IEEE, 2018.

[21] Song N, Yang H(*), Zhi P. Towards realizing sign language to emotional speech conversion by deep learning[C]// International Conference of Pioneering Computer Scientists, Engineers and Educators, Springer, Singapore, 2018:416-430.

[22] Song N, Yang H(*), Wu P. A Gesture-to-Emotional Speech Conversion by Combining Gesture Recognition and Facial Expression Recognition[C]// The first Asian Conference on Affective Computing and Intelligent Interaction, IEEE, 2018.