課程名稱 |
自然語言處理 Natural Language Processing |
開課學期 |
109-2 |
授課對象 |
學程 智慧醫療學分學程 |
授課教師 |
陳信希 |
課號 |
CSIE5042 |
課程識別碼 |
922 U0670 |
班次 |
|
學分 |
3.0 |
全/半年 |
半年 |
必/選修 |
選修 |
上課時間 |
星期四2,3,4(9:10~12:10) |
上課地點 |
資105 |
備註 |
智慧醫療學分學程所屬電資學院「數據領域課程」 限學士班三年級以上 總人數上限:55人 |
Ceiba 課程網頁 |
http://ceiba.ntu.edu.tw/1092CSIE5042_nlp |
課程簡介影片 |
|
核心能力關聯 |
核心能力與課程規劃關聯圖 |
課程大綱
|
為確保您我的權利,請尊重智慧財產權及不得非法影印
|
課程概述 |
自然語言處理,又稱計算語言學或人類語言技術,主要的目標是學習了解和產生自然語言的電腦系統,讓電腦像人一樣處理任何形式的對話工作。由於大量知識的機器可讀形式是以自然語言來呈現,很多實際應用應運而生。以文件分析、自動問答、和機器翻譯等三個應用為例。在文件分析,自然語言處理技術由部落格、微博、論壇等不同形式的媒體中,擷取知識以支援多樣化的應用。在自動問答,自然語言處理技術分析問題以了解問題核心,分析內容以擷取正確答案。在機器翻譯,自然語言處理技術分析來源語言,掌握語言之差異,以生成目標語言。本課程分詞彙、語法、語義、語用、和應用等五個面向,教授自然語言處相關理論和技術。 |
課程目標 |
修課同學可以由詞彙、語法、語義、語用、和應用等五個面向,學習自然語言處相關理論和技術,以下分別說明:
(1) 詞彙:Collocations and Multi-Word Expressions、N-grams and Smoothing、Neural Probabilistic Language Model and Word Embeddings, HMM Models、Part of Speech Tagging
(2) 語法:Syntax and Grammars、Syntactic Parsing、Statistical Parsing、Dee[ Neural Networks for Parsing, Dependency Parsing Using Neural Network
(3) 語義:Lexical Semantics、Computational Lexical Semantics、Semantic Representation
(4) 語用:Computational Discourse、Chinese Discourse Parsing and Its Applications
(5) 應用:Opinion Mining and Sentiment Analysis |
課程要求 |
本課程評量包括期中考、期末考、和學期計畫三部分,引導同學學習自然語言處理理論和技術,並設計應用系統。 |
預期每週課後學習時數 |
|
Office Hours |
|
指定閱讀 |
待補 |
參考書目 |
(1) Daniel Jurafsky and James H. Martin, Speech and Language Processing: An
Introduction to Natural Language Processing, Computational Linguistics and
Speech Recognition, Third Edition. December 30, 2020 draft.
(https://web.stanford.edu/~jurafsky/slp3/)
(2) Jacob Eisenstein, Introduction to Natural Language Processing, The MIT
Press, 2019.
(3) Neural Network Methods for Natural Language Processing, Synthesis
Lectures on Human Language Technologies, Morgan & Claypool publishers, 2017.
(4) Christopher D. Manning and Hinrich Schutze, Foundations of Statistical
Natural Language Processing, MIT Press, 1999.
(5) Deep Learning Papers for Natural Language Processing |
評量方式 (僅供參考) |
|
週次 |
日期 |
單元主題 |
第1週 |
2/25 |
Lecture 1. Introduction |
第2週 |
3/4 |
Lecture 2. Words, Collocations and Multiword Expressions |
第3週 |
3/11 |
Lecture 3. N-Gram Language Models, Smoothing and Discounting |
第4週 |
3/18 |
Lecture 4. Neural Language Model and Word Embedding |
第5週 |
3/25 |
Lecture 5. Sequence Labeling for Parts of Speech and Named Entities |
第6週 |
4/1 |
溫書假(調整放假) |
第7週 |
4/8 |
Lecture 6. Deep Learning Architecture for Sequence Processing;
Lecture 7. Machine Translation and Encoder-Decoder Models |
第8週 |
4/15 |
(1) AI CUP 醫病決策預判與問答 (邀請講者:成大高宏宇教授)
(2) Term Project 說明 |
第9週 |
4/22 |
期中考 |
第10週 |
4/29 |
Lecture 7. Machine Translation and Encoder-Decoder Models (pages 14-31)
Lecture 8. Contextual Embeddings
Lecture 9. Constituency Grammars and Parsing |
第11週 |
5/6 |
Lecture 10. Statistical Constituency Parsing
Lecture 11. Deep Neural Networks for Parsing |
第12週 |
5/13 |
Lecture 12. Dependency Parsing
Lecture 13. Word Senses and WordNet (pp. 1-22) |
第13週 |
5/20 |
Lecture 14. Semantic Role Labelling and Argument Structure (pp. 1-73) |
第14週 |
5/27 |
Lecture 15. Representation of Sentence Meanings (pp. 1-31)
Lecture 16. Computational Discourse
Lecture 17. Chinese Discourse Parsing and Its Applications |
|