課程名稱 |
自然語言處理 Natural Language Processing |
開課學期 |
108-2 |
授課對象 |
學程 知識管理學程 |
授課教師 |
陳信希 |
課號 |
CSIE5042 |
課程識別碼 |
922 U0670 |
班次 |
|
學分 |
3.0 |
全/半年 |
半年 |
必/選修 |
選修 |
上課時間 |
星期四2,3,4(9:10~12:10) |
上課地點 |
資101 |
備註 |
KM學程系統領域選修課,限學士班三年級以上。 限學士班三年級以上 總人數上限:60人 |
Ceiba 課程網頁 |
http://ceiba.ntu.edu.tw/1082CSIE5042_nlp |
課程簡介影片 |
|
核心能力關聯 |
核心能力與課程規劃關聯圖 |
課程大綱
|
為確保您我的權利,請尊重智慧財產權及不得非法影印
|
課程概述 |
自然語言處理,又稱計算語言學或人類語言技術,主要的目標是學習了解和產生自然語言的電腦系統,讓電腦像人一樣處理任何形式的對話工作。由於大量知識的機器可讀形式是以自然語言來呈現,很多實際應用應運而生。以文件分析、自動問答、和機器翻譯等三個應用為例。在文件分析,自然語言處理技術由部落格、微博、論壇等不同形式的媒體中,擷取知識以支援多樣化的應用。在自動問答,自然語言處理技術分析問題以了解問題核心,分析內容以擷取正確答案。在機器翻譯,自然語言處理技術分析來源語言,掌握語言之差異,以生成目標語言。本課程分詞彙、語法、語義、語用、和應用等五個面向,教授自然語言處相關理論和技術。 |
課程目標 |
修課同學可以由詞彙、語法、語義、語用、和應用等五個面向,學習自然語言處相關理論和技術,以下分別說明:
(1) 詞彙:Collocations and Multi-Word Expressions、N-grams and Smoothing、Neural Probabilistic Language Model and Word Embeddings, HMM Models、Part of Speech Tagging
(2) 語法:Syntax and Grammars、Syntactic Parsing、Statistical Parsing、Dee[ Neural Networks for Parsing, Dependency Parsing Using Neural Network
(3) 語義:Lexical Semantics、Computational Lexical Semantics、Semantic Representation
(4) 語用:Computational Discourse、Chinese Discourse Parsing and Its Applications
(5) 應用:Opinion Mining and Sentiment Analysis |
課程要求 |
本課程評量包括期中考、期末考、和學期計畫三部分,引導同學學習自然語言處理理論和技術,並設計應用系統。 |
預期每週課後學習時數 |
|
Office Hours |
|
指定閱讀 |
待補 |
參考書目 |
(1) Daniel Jurafsky and James H. Martin, Speech and Language Processing: An Introduction to Natural Language Processing, Computational Linguistics and Speech Recognition, Third Edition. Draft, 2018. (https://web.stanford.edu/~jurafsky/slp3/)
(2) Christopher D. Manning and Hinrich Schutze,
Foundations of Statistical Natural Language Processing, MIT Press, 1999.
(3) Steven Bird, Ewan Klein, and Edward Loper, Natural Language Processing with Python: Analyzing Text with the Natural Language Toolkit, O'Reilly Media, 2009.
(4) Deep Learning Papers for Natural Language Processing, 2016 |
評量方式 (僅供參考) |
|
週次 |
日期 |
單元主題 |
第1週 |
3/05 |
Lecture 1. Introduction |
第2週 |
3/12 |
Lecture 2. Words, Collocations and Multi-Word Expressions |
第3週 |
3/19 |
Lecture 3. N-Gram Language Models, Smoothing and Discounting
Lecture 4 Neural Language Model and Word Embedding |
第4週 |
3/26 |
Lecture 5. Sequence Modeling |
第5週 |
4/02 |
補假(兒童節及民族掃墓節同一日,於前一天補假) |
第6週 |
4/09 |
Lecture 6. Part-of-Speech Tagging |
第7週 |
4/16 |
Lecture 7. Syntax and Parsing
Lecture 8. Statistical Parsing |
第8週 |
4/23 |
期中考範圍:Lecture 1-Lecture 8。
型式:open book,細節請參考公告。 |
第9週 |
4/30 |
Lecture 9. Deep Neural Networks for Parsing
Lecture 10. Dependency Parsing |
第10週 |
5/07 |
Lecture 11. Lexical Semantics |
第11週 |
5/14 |
Lecture 12. Semantic Role Labelling and Argument Structure |
第12週 |
5/21 |
Lecture 13. Representation of Sentence Meanings |
第13週 |
5/28 |
Lecture 14. Computational Discourse |
第14週 |
6/04 |
分組報告 |
第15週 |
6/11 |
分組報告 |
第16週 |
6/18 |
期末考 |
第17週 |
6/25 |
端午節 |
第18週 |
7/2 |
自主學習 |
|