課程名稱 |
自然語言處理 Natural Language Processing |
開課學期 |
110-2 |
授課對象 |
學程 知識管理學程 |
授課教師 |
陳信希 |
課號 |
CSIE5042 |
課程識別碼 |
922 U0670 |
班次 |
|
學分 |
3.0 |
全/半年 |
半年 |
必/選修 |
選修 |
上課時間 |
星期四2,3,4(9:10~12:10) |
上課地點 |
資105 |
備註 |
KM學程系統領域選修課程。 限學士班三年級以上 總人數上限:55人 |
|
|
課程簡介影片 |
|
核心能力關聯 |
核心能力與課程規劃關聯圖 |
課程大綱
|
為確保您我的權利,請尊重智慧財產權及不得非法影印
|
課程概述 |
自然語言處理,又稱計算語言學或人類語言技術,主要的目標是學習了解和產生自然語言的電腦系統,讓電腦像人一樣處理任何形式的對話工作。由於大量知識的機器可讀形式是以自然語言來呈現,很多實際應用應運而生。以文件分析、自動問答、和機器翻譯等三個應用為例。在文件分析,自然語言處理技術由部落格、微博、論壇等不同形式的媒體中,擷取知識以支援多樣化的應用。在自動問答,自然語言處理技術分析問題以了解問題核心,分析內容以擷取正確答案。在機器翻譯,自然語言處理技術分析來源語言,掌握語言之差異,以生成目標語言。本課程分詞彙、語法、語義、語用、和應用等五個面向,教授自然語言處相關理論和技術。 |
課程目標 |
修課同學可以由詞彙、語法、語義、語用、和應用等五個面向,學習自然語言處相關理論和技術,以下分別說明:
(1) 詞彙:Collocations and Multi-Word Expressions、N-grams and Smoothing、Neural Probabilistic Language Model and Word Embeddings, HMM Models、Part of Speech Tagging
(2) 語法:Syntax and Grammars、Syntactic Parsing、Statistical Parsing、Deep Neural Networks for Parsing, Dependency Parsing Using Neural Network
(3) 語義:Lexical Semantics、Computational Lexical Semantics、Semantic Representation
(4) 語用:Computational Discourse、Chinese Discourse Parsing and Its Applications
(5) 應用:Opinion Mining and Sentiment Analysis |
課程要求 |
本課程評量包括期中考、期末考、學期計畫、以及分組報告共四部分,引導同學學習自然語言處理理論和技術,並設計應用系統。 |
預期每週課後學習時數 |
|
Office Hours |
|
指定閱讀 |
待補 |
參考書目 |
(1) Daniel Jurafsky and James H. Martin, Speech and Language Processing: An
Introduction to Natural Language Processing, Computational Linguistics and
Speech Recognition, Third Edition. December 29, 2021 draft.
(https://web.stanford.edu/~jurafsky/slp3/),https://web.stanford.edu/~jurafsky/slp3/ed3book_dec292021.pdf。
(2) Jacob Eisenstein, Introduction to Natural Language Processing, The MIT
Press, 2019.
(3) Neural Network Methods for Natural Language Processing, Synthesis
Lectures on Human Language Technologies, Morgan & Claypool publishers, 2017.
(4) Uday Kamath, John Liu, and James Whitaker, Deep Learning for NLP and Speech Recognition, Springer, 2020.
https://link.springer.com/content/pdf/10.1007%2F978-3-030-14596-5.pdf
(5) Deep Learning Papers for Natural Language Processing |
評量方式 (僅供參考) |
|
週次 |
日期 |
單元主題 |
第1週 |
2/17 |
Lecture 1. Introduction |
第2週 |
2/24 |
Lecture 2. Words, Collocations and Multiword Expressions |
第3週 |
3/3 |
Lecture 3. N-Gram Language Models, Smoothing and Discounting |
第4週 |
3/10 |
Lecture 4. Vector Semantics and Embeddings
Lecture 5. Neural Networks and Neural Language Models |
第5週 |
3/17 |
Lecture 6. Sequence Labeling for Parts of Speech and Named Entities
Lecture 7. Deep Learning Architecture for Sequence Processing |
第6週 |
3/24 |
Lecture 7. Machine Translation and Encoder-Decoder Models |
第7週 |
3/31 |
Lecture 8. Transfer Learning with Contextual Embeddings and Pre-trained Language Models |
第8週 |
4/7 |
期中考 |
第9週 |
4/14 |
Lecture 9. Constituency Grammars and Parsing
Lecture 10. Dependency Parsing |
第10週 |
4/21 |
Lecture 11. Logical Representation of Sentence Meanings |
第11週 |
4/28 |
Lecture 12. Word Senses and WordNet
Lecture 13. Semantic Role Labelling and Argument Structure |
第12週 |
5/5 |
Lecture 14. Coreference Resolution
Lecture 15. Computational Discourse |
第13週 |
5/12 |
分組報告 |
第14週 |
5/19 |
分組報告 |
第15週 |
5/26 |
分組報告 |
第16週 |
6/2 |
期末考 |
|