課程名稱 |
機器學習 Machine Learning |
開課學期 |
110-2 |
授課對象 |
電機資訊學院 資料科學碩士學位學程 |
授課教師 |
李宏毅 |
課號 |
EE5184 |
課程識別碼 |
921 U2620 |
班次 |
|
學分 |
4.0 |
全/半年 |
半年 |
必/選修 |
必修 |
上課時間 |
星期五7,8,9,10(14:20~18:20) |
上課地點 |
博理112 |
備註 |
初選不開放。於加退選時加選.與林宗男、吳沛遠合授 總人數上限:130人 |
|
|
課程簡介影片 |
|
核心能力關聯 |
核心能力與課程規劃關聯圖 |
課程大綱
|
為確保您我的權利,請尊重智慧財產權及不得非法影印
|
課程概述 |
上課內容都會錄影放到課程網站上, 歡迎課後聽錄影。上課時間會開YouTube直播,直播連結會在上課前透過 NTU COOL 寄給修課學生。
【選課方式】
台大電機資訊學院的學生(含資料科學學程、智慧醫療學程和事前核可的輔系)請於開學第一次上課登記,都會加簽,登記可以線上完成,開學第一次上課會公告登記的表單,登記期限到 2/23 23:59。登記連結如下:https://forms.gle/6cESrXKT7pgWLmLX7 (無論是否為電資學院學生,只要想要加選的學生都需要填這個表單)
非電機資訊學院的台大學生加簽三十人,加簽的優先順序由作業一的成績決定,作業一要完成的任務是迴歸 (Regression),作業一具體內容會在第一次上課時公告。本課程本學期並未開放外校同學選修。
因為本學期助教資源有限,無法讓所有同學都修課,還請見諒。取得加簽資格後,授權碼將透過 NTU COOL 線上發送。
有關作業一的內容可以先參考以下2021年的課程自行學習,本學期的作業一跟去年非常類似 (請不要私訊老師詢問作業一的內容)
上課說明 (part 1):https://youtu.be/Ye018rCVvOo
上課說明 (part 2):https://youtu.be/bHcJCp2Fyxs
範例程式:https://colab.research.google.com/github/ga642381/ML2021-Spring/blob/main/HW01/HW01.ipynb
**請有要修課的同學把上面的影片在開學前先看完,相關內容本學期開學後不會再講**
【FAQ】
Q: 本課程可否旁聽?
A: 本課程歡迎旁聽,所有的課程錄影都可以在課程網頁上找到,旁聽生可以寄信給助教,請助教幫忙加入 NTU COOL 參與課程討論。但助教不批改旁聽生的作業。
Q: 這門課對於程式能力有甚麼要求呢?
A: 需要會使用 Python,本課程會專注於 ML 相關的內容,Python 的語法、package 的使用 (例如: numpy, matplotlib 等) 並不會講。
Q: 這門課對於數學能力有甚麼要求呢?
A: 只要有修過微積分、線性代數、機率就可以完全聽懂這門課的內容。
Q: 這門課程跟林軒田老師的機器學習基石/技法有甚麼不同呢?
A: 這門課和機器學習基石/技法沒有太多重疊的地方,有修過基石和技法的同學也可以在這門課學到非常多新東西。沒有修過基石和技法的同學也不用擔心,你也可以聽得懂這門課的內容。
【助教信箱】
mlta-2022-spring@googlegroups.com
【課程網頁】
https://speech.ee.ntu.edu.tw/~hylee/ml/2022-spring.php
|
課程目標 |
【課程內容】
本課程以深度學習為主軸,會從基礎的觀念講到最前沿的研究,本學期的作業和課程會涵蓋以下主題。以下每個主題其實都是大坑,因為時間有限本課程只能點到為止,主要目標是告訴大家有那些坑,讓有興趣的同學未來可以繼續做深入研究。
本課程涵蓋以下主題
類神經網路之訓練:今天每次遇到一個問題,就會有人說用深度學習「硬 train 一發」不就好了,但是有實作過深度學習的同學都知道,類神經網路常常訓練不起來阿阿阿阿阿~ 在這門課中,我們會一起來看看為什麼類神經網路這麼難訓練以及可能的克服之道。
類神經網路之架構:這學期將專注於 Transformer 及其火種源 self-attention 的種種變形,難道 CNN/RNN 不講了嗎? 我會告訴你 CNN/RNN 可以看做是 self-attention 的特例。
超越督導式學習:多數時候機器的學習仍需要人類對資料進行適當的標註才能學習,這種學習方式稱之為督導式學習(Supervised Learning),標註資料往往所費不貲,在督導式學習以外還有哪些學習法呢?本學期我們會來看看機器如何利用網路上唾手可得的未標註資料來做自督導式學習(Self-supervised Learning),自督導式學習最知名的模型就是超巨大巨人—BERT ,在作業中我們會使用 BERT。本課程也會講轉移學習 (Transfer Learning) 和增強式學習 (Reinforcement Learning)。
生成模型 (Generative Model):我們來看看機器如何學習「創作」,在作業中我們會讓機器來畫二次元的人物頭像。
對抗攻擊(Adversarial Attack):今天動不動就有人到處嚷嚷說 AI 在什麼什麼任務上的正確率超越了人類,但這些號稱正確率可以跟人類匹敵的機器,居然在人類的惡意攻擊面前不堪一擊。
可解釋性AI (Explainable AI):我們要機器不只得到正確答案,還要告訴我們它是如何得到答案的。
類神經網路壓縮(Network Compression):今天這個時代就好像發動了地鳴,好多巨大的類神經網路從地湧出,但這些巨大的網路要如何用在邊緣裝置上呢?我們需要網路壓縮技術。
機器的終身學習 (Life-long Learning):機器能不斷學習最終成為天網嗎?阻礙天網產生的關鍵難題是什麼?
元學習 (Meta Learning) :機器不只要學習,還要「學習如何學習」。 |
課程要求 |
|
預期每週課後學習時數 |
|
Office Hours |
|
指定閱讀 |
|
參考書目 |
待補 |
評量方式 (僅供參考) |
|
|