後面幾個章節主要是要透過RNN, LSTM套用上去實際數據的展示, 甚至還用上了Conv1D
整個概念等於是融合先前所學, 但是麻煩的是有很多新的API要學
所以學習上也是感到很困難, 還是一樣建立model並不難, 難的是data預處理的部分
後續可能會整理常用的API
因為RNN是三維的, 第一維是batch size, 第二維是time steps(也就是window size), 第三維是每個時間點的data size,
LSTM預設是輸出最後一個結果, 如果後面還要接LSTM或RNN, 需要打開下面這個arg
return_sequences = True
利用下面找出最好的learning rate
lr_schedule = tf.keras.callbacks.LearningRateScheduler(lambda epoch: 1e-8 * 10**(epoch / 20))
針對調整model的方式
- 找出最佳的learning rate
- 看loss function是否停止減緩
- 如果loss開始上升, 就要使用避免overfitting的方法
- batch size不同會有影響 (當看到震盪很大的時候要調整)
- 太大或太小的window size都會使time series model變差, 要找到剛剛好
後面一樣沒有強迫習題, 但題目因為不熟悉的關係也變得比較難寫
下一篇開始會開始練習常用的Tensorflow API
以及考慮是否修andrew wang的課
藉機練習一下這些API
不過應該還是會先看看Udacity的機器學習課程