作者簡介
涌井 貞美(Wakui Sadami)
1952年出生於東京。東京大學理學系研究科碩士畢業,曾任職於富士通,擔任過神奈川縣立高等學校教師,後來成為獨立科學作家。因其解說的文章詳細、易懂而廣受好評。
著作包括《まずはこの一冊から 意味がわかる統計解析》(べレ出版)、《図解・ベイズ統計「超」入門》(SBクリエイティブ)、《統計学の図鑑》、《深度學習的數學:用數學開啟深度學習的大門》(博碩)、《大人的理科教室:構成物理.化學基礎的70項定律》(台灣東販)等。
第1章 活躍中的深度學習
開啟AI時代的深度學習
深度學習與AI
機器學習與深度學習
深度學習的本質與特徵抽出
監督學習與非監督學習
圖像解析與深度學習
語音識別與深度學習
與Big Data十分契合的深度學習
撐起第四次工業革命的深度學習
第2章 用圖說明深度學習的機制
從神經元開始談起
用神經元機器人來說明
將神經元機器人排成一層層
神經網路產生智慧的機制
神經網路的「學習」是什麼意思
用圖說明什麼是卷積神經網路
用圖說明什麼是遞迴神經網路
第3章 說明深度學習之前的準備
Sigmoid函數
資料分析時的模型與參數
理論與實際的誤差
第4章 了解什麼是神經網路
以數學式表示神經元的運作方式
單元與活化函數
Sigmoid神經元
神經網路的實例
神經網路各層的運作方式與變數符號
神經網路的目標函數
神經網路的「學習」
對神經網路「學習」結果的解釋
第5章 了解卷積神經網路的機制
卷積神經網路的準備
卷積神經網路的輸入層
卷積神經網路的卷積層
卷積神經網路的池化層
卷積神經網路的輸出層
卷積神經網路的目標函數
卷積神經網路的「學習」
對卷積神經網路「學習」結果的解釋
測試卷積神經網路
第6章 了解遞迴神經網路的機制
遞迴神經網路的概念
遞迴神經網路的展開圖
遞迴神經網路中各層的運作機制
用數學式表示遞迴神經網路
遞迴神經網路的目標函數
遞迴神經網路的「學習」
第7章 了解誤差反向傳播法的機制
誤差反向傳播法是最佳化計算的基礎
誤差反向轉播法(Backpropagation法)的機制
用Excel體驗誤差反向傳播法
用Python體驗誤差反向傳播法
附錄
本書使用的訓練資料(Ⅰ)
本書使用的訓練資料(Ⅱ)
VBA的使用方式
新增規劃求解功能
在Windows 10使用命令提示字元的方法
Python安裝方法
微分的基礎知識
多變數函數的近似公式與梯度
卷積在數學上的意義
單元的誤差與梯度的關係
單元的誤差與各層間的關係
索引