#深度學習 #類神經網路 歷史 #類神經網路 簡介 #類神經網路 應用
人工智慧最早出現於1950年代。人工智慧的目標是希望能讓電腦像人一班思考與學習。被視為人工智慧之父的圖靈(Alan Mathison Turing),提出了有名的圖靈測試:人類與機器對話,如果人類無法根據這些對話過程判斷對方是人或機器,即通過測試,認為這台電腦具有人工智慧。
隨著AI的發展日益茁壯,1980年代(Jhon Searle),提出了對人工智慧的分類方式:
強人工智慧(Strong AI) : 機器與人具有完整的認知能力。
弱人工智慧(Weak AI) : 機器設計看起來具有智慧即可。
而深度學習是人工智慧中,現今成長最快的領域,隨著電腦的普及以及其CPU、GPU運算能力增強,我們可以透過世界上各個資料庫收集大量資料,將資料整理成類神經網路的格式,藉由模擬人類神經網路的運作方式,加上數學的演算法進行更新參數,就可以讓電腦學習分辨日常生活的事物,常見的深度學習架構,如多層感知器MLP、深度神經網路DNN、卷積神經網路CNN、遞迴神經網路RNN。
而這些深度學習的架構應用在視覺辨識、語音辨識、自然語言處理、生物醫學等領域,皆有非常好的效果。
人工智慧現在已廣泛運用在我們的日常生活之中,像是手寫辨識、圖像辨識、語音辨識,幾乎都存在於人手一台的手機之中,還有更進一步的運用,如自動駕駛,透過硬體上的更新,我們可以裝設感測器感應車子周圍的環境狀況,加上圖像辨識,並整合成資訊讓電腦判斷是否停車或繼續行駛,透過演算法讓電腦知道該如何做決定,到最後將會實現在市區行駛之中,隨著科技越來越進步,深度學習所應用的領域就越來越廣。
[維基百科]
類神經網路簡稱(英語:Artificial Neural Network,ANN),簡稱神經網路(Neural Network,NN)或類神經網路,在機器學習和認知科學領域,是一種模仿生物神經網路(動物的中樞神經系統,特別是大腦)的結構和功能的數學模型或計算模型,用於對函式進行估計或近似。神經網路由大量的人工神經元聯結進行計算。大多數情況下人工神經網路能在外界資訊的基礎上改變內部結構,是一種自適應系統,通俗的講就是具備學習功能。
現代神經網路是一種非線性統計性資料建模工具。典型的神經網路具有以下三個部分:
結構(Architecture)
結構指定了網路中的變數和它們的拓撲關係。
例如:神經網路中的變數可以是神經元連接的權重(weights)和神經元的激勵值(activities of the neurons)。
激勵函式(Activity Rule)
大部分神經網路模型具有一個短時間尺度的動力學規則,來定義神經元如何根據其他神經元的活動來改變自己的激勵值。一般激勵函式依賴於網路中的權重(即該網路的參數)。
學習規則(Learning Rule)
學習規則指定了網路中的權重如何隨著時間推進而調整。
上圖為一個簡單的多層感知器,簡單來說,輸入資料後,經過一層隱藏層神經元後,得到一個預測值,這就是一個類神經網路的模型了,我們可以利用這個模型計算簡單線性迴歸的線性方程式,藉由反向傳播法更新權重及參數讓線性方程式去配飾這些資料,在由此線性方程式去預測數值。
應用
手寫辨識
利用Python下tensorflow模組中的MNIST資料,收集了數萬筆掃描過的圖檔及標籤,我們可以利用各種類神經網路模型建立分類器模型,依據模型的特性加以訓練,並可將訓練過的模型儲存,用來預測手寫板上的數字。
圖像辨識
現今電腦辨識一般的圖片已經等同於人類的辨識率,甚至在反應的速度上會超過人類,但在動態影像的辨識度還有加強的空間,透過各種演算法的測試與改進,最終將會應用在自動駕駛等應用上。
自然語言處理
自然語言(Nature Language Processing, NLP),是讓電腦學習理解人類所說的話語與文字,透過分析詞性,計算其詞向量等等,並運用樸素貝氏分類器將句子分類,來分析日常對話的含意,其產出有現在熱門的聊天機器人及FB所提供的(Facebook Messenger Platform)和line所推出的(Messaging API)。
AI與大數據的應用只會越來越深、越來越廣、越來越快,只要對人工智慧有興趣的讀者,敬請鎖定 AI . Free Team!我們將持續提供最新、最完整的AI學習資源!