人工神經網絡

人工神經網絡,或簡稱爲神經網絡,並不是一個新想法。 它已經存在了大約80年。

直到2011年,當深度神經網絡因使用新技術,龐大的數據集可用性和功能強大的計算機而變得流行時。

神經網絡模擬神經元,其具有樹突,核,軸突和末端軸突。
人工神經網絡

對於網絡,我們需要兩個神經元。 這些神經元通過突觸之間的突觸和另一個突觸軸突傳遞信息。
人工神經網絡

一個人造神經元的可能模型看起來像這樣 -
人工神經網絡

神經網絡將如下所示 -

人工神經網絡

圓是神經元或節點,它們在數據上的功能和連接它們的線/邊是傳遞的權重/信息。

每一列都是一個圖層。 數據的第一層是輸入層。 然後,輸入層和輸出層之間的所有層都是隱藏層。

如果有一個或幾個隱藏層,那麼有一個淺層的神經網絡。 如果有很多隱藏層,那麼有一個深層的神經網絡。

在這個模型中,有輸入數據,加權它,並通過神經元中被稱爲閾值函數或激活函數的函數傳遞它。

基本上,它是將所有值與某個值進行比較後的總和。 如果發射一個信號,那麼結果是(1),或者什麼都沒有被觸發,然後是(0)。 然後加權並傳遞給下一個神經元,並運行相同類型的函數。

我們可以有一個S形(S形)功能作爲激活功能。

至於權重,它們只是隨機開始的,而且它們對於節點/神經元的每個輸入都是唯一的。

在一個典型的「前饋」,最基本的神經網絡類型中,信息直接通過您創建的網絡,並將輸出與您希望輸出使用樣本數據的結果進行比較。

從這裏開始,需要調整權重以幫助您獲得符合要求的輸出的輸出。

直接通過神經網絡發送數據的行爲稱爲前饋神經網絡。

我們的數據依次從輸入到圖層,然後依次輸出到輸出。

當我們倒退並開始調整權重以最小化損失/成本時,這稱爲反向傳播。

這是一個優化問題。有了神經網絡,在實際操作中,我們必須處理成千上萬的變量,或數百萬甚至更多的變量。

第一個解決方案是使用隨機梯度下降作爲優化方法。現在,有AdaGrad,Adam Optimizer等選項。無論哪種方式,這是一個巨大的計算操作。這就是爲什麼神經網絡在半個多世紀內大部分被擱置在書架上的原因。直到最近,我們甚至已經在我們的機器中擁有能力和體系結構,甚至可以考慮執行這些操作,並且要匹配正確大小的數據集。

對於簡單的分類任務,神經網絡在性能上與其他簡單算法(如K最近鄰居)的性能相當接近。當我們有更大的數據和更復雜的問題時,神經網絡的實際效用就會實現,這兩個問題都超過了其他機器學習模型。

0 條評論,你可以發表評論,我們會進行改進
Comment author placeholder