梯度下降是疊代法的一種,可以用於求解最小二乘問題(線性和非線性都可以)。在求解機器學習算法的模型參數,即無約束最佳化問題時,梯度下降(Gradient Descent)是最常採用的方法之一,另一種常用的方法是最小二乘法。在求解損失函式的最小值時,可以通過梯度下降法來一步步的疊代求解,得到最小化的損失函式和模型參數值。反過來,如果我們需要求解損失函式的最大值,這時就需要用梯度上升法來疊代了。在機器學習中,基於基本的梯度下降法發展了兩種梯度下降方法,分別為隨機梯度下降法和批量梯度下降法。
基本介紹
簡介
求解過程
![](/img/f/e95/a2a963d7b60fd182cd397f2cf6c3.jpg)
![](/img/d/917/c9799c913cb7d88063b1a0af7a17.jpg)
![](/img/e/4fa/a962389a222afeb4227b99754a59.jpg)
套用
![](/img/4/fc5/738d15973034c197ec95d5361841.jpg)
![](/img/5/638/f15f827142f7691bc75fb30c07c3.jpg)
![](/img/9/d44/61ca3321e3bcb32e7557cc926fbf.jpg)
![](/img/9/6bd/7fa04e7418df618f84241852ef86.jpg)
![](/img/5/8d5/a2e3d01c570aafa5486c303a1ad3.jpg)
![](/img/e/e5b/cdfbdbd4d26efb6e4c89dfaa5681.jpg)
![](/img/8/297/81eb117d3a3f849d79711bdca9ad.jpg)
![](/img/8/297/81eb117d3a3f849d79711bdca9ad.jpg)
![](/img/8/297/81eb117d3a3f849d79711bdca9ad.jpg)
![](/img/2/22c/1aef7c70e83dcda66e6c5b800b10.jpg)
![](/img/2/22c/1aef7c70e83dcda66e6c5b800b10.jpg)
![](/img/8/297/81eb117d3a3f849d79711bdca9ad.jpg)
![](/img/2/22c/1aef7c70e83dcda66e6c5b800b10.jpg)
%% 最速下降法圖示% 設定步長為0.1,f_change為改變前後的y值變化,僅設定了一個退出條件。syms x;f=x^2;step=0.1;x=2;k=0; %設定步長,初始值,疊代記錄數f_change=x^2; %初始化差值f_current=x^2; %計算當前函式值ezplot(@(x,f)f-x.^2) %畫出函式圖像axis([-2,2,-0.2,3]) %固定坐標軸hold onwhile f_change>0.000000001 %設定條件,兩次計算的值之差小於某個數,跳出循環 x=x-step*2*x; %-2*x為梯度反方向,step為步長,!最速下降法! f_change = f_current - x^2; %計算兩次函式值之差 f_current = x^2 ; %重新計算當前的函式值 plot(x,f_current,'ro','markersize',7) %標記當前的位置 drawnow;pause(0.2); k=k+1;endhold offfprintf('在疊代%d次後找到函式最小值為%e,對應的x值為%e\n',k,x^2,x)
![](/img/1/e6c/e6368c5d925b3d3f1178a91fb0f4.jpg)
![](/img/2/eb5/046a24d63a19f6ebdf2425616b3d.jpg)
![](/img/6/b09/3d0df3cf571412cffbb7136b94ac.jpg)
![](/img/d/6fc/d35c12bf8a826558fe9c1cf1f91a.jpg)
![圖1 圖1](/img/5/b36/nBnauMmY3AjZhJWNyAjM4AjZ1cTMmZTYkR2MjNDNxQWN5gzYzMTOkdTYzQzLtVGdp9yYpB3LltWahJ2Lt92YuUHZpFmYuMmczdWbp9yL6MHc0RHa.jpg)
缺點
- 靠近極小值時收斂速度減慢。
- 直線搜尋時可能會產生一些問題。
- 可能會“之字形”地下降。