摘要:類函數(shù)凸函數(shù)凹函數(shù)其他類別函數(shù)函數(shù)性質(zhì)凸函數(shù)凸函數(shù)的任何極小值也是最小值。嚴格凸函數(shù)最多有一個最小值。凹函數(shù)凹函數(shù)的任何極大值也是最大值。
3類函數(shù)
凸函數(shù)
凹函數(shù)
其他類別函數(shù)
凸函數(shù):凸函數(shù)的任何極小值也是最小值。嚴格凸函數(shù)最多有一個最小值。
凹函數(shù):凹函數(shù)的任何極大值也是最大值。嚴格凹函數(shù)最多有一個最大值。
非凹凸函數(shù):有多個極大極小值,只有局部最優(yōu)解
機器學習的任務(wù)可以理解成下圖:從一堆輸入,經(jīng)過處理,得到想要的輸出
這個機器學習任務(wù)流程,可以抽象成函數(shù):y=f(x),x為輸入,y為理想的輸出
于是乎,機器學習就可以看作是求函數(shù)y=f(x)的最優(yōu)解了
所謂的損失函數(shù),就是用來衡量預(yù)測值和實際值之間的誤差
我們的目標就是,找到使損失函數(shù)達到最小值時候的參數(shù)
判斷機器學習是否執(zhí)行得好,有以下2個目標:
-- 使訓練錯誤率盡可能低(可以通過神經(jīng)網(wǎng)絡(luò),函數(shù)逼近的方法)
-- 使訓練錯誤率與測試錯誤率的差距盡可能?。梢杂谜齽t化的方法)
欠擬合:訓練錯誤率比較高
過擬合:測試錯誤率與訓練錯誤率差距比較大
我們的目標是,找到使損失函數(shù)達到最小值時候的參數(shù)
此時,我們可以對損失函數(shù)進行求導(導數(shù)也成為梯度),尋找極值,常用的方法有:隨機梯度下降(SGD)
訓練就是不斷尋找使損失函數(shù)達到最小值時候的參數(shù)的過程,因為一般的函數(shù)具有多個局部最優(yōu)解
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請注明本文地址:http://www.ezyhdfw.cn/yun/44548.html
摘要:類函數(shù)凸函數(shù)凹函數(shù)其他類別函數(shù)函數(shù)性質(zhì)凸函數(shù)凸函數(shù)的任何極小值也是最小值。嚴格凸函數(shù)最多有一個最小值。凹函數(shù)凹函數(shù)的任何極大值也是最大值。 3類函數(shù) 凸函數(shù) showImg(https://segmentfault.com/img/remote/1460000013389230?w=650&h=400); 凹函數(shù) showImg(https://segmentfault.com/img...
摘要:引用格式王坤峰,茍超,段艷杰,林懿倫,鄭心湖,王飛躍生成對抗網(wǎng)絡(luò)的研究與展望自動化學報,論文作者王坤峰,茍超,段艷杰,林懿倫,鄭心湖,王飛躍摘要生成式對抗網(wǎng)絡(luò)目前已經(jīng)成為人工智能學界一個熱門的研究方向。本文概括了的研究進展并進行展望。 3月27日的新智元 2017 年技術(shù)峰會上,王飛躍教授作為特邀嘉賓將參加本次峰會的 Panel 環(huán)節(jié),就如何看待中國 AI學術(shù)界論文數(shù)量多,但大師級人物少的現(xiàn)...
摘要:機器學習算法類型從廣義上講,有種類型的機器學習算法。強化學習的例子馬爾可夫決策過程常用機器學習算法列表以下是常用機器學習算法的列表。我提供了對各種機器學習算法的高級理解以及運行它們的代碼。決策樹是一種監(jiān)督學習算法,主要用于分類問題。 showImg(https://segmentfault.com/img/remote/1460000019086462); 介紹 谷歌的自動駕駛汽車和機...
閱讀 2556·2021-11-22 15:35
閱讀 3829·2021-11-04 16:14
閱讀 2772·2021-10-20 13:47
閱讀 2587·2021-10-13 09:49
閱讀 2137·2019-08-30 14:09
閱讀 2499·2019-08-26 13:49
閱讀 948·2019-08-26 10:45
閱讀 2841·2019-08-23 17:54