《學習理論中基於核函式的正則化算法的研究》是依託濟南大學,由孫紅衛擔任項目負責人的面上項目。
基本介紹
- 中文名:學習理論中基於核函式的正則化算法的研究
- 項目類別:面上項目
- 項目負責人:孫紅衛
- 依託單位:濟南大學
《學習理論中基於核函式的正則化算法的研究》是依託濟南大學,由孫紅衛擔任項目負責人的面上項目。
《學習理論中基於核函式的正則化算法的研究》是依託濟南大學,由孫紅衛擔任項目負責人的面上項目。項目摘要正則化算法是統計學習理論的主要研究領域之一,本項目緊緊圍繞正則化算法的核心問題,開展如下三個方面的研究。(1)研究基於弱...
《基於核函式的正則化學習算法:逼近性及稀疏性研究》是依託復旦大學,由石磊擔任項目負責人的青年科學基金項目。項目摘要 學習理論開始於經典的統計學習理論和支持向量機的研究,其目的是藉助隨機樣本重構潛在的函式關係或者函式特徵,進而刻畫數據產生的機制或者數據的組織結構。基於核函式的正則化算法,因為良好的逼近性質...
利用具有不同尺度的核函式構造基函式,同時逼近目標函式的高頻和低頻成分,並估計算法的收斂性和收斂速度。(2)針對多任務學習,提出了和空間中的多任務學習算法。建立了描述多任務之間聯繫的理論刻畫,進而設計了多任務正則化學習算法。借鑑基於多任務的經驗風險最小化的思想,建立了更加廣泛的任務聯繫刻畫方法。在模型...
《基於核方法的故障診斷理論及其方法的研究》的主要內容是基於核的機器學習的理論和方法研究及其套用,正文中所提出的和改進的學習算法屬於基於核的機器學習範疇,且分別屬於監督學習和非監督學習。其中第3、4、5章為非監督學習的單值的支持向量機(SVR)內容;第2章及第6、7章為監督學習的基於最小風險的SVM系統部件...
展開了ELMs技術與其它機器學習技術的比較研究。研究了ELMs技術與LS-SVM以及PSVM的內在本質聯繫與區別;並在此基礎上分別改進並擴展了正則化ELM算法和基於核函式的ELM算法;提出了提高學習速度的FRCF-ELM算法。系統研究了ELMs技術的全局逼近能力和收斂性態。證明了LP空間上ELMs技術的全局逼近能力;揭示了線上學習的收斂性...
提出基於圖像分解的幾何驅動的衝擊擴散耦合方程模型;利用可調節雙曲正切函式和局部微分幾何性質自適應控制方程的行為;利用通量限制技術進行數值計算;論證數值計算格式的數值振盪和耗散效應,最大值原理以及解的行為特性.作為涉及信息與數學的交叉研究,本課題將深化並豐富變分和偏微分方程正則化方法,具有重要的理論和套用價值...
首先從最佳化的角度研究非凸的秩約束半定規劃問題及其凸近似模型,上分析不同的正則化方法、不同的低秩近似誤差及其導致的模型間接誤差;其次研究核學習和度量學習的統一半定規劃模型,揭示核學習的度量特徵,結合矩陣低秩近似,給出複雜度更低的快速算法;最後基於新的最佳化技術和核矩陣低秩分解,選擇合適的光滑函式,利用...
第4章介紹了線上協同正則化算法,該算法利用不同視圖內決策函式的一致性指導學習過程。採用hinge-loss函式和tolerance函式對基本的協同正則化問題重新進行了描述和定義,並介紹了該算法在各種實驗過程和結果。第5章介紹了線上半監督支持向量機算法,並通過實驗分析了該算法的適用範圍和優、缺點。第6章介紹了近年來半監督...
第1章 機器學習及其數學基礎 1.1 機器學習與人工智慧簡述 2 1.2 高等數學 4 1.3 線性代數 7 1.4 機率論與數理統計 14 1.5 Jensen不等式 25 1.6 本章小結 27 第2章 線性回歸 2.1 線性回歸模型 29 2.2 梯度下降算法 30 2.3 再看線性回歸 32 2.4 正則方程 34 2.5 機率解釋 35 2.6 ...
主要完成了:(1)針對相依關係數據,設計了隨機梯度學習算法和基於距離相似性正則化偏最小二乘算法。在分布滿足一定的假設條件下,對算法的收斂性進行了評估及對實際效果進行了驗證.(2)提出了和空間中的正則化學習算法,基於核函式,輸入空間,邊緣分布和回歸函式滿足一定條件下,建立了其學習誤差界. (3)針對...
4.1更多回歸模型函式形式 4.1.1雙對數模型以及生產函式 4.1.2倒數模型與菲利普斯曲線 4.1.3多項式回歸模型及其分析 4.2回歸模型的評估與選擇 4.2.1嵌套模型選擇 4.2.2赤池信息準則 4.3現代回歸方法的新進展 4.3.1多重共線性 4.3.2從嶺回歸到LASSO 4.3.3正則化與沒有免費午餐原理 4.3.4彈性網路...
3.5 正則化75 3.6 排序78 3.6.1 排序學習算法80 3.6.2 排序評價指標81 3.7 人工神經網路85 3.7.1 感知器85 3.7.2 人工神經網路的實現原理87 3.7.3 神經網路識別手寫體數字90 3.8 支持向量機92 3.8.1 核函式95 3.8.2 鬆弛變數97 3.8.3 通過SVM識別手寫體數字98 3.9 小結...
7.2.1BP神經網路原理 7.2.2BP神經網路的實現 7.3徑向基神經網路 7.3.1徑向基函式解決插值問題 7.3.2正則化理論 7.3.3正則化RBF網路 7.3.4廣義RBF網路 7.3.5數據中心的監督學習算法 7.4小結 7.5習題 第8章Python推薦算法 8.1協同過濾算法 8.1.1協同過濾算法概述 8.1.2協同過濾算法的分類 8....
3.1.4強化學習45 3.2模型評價指標46 3.2.1精度與召回率46 3.2.2ROC曲線46 3.2.3混淆矩陣48 3.2.4交叉驗證48 3.3模型選擇48 3.3.1過擬合與欠擬合48 3.3.2偏差與方差分解49 3.3.3正則化50 參考文獻52 第二部分主要的機器學習算法與理論 第4章貝葉斯分類器55 4.1貝葉斯決策55 4.2樸素貝葉斯...
13.4 核函式主成分分析 152 13.5 拉普拉斯特徵映射 155 第14章 聚類 158 14.1 K均值聚類 158 14.2 核K均值聚類 160 14.3 譜聚類 161 14.4 調整參數的自動選取 163 第V部分 新興機器學習算法 第15章 線上學習 170 15.1 被動攻擊學習 170 15.2 適應正則化學習 176 第16章 半監督...
3.3.2 學習邏輯代價函式的權重39 3.3.3 將Adaline實現轉換為一個邏輯回歸算法41 3.3.4 用scikit-learn訓練邏輯回歸模型44 3.3.5 通過正則化解決過擬合問題46 3.4 使用支持向量機最大化分類間隔48 3.4.1 對分類間隔最大化的直觀認識48 3.4.2 用鬆弛變數解決非線性可分問題50 ...
L1範數正則化( L1 regularization 或 lasso )是機器學習(machine learning)中重要的手段,在支持向量機(support vector machine)學習過程中,實際是一種對於成本函式(cost function)求解最優的過程,因此,L1範數正則化通過向成本函式中添加L1範數,使得學習得到的結果滿足稀疏化(sparsity),從而方便人們提取特徵。定...
8.1更多回歸模型函式形式 8.1.1雙對數模型以及生產函式 8.1.2倒數模型與菲利普斯曲線 8.1.3多項式回歸模型及其分析 8.2回歸模型的評估與選擇 8.2.1嵌套模型選擇 8.2.2赤池信息準則 8.3現代回歸方法的新進展 8.3.1多重共線性 8.3.2從嶺回歸到LASSO 8.3.3正則化與沒有免費午餐原理 8.3.4彈性網路...
.本項目以稀疏表示與多核學習方法為數學工具,以真實遠距離監控視頻和多類別數據為主要實驗對象,認真探討低解析度數據的視覺不變特徵生成原理,致力於研究具有群組效應的稀疏正則化方法、非一致核函式的局部保持匹配性能和大規模快速最佳化算法,提出實際有用的參數選擇方法,在非一致多核學習、目標求解和線上快速算法方面...
3.1 選擇分類算法 32 3.2 了解scikit-learn軟體庫的第一步—訓練感知器 32 3.3 基於邏輯回歸的分類機率建模 37 3.3.1 邏輯回歸的直覺與條件機率 37 3.3.2 學習邏輯代價函式的權重 39 3.3.3 把轉換的Adaline用於邏輯回歸算法 41 3.3.4 用scikit-learn訓練邏輯回歸模型 44 3.3.5 通過正則化...
第7章 網路最佳化與正則化157 7.1網路最佳化...157 7.1.1網路結構多樣性...158 7.1.2高維變數的非凸最佳化...158 7.1.3神經網路最佳化的改善方法...160 7.2最佳化算法...160 7.2.1小批量梯度下降...160 7.2.2批量大小選擇...161 7.
10.6.1 Boosting算法的基本原理194 10.6.2 Adaboost算法介紹195 10.6.3 Adaboost分類問題的損失函式最佳化197 10.6.4 Adaboost二元分類問題的算法流程198 10.6.5 Adaboost回歸問題的算法流程199 10.6.6 Adaboost算法的正則化200 10.6.7 Adaboost的優缺點200 10.7 Adaboost算法實現...
—從圖的角度,利用L1-範數圖刻畫EEG樣本的內在時間結構信息,並通過正則化共同空間模式的目標函式使得未標記樣本的時間關係儘量被保持,同時利用標記和未標記的樣本,提出半監督學習方案;研究共同空間模式的魯棒學習——在邊界最佳化的理論框架下設計疊代算法,解決基於L1-範數度量的商形式的目標函式求解問題,發展一類基於...
第12章凸學習問題93 12.1凸性、利普希茨性和光滑性93 12.1.1凸性93 12.1.2利普希茨性96 12.1.3光滑性97 12.2凸學習問題概述98 12.2.1凸學習問題的可學習性99 12.2.2凸利普希茨/光滑有界學習問題100 12.3替代損失函式101 12.4小結102 12.5文獻評註102 12.6練習102 第13章正則化和穩定性104 13...
1、學習理論中基於核函式的正則化算法的研究。主持國家自然科學基金(11071276/A011401), 2011.1-2013.12, 資助金額 28 萬元。2、機器核學習理論中的多核Tikhonov正則化問題. 主持山東省自然科學基金項目(Y2007A11),起止時間:2008.1年-2010.12年, 資助金額 5. 5萬元。3、學習理論中基於弱相關抽樣的誤差...
3.4.1 核函式上的運算 3.4.2 核矩陣上的運算 3.5 小結 3.6 進一步閱讀和高級主題 第4章 檢測穩定的模式 4.1 集中度不等式 4.2 容量和正則化:Rademacher理論 4.3 基於核的類的模式穩定性 4.4 一種實用的方法 4.5 小結 4.6 進一步閱讀和高級主題 第二部分 模式分析算法 第5章 特徵空間中的...
2.10.2串列算法的並行化 2.11歸納學習中的問題 第3章支持向量機 3.1統計學習問題 3.1.1經驗風險 3.1.2VC維 3.2學習過程的一致性 3.2.1學習過程一致性的經典定義 3.2.2學習理論的重要定理 3.2.3VC熵 3.3結構風險最小歸納原理 3.4支持向量機 3.4.1線性可分 3.4.2線性不可分 3.5核函式 ...
式中第一項包含學習樣本,是數據擬合項,表示模型的經驗風險(empirical risk);式中第二項僅與回歸模型有關,回歸模型的核矩陣越複雜其取值越高,表示模型的結構風險(structural risk),因此按統計學習理論,GPR是一個包含正則化的求解系統,但二者的比例,即殘差的方差由MLE給出。求解GPR似然極大值等價於求解負...
基礎研究內容是構造核函式有弱奇性的積分運算元的高精度離散公式、矩陣-向量快速相乘新算法和新的罰函式。這些基礎研究內容有很好的可移植性,預期成果可以推廣套用於有弱奇異核的積分方程和一些類型的不適定問題。我們計畫把Robin反問題轉化為極小化問題,並根據Robin係數的光滑性質提出不同的罰函式,得到不同的正則化...
這些核學習算法在兩個重要領域——自適應濾波 和神經網路之 間構建了一個緊密橋樑,並且將誤差修正學習和記憶 學習兩大重要方 法學完美地集於一身。將RKHS方法套用於非線性濾波 設計的瓶頸在 於如何正則化、選擇合適的核函式以及如何對濾波器 生長過程進行削 減。本書將採用嚴格的數學推導形式,指出這些問題 ,同時...