登入帳戶  | 訂單查詢  | 購物車/收銀台(0) | 在線留言板  | 付款方式  | 聯絡我們  | 運費計算  | 幫助中心 |  加入書簽
會員登入   新用戶註冊
HOME新書上架暢銷書架好書推介特價區會員書架精選月讀2024年度TOP分類閱讀雜誌 香港/國際用戶
最新/最熱/最齊全的簡體書網 品種:超過100萬種書,正品正价,放心網購,悭钱省心 送貨:速遞 / 物流,時效:出貨後2-4日

2025年08月出版新書

2025年07月出版新書

2025年06月出版新書

2025年05月出版新書

2025年04月出版新書

2025年03月出版新書

2025年02月出版新書

2025年01月出版新書

2024年12月出版新書

2024年11月出版新書

2024年10月出版新書

2024年09月出版新書

2024年08月出版新書

2024年07月出版新書

『簡體書』神经网络理论及应用(英文版)

書城自編碼: 4124367
分類: 簡體書→大陸圖書→計算機/網絡人工智能
作者: 范钦伟
國際書號(ISBN): 9787030778574
出版社: 科学出版社
出版日期: 2025-06-01

頁數/字數: /
書度/開本: 16开 釘裝: 平装

售價:NT$ 1010

我要買

share:

** 我創建的書架 **
未登入.



新書推薦:
近代中国政府与政治
《 近代中国政府与政治 》

售價:NT$ 551.0
索恩丛书·蛮族之王:狄奥多里克与罗马帝国的黄昏
《 索恩丛书·蛮族之王:狄奥多里克与罗马帝国的黄昏 》

售價:NT$ 811.0
世界银行营商环境成熟度方法论手册 2025年修订版 官方指导手册
《 世界银行营商环境成熟度方法论手册 2025年修订版 官方指导手册 》

售價:NT$ 1520.0
人形机器人:产业变革商业机遇与未来趋势
《 人形机器人:产业变革商业机遇与未来趋势 》

售價:NT$ 449.0
没有人能让我不快乐
《 没有人能让我不快乐 》

售價:NT$ 214.0
汉匈战争三百年
《 汉匈战争三百年 》

售價:NT$ 454.0
成为作家:提升创造力、自律性、谦逊和毅力的专业指南(写作不是天赋,作家可以培养,人人都可以实现自己的作家梦)
《 成为作家:提升创造力、自律性、谦逊和毅力的专业指南(写作不是天赋,作家可以培养,人人都可以实现自己的作家梦) 》

售價:NT$ 301.0
中国中世西北民族关系研究
《 中国中世西北民族关系研究 》

售價:NT$ 602.0

內容簡介:
《Theory and Application of Neural Networks(神经网络理论及应用)》阐述了基于群组及Lp正则项稀疏神经元反应的多种神经网络建模的思想,介绍了以大脑神经元反应能耗为约束的多目标稀疏优化模型,并针对传统前馈神经网络、Pi-Sigma神经网络,Sigma-Pi-Sigma 神经网络、递归神经网络、岭多项式神经网络、Elman 神经网络等给出了相关的稀疏优化方案,并针对每种具体的神经网络模型给出权值的有界性、算法的强、弱收敛性分析,同时通过大量的回归、分类实例验证了算法理论的正确性及算法的有效性。
目錄
Contents“博士后文库”序言Preface Chapter 1 Batch gradient method with smoothing L1/2 regularization for training of feedforward neural network 1 1.1 Introduction 1 1.2 Batch gradient method with smoothing L1/2 regularization 3 1.2.1 Batch gradient method with L1/2 regularization 3 1.2.2 Smoothing L1/2 regularization 5 1.3 Convergence results 6 1.4 Numerical examples 7 1.4.1 XOR problem and Parity problem 7 1.4.2 Sonar problem 10 1.5 Conclusions 10 1.6 Appendix 11 Chapter 2 Convergence of online gradient method for feedforward neural network with smoothing L1/2 regularization penalty 17 2.1 Introduction 17 2.2 Algorithm description 19 2.2.1 Online gradient method with L2 regularization 20 2.2.2 Online gradient method with L1/2 regularization 21 2.2.3 Online gradient method with smoothing L1/2 regularization 22 2.3 Convergence results 24 2.4 Numerical examples 24 2.4.1 Example 1: Parity problem 24 2.4.2 Example 2: function regression problem 26 2.5 Conclusions 28 2.6 Appendix 28Chapter 3 Deterministic convergence analysis via smoothing group lasso regularization and adaptive momentum for Sigma-Pi-Sigma neural network 41 3.1 Introduction 41 3.2 Network structure and learning algorithm 44 3.2.1 Batch gradient algorithm with group lasso regularization and adaptive momentum 44 3.2.2 Batch gradient algorithm with smoothing group lasso regularization and adaptive momentum 47 3.3 Convergence results 48 3.4 Simulation results 49 3.4.1 Function approximation problems 49 3.4.2 K-dimensional Parity problem 52 3.4.3 Classification problems 54 3.5 Conclusions 56 3.6 Appendix 56 Chapter 4 Convergence analysis for Sigma-Pi-Sigma neural network based on some relaxed conditions 70 4.1 Introduction 70 4.2 Sigma-Pi-Sigma neural network and batch gradient algorithm 73 4.2.1 Sigma-Pi-Sigma neural network 73 4.2.2 Batch gradient algorithm for Sigma-Pi-Sigma neural network with regularization 74 4.3 Main results 75 4.4 Simulation results 77 4.4.1 Function approximation problems 77 4.4.2 Parity problems 79 4.4.3 Classification problems 79 4.5 Conclusions 82 4.6 Appendix 82 Chapter 5 Recurrent neural networks with smoothing regularization for regression and multiclass classification problems 95 5.1 Introduction 95 5.2 The model structure of RNN97 5.3 Gradient learning method in RNN with smoothing L1/2 regularization 100 5.4 Numerical simulations 103 5.4.1 XOR problems 103 5.4.2 Function approximation problems 104 5.4.3 Classification problems 1055.5 Conclusions 107 Chapter 6 Weak and strong convergence analysis of Elman neural network via weight decay regularization.108 6.1 Introduction 108 6.2 Algorithm description 110 6.2.1 Batch gradient algorithm for Elman neural network 112 6.2.2 Batch gradient algorithm for Elman neural network with L2 regularization.113 6.2.3 Introduction of related definitions 114 6.3 Convergence results 115 6.4 Numerical examples.116 6.4.1 Function approximation 117 6.4.2 Real-word classification 118 6.4.3 XOR with two-cycle delay problem 120 6.5 Conclusions 122 6.6 Appendix 122 Chapter 7 Convergence of a gradient-based learning algorithm with penalty for ridge polynomial neural network 131 7.1 Introduction 131 7.2 Network structure description 133 7.2.1 Pi-Sigma neural network 133 7.2.2 Ridge polynomial neural network 134 7.3 Batch gradient learning algorithm for RPNN135 7.3.1 The original group lasso regularization algorithm 135 7.3.2 The smoothing group lasso regularization algorithm 137 7.4 Theorems of monotonicity and convergence 138 7.5 Numerical examples 139 7.5.1 Example 1: function approximation problem 139 7.5.2 Example 2: Parity problem 141 7.6 Conclusions 143 7.7 Appendix 143 Chapter 8 Regression and multiclass classification using sparse extreme learning machine via smoothing group L1/2 regularizer 152 8.1 Introduction 152 8.2 The preliminary ELM.154 8.3 Algorithm description 156 8.3.1 Group L1/2 ELM for hidden nodes and output weights 156 8.3.2 Smoothing group L1/2 ELM for hidden nodes and output weights 157 8.4 Experimental results 1598.4.1 Experimental setup 159 8.4.2 Benchmarking with regression problems 161 8.4.3 Benchmarking with classification problems 166 8.5 Conclusions 168 Chapter 9 Smooth L0 regularization for extreme learning machine 170 9.1 Introduction 170 9.2 Extreme learning machine 172 9.3 Extreme learning machine with L0 regularization 174 9.4 Description of sparsity 175 9.5 Simulation results 177 9.5.1 Function regression problems 177 9.5.2 Real-word classification problems 181 9.6 Conclusions 183 Chapter 10 A hybrid model of extreme learning machine based on bat a

 

 

書城介紹  | 合作申請 | 索要書目  | 新手入門 | 聯絡方式  | 幫助中心 | 找書說明  | 送貨方式 | 付款方式 台灣用户 | 香港/海外用户
megBook.com.tw
Copyright (C) 2013 - 2025 (香港)大書城有限公司 All Rights Reserved.