<html>
 <head>
  <meta charset="utf-8"/>
  <meta content="width=device-width, initial-scale=1, maximum-scale=1, user-scalable=no" name="viewport"/>
  <title>
   主题：关于学习理论的一些参考文献zz  | 数螺 | NAUT IDEA
  </title>
  <link href="http://cdn.bootcss.com/bootstrap/3.3.6/css/bootstrap-theme.min.css" rel="stylesheet"/>
  <link href="http://cdn.bootcss.com/bootstrap/3.3.6/css/bootstrap.min.css" rel="stylesheet"/>
  <style type="text/css">
   #xmain img {
                  max-width: 100%;
                  display: block;
                  margin-top: 10px;
                  margin-bottom: 10px;
                }

                #xmain p {
                    line-height:150%;
                    font-size: 16px;
                    margin-top: 20px;
                }

                #xmain h2 {
                    font-size: 24px;
                }

                #xmain h3 {
                    font-size: 20px;
                }

                #xmain h4 {
                    font-size: 18px;
                }


                .header {
	           background-color: #0099ff;
	           color: #ffffff;
	           margin-bottom: 20px;
	        }

	        .header p {
                  margin: 0px;
                  padding: 10px 0;
                  display: inline-block;  
                  vertical-align: middle;
                  font-size: 16px;
               }

               .header a {
                 color: white;
               }

              .header img {
                 height: 25px;
              }
  </style>
  <script src="http://cdn.bootcss.com/jquery/3.0.0/jquery.min.js">
  </script>
  <script src="http://cdn.mathjax.org/mathjax/latest/MathJax.js?config=TeX-AMS-MML_HTMLorMML" type="text/javascript">
   MathJax.Hub.Config({elements: ["bbpress-forums"]});
  </script>
  <script src="http://nautstatic-10007657.file.myqcloud.com/static/css/readability.min.js" type="text/javascript">
  </script>
  <script type="text/javascript">
   $(document).ready(function() {
                 var loc = document.location;
                 var uri = {
                  spec: "http://cos.name/cn/topic/9706/",
                  host: "http://cos.name",
                  prePath: "http://cos.name",
                  scheme: "http",
                  pathBase: "http://cos.name/"
                 };
    
                 var documentClone = document.cloneNode(true);
                 var article = new Readability(uri, documentClone).parse();
     
                 document.getElementById("xmain").innerHTML = article.content;
                });
  </script>
  <!-- 1466460291: Accept with keywords: (title(0.0):理论,主题,参考文献,论坛, topn(0.266666666667):物理学家,接下来,帖子,统计学,神经网络,空间,乘子,用户名,理论,技术,参考文献,讲座,热点,向量,函数,好书,篇文章,读物,误差,相互关系,部分,主题,方法,正则,课程,内容,论坛,最小化,观点,讨论区).-->
 </head>
 <body class="topic bbpress single single-topic postid-9706 single-author sidebar" onload="">
  <div class="header">
   <div class="container">
    <div class="row">
     <div class="col-xs-6 col-sm-6 text-left">
      <a href="/databee">
       <img src="http://nautidea-10007657.cos.myqcloud.com/logo_white.png"/>
      </a>
      <a href="/databee">
       <p>
        数螺
       </p>
      </a>
     </div>
     <div class="hidden-xs col-sm-6 text-right">
      <p>
       致力于数据科学的推广和知识传播
      </p>
     </div>
    </div>
   </div>
  </div>
  <div class="container text-center">
   <h1>
    主题：关于学习理论的一些参考文献zz
   </h1>
  </div>
  <div class="container" id="xmain">
   <div class="hfeed site" id="page">
    <header class="site-header" id="masthead" role="banner">
     <div id="cos-logo">
      <a href="http://cos.name/cn">
       <img src="http://cos.name/cn/wp-content/themes/COS-forest/images/headers/cos-logo.png"/>
      </a>
     </div>
     <div class="navbar" id="navbar">
      <nav class="navigation main-navigation" id="site-navigation" role="navigation">
       <h3 class="menu-toggle">
        菜单
       </h3>
       <div class="menu-%e8%8f%9c%e5%8d%951-container">
        <ul class="nav-menu" id="menu-%e8%8f%9c%e5%8d%951">
         <li class="menu-item menu-item-type-custom menu-item-object-custom menu-item-home menu-item-407772" id="menu-item-407772">
          <a href="http://cos.name/cn/">
           论坛首页
          </a>
         </li>
         <li class="menu-item menu-item-type-custom menu-item-object-custom menu-item-407773" id="menu-item-407773">
          <a href="http://cos.name/cn/forums/">
           讨论区
          </a>
         </li>
         <li class="menu-item menu-item-type-custom menu-item-object-custom menu-item-407774" id="menu-item-407774">
          <a href="http://cos.name/cn/wp-login.php?action=register">
           注册
          </a>
         </li>
         <li class="menu-item menu-item-type-custom menu-item-object-custom menu-item-407819" id="menu-item-407819">
          <a href="http://cos.name/">
           主站
          </a>
         </li>
        </ul>
       </div>
      </nav>
      <!-- #site-navigation -->
     </div>
     <!-- #navbar -->
    </header>
    <!-- #masthead -->
    <div class="site-main" id="main">
     <div class="content-area" id="primary">
      <div class="site-content" id="content" role="main">
       <article class="post-9706 topic type-topic status-publish hentry" id="post-9706">
        <header class="entry-header">
         <h1 class="entry-title">
          关于学习理论的一些参考文献zz
         </h1>
        </header>
        <!-- .entry-header -->
        <div class="entry-content">
         <div id="bbpress-forums">
          <div class="bbp-breadcrumb">
           <p>
            <a class="bbp-breadcrumb-home" href="http://cos.name/cn/">
             COS论坛 | 统计之都
            </a>
            <span class="bbp-breadcrumb-sep">
             ›
            </span>
            <a class="bbp-breadcrumb-root" href="http://cos.name/cn/forums/">
             讨论区
            </a>
            <span class="bbp-breadcrumb-sep">
             ›
            </span>
            <a class="bbp-breadcrumb-forum" href="http://cos.name/cn/forum/stat-world/">
             统计学世界
            </a>
            <span class="bbp-breadcrumb-sep">
             ›
            </span>
            <a class="bbp-breadcrumb-forum" href="http://cos.name/cn/forum/stat-world/dmml/">
             数据挖掘和机器学习
            </a>
            <span class="bbp-breadcrumb-sep">
             ›
            </span>
            <span class="bbp-breadcrumb-current">
             关于学习理论的一些参考文献zz
            </span>
           </p>
          </div>
          <div class="bbp-template-notice info">
           <p class="bbp-topic-description">
            该主题包含 1 条回复，2个帖子，最后由
            <a class="bbp-author-avatar" href="http://cos.name/cn/profile/53609/" rel="nofollow" title="查看javier的档案">
             <img src="http://sdn.geekzu.org/avatar/3d3983c752158b74911f590241b9f4a9?s=14&amp;d=monsterid&amp;r=g"/>
            </a>
            <a class="bbp-author-name" href="http://cos.name/cn/profile/53609/" rel="nofollow" title="查看javier的档案">
             javier
            </a>
            在
            <a href="http://cos.name/cn/topic/9706/#post-243968" title="回复：关于学习理论的一些参考文献zz">
             8 年, 3 月 之前
            </a>
            更新。
           </p>
          </div>
          <div class="bbp-pagination">
           <div class="bbp-pagination-count">
            查看 2 个帖子 - 1 到 2（总计 2 个）
           </div>
           <div class="bbp-pagination-links">
           </div>
          </div>
          <ul class="forums bbp-replies" id="topic-9706-replies">
           <li class="bbp-header">
            <div class="bbp-reply-author">
             作者
            </div>
            <!-- .bbp-reply-author -->
            <div class="bbp-reply-content">
             帖子
            </div>
            <!-- .bbp-reply-content -->
           </li>
           <!-- .bbp-header -->
           <li class="bbp-body">
            <div class="bbp-reply-header" id="post-9706">
             <div class="bbp-meta">
              <span class="bbp-reply-post-date">
               2008年2月22日 下午8:48
              </span>
              <a class="bbp-reply-permalink" href="http://cos.name/cn/topic/9706/#post-9706">
               1 楼
              </a>
              <span class="bbp-admin-links">
              </span>
             </div>
             <!-- .bbp-meta -->
            </div>
            <!-- #post-9706 -->
            <div class="odd bbp-parent-forum-1006 bbp-parent-topic-9706 bbp-reply-position-1 user-id-7391 topic-author post-9706 topic type-topic status-publish hentry">
             <div class="bbp-reply-author">
              <a class="bbp-author-avatar" href="http://cos.name/cn/profile/7391/" rel="nofollow" title="查看redlou的档案">
               <img src="http://sdn.geekzu.org/avatar/48bbfc96d2475268ba6b67f532d69777?s=80&amp;d=monsterid&amp;r=g"/>
              </a>
              <br/>
              <a class="bbp-author-name" href="http://cos.name/cn/profile/7391/" rel="nofollow" title="查看redlou的档案">
               redlou
              </a>
              <br/>
              <div class="bbp-author-role">
               普通会员
              </div>
             </div>
             <!-- .bbp-reply-author -->
             <div class="bbp-reply-content">
              <p>
               透视学习问题
              </p>
              <p>
               Bertero, M., T. Poggio, and V. Torre. "Ill-posed Problems in Early Vision." Proc. of the IEEE 76 (1988): 869-889.
              </p>
              <p>
               虽然局限于初期视觉，但该文包含了关于病态问题和正则化方法的易读的介绍性内容。
               <br/>
               Girosi, F., M. Jones, and T. Poggio. "Regularization Theory and Neural Network Architectures." Neural Computation 7 (1995): 219-269.
              </p>
              <p>
               关于学习理论和正则化理论相互关系的一个详尽介绍。在本讲和接下来的讲座中，我们会经常提到这篇文章。
              </p>
              <p>
               Vapnik, V. The Nature of Statistical Learning Theory. Springer, 1995.
              </p>
              <p>
               第一章是关于统计学习理论的易读的、直接的介绍。
              </p>
              <p>
               进一步参考读物：
              </p>
              <p>
               Bertero, M. "Regularization Methods for Linear Inverse Problems." In Inverse Problems. Edited by G. Talenti. Lecture Notes in Mathematics. Vol. 1225. 1986, pp. 52-112.
              </p>
              <p>
               这是一篇很好的综述。
              </p>
              <p>
               Tikhonov, A. N. and V. Y. Arsenin. Solutions of Ill-posed Problems. W. H. Winston, 1977.
              </p>
              <p>
               关于正则化理论的第一本书。
              </p>
              <p>
               Vapnik, V. Statistical Learning Theory. Wiley, 1998.
              </p>
              <p>
               如果你想深入了解统计学习理论的基础，要浏览该书的第一章。
              </p>
              <p>
               正则化的解
              </p>
              <p>
               Girosi, F., M. Jones, and T. Poggio. "Regularization Theory and Neural Network Architectures." Neural Computation 7 (1995): 219-269.
              </p>
              <p>
               关于学习理论和正则化理论相互关系的一个详尽介绍。在本讲和接下来的讲座中，我们会经常提到这篇文章。
               <br/>
               Kolmogorov, N., and S.V. Fomine. Elements of the Theory of Functions and Functional Analysis. Dover, 1975.
              </p>
              <p>
               经典文献. 为了跟上课程进度，应阅读第二章中的 5.1 节、6.4 节和6.5 节，第四章中的 13.1、13.2、13.3、13.5、13.6 和 15.1 节，特别要认真阅读涉及到函数空间的部分。
              </p>
              <p>
               Strang, G. Calculus. Wellesley-Cambridge Press, 1991.
              </p>
              <p>
               第13章含有关于 Lagrange 乘子技术非常好的说明。
              </p>
              <p>
               进一步参考读物：
              </p>
              <p>
               Bertero, M. "Regularization Methods for Linear Inverse Problems" In Inverse Problems. Edited by G. Talenti. Lecture Notes in Mathematics. Vol. 1225. 1986, pp. 52-112.
              </p>
              <p>
               这是一篇很好的综述。
              </p>
              <p>
               Tikhonov, A. N., and V. Y. Arsenin. Solutions of Ill-posed Problems. W. H. Winston, 1977.
              </p>
              <p>
               关于正则化理论的第一本书。
              </p>
              <p>
               再生核 Hilbert 空间
              </p>
              <p>
               Kolmogorov, N. and S. V. Fomine. Elements of the Theory of Functions and Functional Analysis. Dover, 1975.
              </p>
              <p>
               经典文献. 为了跟上课程进度，应阅读第二章中的 5.1 节、6.4 节和 6.5 节，第四章中的 13.1、13.2、13.3、13.5、13.6 和 15.1 节，特别要认真阅读涉及到函数空间的部分。
               <br/>
               Strang, G. Introduction to Linear Algebra. Wellesley-Cambridge Press, 1993.
              </p>
              <p>
               第六章含有本课程中用到的矩阵代数内容(及更多内容!)。
              </p>
              <p>
               进一步参考读物：
              </p>
              <p>
               Aronszajn, N. "Theory of Reproducing Kernels." Trans. Amer. Math. Soc. 686 (1950): 337-404.
              </p>
              <p>
               RKHS（内容较难）。
              </p>
              <p>
               Girosi, F. "An Equivalence Between Sparse Approximation and Support Vector Machines." Neural Computation 10 (1998): 1455-1480.
              </p>
              <p>
               在附录A中你会发现关于 RKHS 的一个简单介绍。
              </p>
              <p>
               Wahba, G. Spline Models for Observational Data. SIAM, 1990.
              </p>
              <p>
               第一章包含 RKHS 的入门介绍。
              </p>
              <p>
               传统逼近方法
              </p>
              <p>
               Girosi, F., M. Jones, and T. Poggio. "Regularization Theory and Neural Network Architectures." Neural Computation 7 (1995): 219-269.
              </p>
              <p>
               关于学习理论和正则化理论相互关系的一个详尽介绍。在本讲和接下来的讲座中，我们会经常提到这篇文章。
               <br/>
               Strang, G. Calculus. Wellesley-Cambridge Press, 1991.
              </p>
              <p>
               第13章含有关于 Lagrange 乘子技术非常好的说明。
              </p>
              <p>
               非参数化技术和正则化理论
              </p>
              <p>
               Girosi, F., M. Jones, and T. Poggio. "Regularization Theory and Neural Network Architectures." Neural Computation 7 (1995): 219-269.
              </p>
              <p>
               该文的部分内容也会对这次讲座有所帮助。
               <br/>
               进一步参考读物：
              </p>
              <p>
               Vapnik, V. N. Estimation of Dependences Based on Empirical Data. Springer, 1982.
              </p>
              <p>
               第九章包含了在正则化理论框架下关于 Parzen 窗的讨论。
              </p>
              <p>
               岭逼近技术
              </p>
              <p>
               Bishop, C. M. Neural Networks for Pattern Recognition. Clarendon, 1995.
              </p>
              <p>
               第三章和第四章详细的讨论了单层和多层感知器。
               <br/>
               Girosi, F., M. Jones, and T. Poggio. "Regularization Theory and Neural Network Architectures." Neural Computation 7 (1995): 219-269.
              </p>
              <p>
               包含了关于不同逼近技术之间相互联系的信息来源。
              </p>
              <p>
               进一步参考读物：
              </p>
              <p>
               Hertz, J., A. Krogh, and R. G. Palmer. Introduction to the Theory of Neural Computation. Addison Wesley, 1991.
              </p>
              <p>
               这是一本好书，该书主要从物理学家的观点来看神经网络。
              </p>
              <p>
               正则化网络及相关内容
              </p>
              <p>
               Girosi, F., M. Jones, and T. Poggio. "Regularization Theory and Neural Network Architectures." Neural Computation 7 (1995): 219-269.
              </p>
              <p>
               这是最后一次提及这篇文章，一定要精读该文。
              </p>
              <p>
               进一步参考读物：
              </p>
              <p>
               Hertz, J., A. Krogh, and R. G. Palmer. Introduction to the Theory of Neural Computation. Addison Wesley, 1991.
              </p>
              <p>
               这是一本好书，该书主要从物理学家的观点来看神经网络。
              </p>
              <p>
               统计学习理论导论
              </p>
              <p>
               Vapnik, V. The Nature of Statistical Learning Theory. Springer, 1995.
              </p>
              <p>
               Chapter 1 is a readable first-hand introduction to the subject.
               <br/>
               进一步参考读物：
              </p>
              <p>
               Vapnik, V. Statistical Learning Theory. Wiley, 1998.
              </p>
              <p>
               第一章是关于统计学习理论的易读的、直接的介绍。
              </p>
              <p>
               经验风险最小化原则的一致性
              </p>
              <p>
               Vapnik, V. Statistical Learning Theory. Wiley, 1998.
              </p>
              <p>
               第三章包含了这次讲座的所有内容(甚至更多)。第二章的部分内容会提供给你在理论背后的一些深刻观点，但如果你要弄清楚描述结论和证明结论之间的差异，则最好浏览一下第14章及其他章节。
              </p>
              <p>
               VC 维和 VC 界
              </p>
              <p>
               Vapnik, V. Statistical Learning Theory. Wiley, 1998.
              </p>
              <p>
               第四章包含了这次讲座的所有内容(甚至更多)
              </p>
              <p>
               回归和结构风险最小化的 VC 理论
              </p>
              <p>
               Alon, N., et al. "Scale Sensitive Dimensions, Uniform Convergence, and Learnability." Symposium on Foundation of Computer Science (1993).
              </p>
              <p>
               该文给出了对于实值函数与分布无关的一致收敛性的充分必要条件。
               <br/>
               Evgeniou, T., M. Pontil, and T. Poggio. "Regularization Networks and Support Vector Machines." Advances in Computational Mathematics 13 (2000): 1-50.
              </p>
              <p>
               该文中包含了这次讲座的大部分内容。
              </p>
              <p>
               Vapnik, V. Statistical Learning Theory. Wiley, 1998.
              </p>
              <p>
               第五章和第六章包含了本讲中讨论的大部分结果，但并不是全部。
              </p>
              <p>
               用于分类的支持向量机
              </p>
              <p>
               Strang, G. Calculus. Wellesley-Cambridge Press, 1991.
              </p>
              <p>
               第13章含有关于 Lagrange 乘子技术非常好的说明。
               <br/>
               Vapnik, V. Statistical Learning Theory. Wiley, 1998.
              </p>
              <p>
               本讲将包含第十章中的部分内容，为了深入了解 SVMs 及其他技术，也需要阅读一下第八章。
              </p>
              <p>
               用于回归的支持向量机
              </p>
              <p>
               Evgeniou, T., M. Pontil, and T. Poggio. "Regularization Networks and Support Vector Machines." Advances in Computational Mathematics 13 (2000): 1-50.
              </p>
              <p>
               该文中包含了正则化网络和支持向量机的 Bayesian 解释。
               <br/>
               Girosi, F. "An Equivalence between Sparse Approximation and Support Vector Machines." Neural Computation 10 (1998): 1455-1480.
              </p>
              <p>
               该文研究了 SVM 和 BPD 之间的关系。
              </p>
              <p>
               Vapnik, V. Statistical Learning Theory. Wiley, 1998.
              </p>
              <p>
               本讲将包含第11章和第13章中的部分内容。
              </p>
              <p>
               进一步参考读物：
              </p>
              <p>
               Chen, S., D. Donoho, and M. Saunders. "Atomic Decomposition by Basis Pursuit." Tech Rep 479. Dept. of Statistics. Stanford University. 1995.
              </p>
              <p>
               Daubechies, I. "Time Frequency Localization Operators: a Geometric Phase Space Approach." IEEE Trans. on Information Theory 34 (1988): 605-612.
              </p>
              <p>
               Mallat, S., and S. Zhang. "Matching Pursuits with Time-Frequency Dictionaries." IEEE. Trans. on Signal Proc. 41 (1993): 3397-3415.
              </p>
              <p>
               Pontil, M., S. Mukherjee, and F. Girosi. "On the Noise Model of Support Vector Machine Regression." CBCL Paper #168, AI Memo #1651, Massachusetts Institute of Technology, Cambridge, MA (1998).
              </p>
              <p>
               当前研究热点I: 核方法
              </p>
              <p>
               Cristianini, N., and J. Shawe-Taylor. Support Vector Machines and Other Kernel-based Learning Methods. Cambridge, 2000.
              </p>
              <p>
               该书第三章详细介绍了核方法。
               <br/>
               Vapnik, V. Statistical Learning Theory. Wiley, 1998.
              </p>
              <p>
               在第10章，第11章和第12章中含有核方法及其思想的内容。
              </p>
              <p>
               进一步参考读物：
              </p>
              <p>
               Berg, C., J. P. R. Christensen, and P. Ressel. "Harmonic Analysis on Semigroups." Springer Verlag.
              </p>
              <p>
               该书的题目令人恐惧，但第三章的内容易于阅读，并且包含了关于正定函数的清晰介绍。
              </p>
              <p>
               Jaakkola, T., and D. Haussler. "Exploiting Generative Models in Discriminative Classifiers." NIPS (1998).
              </p>
              <p>
               Niyogi, P., T. Poggio, and F. Girosi. "Incorporating Prior Information in Machine Learning by Creating Virtual Examples." IEEE Proceedings on Intelligent Signal Processing 86 (1998): 2196-2209.
              </p>
              <p>
               神经科学II
              </p>
              <p>
               Logothetis, N. K., J. Pauls, and T. Poggio. "Viewered-Centered Object Recognition in Monkeys ." AI Memo 1472, CBCL Paper 95 (1994).
               <br/>
               Logothetis, N. K., T. Vetter, A. Hulbert, and T. Poggio. "View-Based Models of 3D Object Recognition and Class-Specific Invariances." AI Memo 1473, CBCL Paper 94 (1994).
              </p>
              <p>
               Riesenhuber, M., and T. Poggio. "Hierarchical Models of Object Recognition in Cortex." Nature Neuroscience 2 (1999): 1019-1025.
              </p>
              <p>
               当前研究热点II: 误差逼近和逼近论
              </p>
              <p>
               Lorentz, G. G. "Approximation of Functions." Chelsea Pub co, 1986.
              </p>
              <p>
               内容不很容易，但格式紧凑，叙述严谨(特别是第一章，第五章和第8-10章)。
               <br/>
               Niyogi, P., and F. Girosi. "On the Relationship between Generalization Error, Hypothesis Complexity, and Sample Complexity for Radial Basis Functions." Neural Computation 8 (1996): 819-842.
              </p>
              <p>
               包含了对各种类型误差的讨论。
              </p>
              <p>
               当前研究热点III: 支持向量机的理论与实现
              </p>
              <p>
               Bazaraa, Sherali, and Shetty. Nonlinear Programming, Theory and Techniques. John Wiley &amp; Sons, 1993.
               <br/>
               关于优化理论的教科书。
               <br/>
               SVM 的解是唯一的吗?
               <br/>
               Burges, and Crisp. Uniqueness of the SVM Solution NIPS 12 (1999).
              </p>
              <p>
               SVMs 的分解方法:
               <br/>
               Osuna, Edgar. Support Vector Machines: Training And Applications. Ph.D. Thesis (1998).
              </p>
              <p>
               一次优化两个变量:
               <br/>
               Platt, John C. "Sequential Minimal Optimization: A Fast Algorithm For Training Support Vector Machines." Microsoft Research MST-TR-98-14 (1998).
              </p>
              <p>
               分解方法的分析:
               <br/>
               Chang, Chih-Chung, Chih-Wei Hsu, and Chih-Jen Lin. "The Analysis of Decomposition Methods For Support Vector Machines." Proceedings of IJCAI99, SVM workshop (1999).
              </p>
              <p>
               Keerthi, S. S., and E. G. Gilbert. Convergence of a Generalized SMO Algorithm For SVM Classifier Design Control Division. Dept. of Mechanical and Production Engineering, National University of Singapore CD-00-01 (2000).
              </p>
              <p>
               Keerthi, S. S., S. K. Shevade, C. Bhattacharyya, and K. R. K. Murthy. Improvements to Platt's SMO Algorithm for SVM Classifier Design Control Division. Dept. of Mechanical and Production Engineering, National University of Singapore CD-99-14 (1999).
              </p>
              <p>
               稀疏性控制:
               <br/>
               Osuna, Freund, and Girosi. "Reducing Run-time Complexity in SVMs." Proceedings of the 14th Int'l Conference on Pattern Recognition.
              </p>
              <p>
               当前研究热点V: Bagging和Boosting
              </p>
              <p>
               Breiman, L. "Bagging Predictors." Machine Learning 26 (1996): 123-140.
               <br/>
               Schapire, R. E., Y. Freund, P. Bartlett, and W. S. Lee. "Boosting the Margin: A New Explanation for the Effectiveness of Voting Methods." The Annals of Statistics 26 (1998): 1651-1686.
              </p>
              <p>
               选讲: 小波和框架
              </p>
              <p>
               Stollnitz, E. J., T. D. DeRose, and D. H. Salesin. "Wavelets for Computer Graphics: A Primer Department of Computer Science and Engineering." University of Washington Tech Rep 94-09-11 (1994).
               <br/>
               关于小波的一个易读的介绍.
               <br/>
               Daubechies, I. "Ten Lectures on Wavelets." CBMS-NSF Regional Conferences Series in Applied Mathematics, SIAM, Philadelphia PA (1992).
              </p>
              <p>
               虽然有些内容涉及到高级课题，但也包含了一些基本的理论结果。
              </p>
             </div>
             <!-- .bbp-reply-content -->
            </div>
            <!-- .reply -->
            <div class="bbp-reply-header" id="post-243968">
             <div class="bbp-meta">
              <span class="bbp-reply-post-date">
               2008年3月3日 下午10:21
              </span>
              <a class="bbp-reply-permalink" href="http://cos.name/cn/topic/9706/#post-243968">
               2 楼
              </a>
              <span class="bbp-admin-links">
              </span>
             </div>
             <!-- .bbp-meta -->
            </div>
            <!-- #post-243968 -->
            <div class="even bbp-parent-forum-1006 bbp-parent-topic-9706 bbp-reply-position-2 user-id-53609 post-243968 reply type-reply status-publish hentry">
             <div class="bbp-reply-author">
              <a class="bbp-author-avatar" href="http://cos.name/cn/profile/53609/" rel="nofollow" title="查看javier的档案">
               <img src="http://sdn.geekzu.org/avatar/3d3983c752158b74911f590241b9f4a9?s=80&amp;d=monsterid&amp;r=g"/>
              </a>
              <br/>
              <a class="bbp-author-name" href="http://cos.name/cn/profile/53609/" rel="nofollow" title="查看javier的档案">
               javier
              </a>
              <br/>
              <div class="bbp-author-role">
               普通会员
              </div>
             </div>
             <!-- .bbp-reply-author -->
             <div class="bbp-reply-content">
              <blockquote class="d4pbbc-quote">
               <p>
                [b]引用第0楼[i]redlou[/i]于[i]2008-02-23 11:48[/i]发表的“关于学习理论的一些参考文献zz”[/b]:
                <br/>
                透视学习问题
               </p>
               <p>
                Bertero, M., T. Poggio, and V. Torre. "Ill-posed Problems in Early Vision." Proc. of the IEEE 76 (1988): 869-889.
               </p>
               <p>
                …….
               </p>
              </blockquote>
              <p>
               I would suggest to read the following books:
              </p>
              <p>
               Efron and Tibshirani, An introduction to Boostrap
               <br/>
               Hastie, Tibshirani and Frieman, Elements of Statistical Learning
              </p>
             </div>
             <!-- .bbp-reply-content -->
            </div>
            <!-- .reply -->
           </li>
           <!-- .bbp-body -->
           <li class="bbp-footer">
            <div class="bbp-reply-author">
             作者
            </div>
            <div class="bbp-reply-content">
             帖子
            </div>
            <!-- .bbp-reply-content -->
           </li>
           <!-- .bbp-footer -->
          </ul>
          <!-- #topic-9706-replies -->
          <div class="bbp-pagination">
           <div class="bbp-pagination-count">
            查看 2 个帖子 - 1 到 2（总计 2 个）
           </div>
           <div class="bbp-pagination-links">
           </div>
          </div>
          <div class="bbp-no-reply" id="no-reply-9706">
           <div class="bbp-template-notice">
            <p>
             您必须先登录才能回复该主题。
            </p>
           </div>
          </div>
         </div>
        </div>
        <!-- .entry-content -->
        <footer class="entry-meta">
        </footer>
        <!-- .entry-meta -->
       </article>
       <!-- #post -->
       <div class="comments-area" id="comments">
       </div>
       <!-- #comments -->
      </div>
      <!-- #content -->
     </div>
     <!-- #primary -->
     <div class="sidebar-container" id="tertiary" role="complementary">
      <div class="sidebar-inner">
       <div class="widget-area">
        <aside class="widget bbp_widget_login" id="bbp_login_widget-2">
         <h3 class="widget-title">
          登录
         </h3>
         <form action="http://cos.name/cn/wp-login.php" class="bbp-login-form" method="post">
          <fieldset>
           <legend>
            登录
           </legend>
           <div class="bbp-username">
            <label for="user_login">
             用户名:
            </label>
           </div>
           <div class="bbp-password">
            <label for="user_pass">
             密码:
            </label>
           </div>
           <div class="bbp-remember-me">
            <label for="rememberme">
             记住用户名
            </label>
           </div>
           <div class="bbp-submit-wrapper">
            <button class="button submit user-submit" id="user-submit" name="user-submit" tabindex="104" type="submit">
             登录
            </button>
           </div>
           <div class="bbp-login-links">
            <a class="bbp-register-link" href="http://cos.name/cn/wp-login.php?action=register" title="注册">
             注册
            </a>
            <a class="bbp-lostpass-link" href="http://cos.name/cn/wp-login.php?action=lostpassword" title="忘记密码">
             忘记密码
            </a>
           </div>
          </fieldset>
         </form>
        </aside>
        <aside class="widget widget_text" id="text-7">
         <h3 class="widget-title">
          搜索
         </h3>
         <div class="textwidget">
          <form action="http://www.google.com/search" id="bbp-search-form" method="get" onsubmit="Gsitesearch(this)" role="search">
           <div>
           </div>
          </form>
          <form id="bbp-search-form-baidu" onsubmit="g(this)" role="search">
           <div>
           </div>
          </form>
         </div>
        </aside>
        <aside class="widget widget_text" id="text-2">
         <h3 class="widget-title">
          新鲜事
         </h3>
         <div class="textwidget">
          <ul>
           <li>
            <a href="http://cos.name/cn/topics/">
             最新帖子
            </a>
           </li>
           <li>
            <a href="http://cos.name/cn/view/popular/">
             最热门主题
            </a>
           </li>
           <li>
            <a href="http://cos.name/cn/view/no-replies/">
             消灭零回复
            </a>
           </li>
          </ul>
         </div>
        </aside>
        <aside class="widget widget_text" id="text-3">
         <h3 class="widget-title">
          RSS订阅
         </h3>
         <div class="textwidget">
          <ul>
           <li>
            <img src="http://cos.name/wp-includes/images/rss.png"/>
            <a href="http://cos.name/cn/topics/feed/">
             所有主题
            </a>
           </li>
           <li>
            <img src="http://cos.name/wp-includes/images/rss.png"/>
            <a href="http://cos.name/cn/forums/feed/">
             所有帖子
            </a>
           </li>
          </ul>
         </div>
        </aside>
       </div>
       <!-- .widget-area -->
      </div>
      <!-- .sidebar-inner -->
     </div>
     <!-- #tertiary -->
    </div>
    <!-- #main -->
    <footer class="site-footer" id="colophon" role="contentinfo">
     <div class="site-info">
      版权所有 © 2014 统计之都 | 由
      <a href="http://wordpress.org/">
       WordPress
      </a>
      构建 | 主题修改自
      <a href="http://wordpress.org/themes/twentythirteen">
       Twenty Thirteen
      </a>
     </div>
     <!-- .site-info -->
    </footer>
    <!-- #colophon -->
   </div>
   <!-- #page -->
  </div>
 </body>
</html>