董雪梅
- 作品数:5 被引量:6H指数:2
- 供职机构:湖北大学数学与计算机科学学院更多>>
- 发文基金:国家自然科学基金湖北省自然科学基金更多>>
- 相关领域:自动化与计算机技术更多>>
- 联合算法稳定下的排一推广误差界
- 2005年
- 在机器学习算法的联合稳定性条件下,利用广义McDiarmid不等式获得了排一推广误差的界。讨论了机器学习的推广能力,和类似的结果进行了比较。
- 董雪梅邹斌李落清
- RKHS中正则化学习算法的推广误差界被引量:2
- 2005年
- 研究了再生核希尔伯特空间(RKHS)中的正则化学习算法,证明了其推广误差可分解为两个部分:逼近误差和估计误差,并应用VC维和算法稳定性给出了相应界,最后联立这两个结果证明了正则化学习算法具有好的推广性.
- 董雪梅邹斌李落清
- 关键词:误差界再生核希尔伯特空间正则化学习算法VC维
- 基于算法稳定的分类机器学习泛化能力的研究被引量:4
- 2004年
- 泛化能力是机器学习理论研究的主要目的.本文通过对算法稳定框架下分类机器学习相对误差的研究,得到了重叠稳定条件下分类机器学习不依赖于分布的相对误差的界,再通过这个界讨论了重叠稳定条件下分类机器学习的泛化能力,得出了重叠稳定条件下分类机器学习是具有较好泛化能力的结论.
- 邹斌董雪梅付丽华
- 关键词:泛化能力
- 四种学习算法稳定之间的关系被引量:2
- 2005年
- 为研究机器学习的推广误差 ,提出了变一误差估计条件下一种新的学习算法稳定 逐点假设稳定 ,并讨论了逐点假设稳定、CV稳定、重叠稳定以及弱假设稳定四种学习算法稳定之间的关系 ,得出了逐点假设稳定是这四种学习算法稳定中最弱的学习算法稳定的结论。
- 邹斌董雪梅李落清
- 关键词:学习算法CV
- 联合算法稳定下变一推广误差的界
- 2005年
- 为研究机器学习在算法稳定框架下的推广能力,提出了变一误差估计条件下联合算法稳定的概念,并利用广义的M cD iarm id不等式得到了机器学习在联合算法稳定下变一推广误差的界.
- 邹斌董雪梅李落清