17行 print(rnd_clf.oob_score_)计算的是被切分的训练集中未抽样到的数据的准确率,还是测试集和训练集中所有未训练数据的准确率?
老师我想问一下,这种GBDT+LR做文本分类效果怎么样,这种用GBDT+LR做分类和直接用GBDT做分类相比有啥优缺点或者他们的应用场景分别是什么
《章节四:GBDT算法》硬着头皮看完了,实操题也对照答案做了,可是还不太了解这个算法在什么情况下使用,需要处理的原始数据是什么形式。
准备再看一遍视频,希望能学到多一点关于GBDT算法的内容。
在这里请教一下老师:
①在学习人工智能这门课程时,如果本章内容没学懂,可以继续向下学吗?
②越往后学,感觉算法内容理解起来越吃力,有什么好的学习方法吗?
课程小建议:
①希望老师在以后讲课时能增加对与每个算法有一个小例子的详细讲解,通过例子让我们了解算法的使用,这样可以在先不了解算法的情况下(或对算法懵懂了解)掌握算法的使用,应该能够反过来帮助深入理解算法。
具体就是想知道算法需要处理什么形式的原始数据,解决了什么问题。
老师,这里不太明白为什么一个样本进入决策树会落入两个叶子节点呢
老师,这里进行的不就是特征一的第一个特征值,loss计算吗?
红框的内容是啥?
老师,我想问下是不是训练到后面的模型就越好呀,因为是贪婪的 算法,是不是之前的模型的权重会比之后的权重大呀。
为什么CART一定是二叉树,-------------------------------------------------------------------
只能说基尼系数在1时近似等于信息熵,但是不意味着在【0,1】区间上也近似等于信息熵。这个近似是有条件的。
请问这里的w是什么意思呢?怎么计算呢?
此处代码warn的原因可能是存在什么问题呢
[object Object]
请问这里的w是什么意思呢? 怎么计算呢?l1和l2有什么明显区别吗?
为什么要调到50%来训练下一个分类器
如果我第一个训练器正确率就很高不是很好?
不断调调到什么时候是个头
老师好,对于adaboost通常分裂出的决策桩,它的分裂方式大多都是按照cart的gini系数来进行分裂的吧,那么对于信息增益与信息增益率是不是也可以呢?是不是总体来说用cart会好一些?
老师给一个多分类的代码吗 字数不能小于20 字数不能小于20
老师,为什么用回归树结果得到-无穷,+无穷才有意义呢,为什么拿到分类概率就没有意义呢?不太明白这里的意义是指什么
非常抱歉给您带来不好的体验!为了更深入的了解您的学习情况以及遇到的问题,您可以直接拨打投诉热线:
我们将在第一时间处理好您的问题!
关于
课程分类
百战程序员微信公众号
百战程序员微信小程序
©2014-2025百战汇智(北京)科技有限公司 All Rights Reserved 北京亦庄经济开发区科创十四街 赛蒂国际工业园网站维护:百战汇智(北京)科技有限公司 京公网安备 11011402011233号 京ICP备18060230号-3 营业执照 经营许可证:京B2-20212637