突然来个代码讲解有点懵逼啊,讲串了吗这是,没明白
广义线性回归的参数η是什么意思?θ和η的区别是啥
这又是P又是Y的 到底是什么服从指数族分布,我一直不理解P(y|x;θ)这是个啥
η的转置和α(η)分别对应,那怎么能推出来η的呢 难道η的转置就是η 这啥意思啊
为啥μ就是η,依据是什么,还有y hat 咋就会等于η呢,虽然我知道y hat是θ的转置等于X 咱们再多元线性回归学过
老师能具体解释一下toler是什么意思啊
这段代码需看不懂,只是大概知道生成了一种数组,用来训练模型,但是数组的形式和每行的含义不清楚。
老师,请问为什么SVM会对缺失值比较敏感呢?有对缺失值不敏感的算法吗?
老师,分类函数真实的y不是明确告知是哪一类吗,不是真实值吧。。如何计算loss
老师,你好,关于繁多的处理算法,我们如何选择某一条算法呢,就比如对鸢尾花数据集,或者保险,又或者其他的一些数据,怎样去选择适合的处理算法
老师这个xi为什么把转置去掉了啊
其实要证明K=2,感觉从一开始就入手会很简单。
以上公式,当K=2时,P(y;φ)=φ1y*φ21-y=φ1y*(1-φ1)1-y,就是一个伯努利分布,那么推导出逻辑回归,也很正常。
老师讲得挺深入,给老师打call, 哈哈哈,打call放在了问答区
老师为啥fft不加绝对值会报丢弃虚数部分的错呢?
import numpy as np #创建数据集X,y X=np.random.rand(100,1) y=4+3*X+np.random.randn(100,1) X_b=np.c_[np.ones(100),X] #创建超参数 learning_rate=0.0001 n_iterations=10000 #1.创建cta,w0,w1,w2,w3,....,wn cta=np.random.randn(2,1) def p_theta_function(features,w1,w2): z=w1*features[0]+w2*features[1] #这里使用sigmoid函数,y_heater=1/(1+exp(-1*cta.T.dot(X))) return 1/(1+np.exp(-z)) #4.判断是否收敛,一般不会去设置阈值,而是采用相对大的迭代次数 for _ in range(n_iterations): gradients=0 #2.求梯度,计算gradient for i in range(100): x=X_b[i:i+1,:] y=y[i:i+1] p_result=p_theta_function(x,cta[0],cta[1]) gradients+=x.T.dot(p_result-y) #3,应用梯度下降法公式调整cta值,cta(t+1)=cta(t)-ita*gradient cta=cta-learning_rate*gradients/100 print(cta) 这里我传的参数是1行两列,为什么他运行不了显示参数不够
非常抱歉给您带来不好的体验!为了更深入的了解您的学习情况以及遇到的问题,您可以直接拨打投诉热线:
我们将在第一时间处理好您的问题!
关于
课程分类
百战程序员微信公众号
百战程序员微信小程序
©2014-2025百战汇智(北京)科技有限公司 All Rights Reserved 北京亦庄经济开发区科创十四街 赛蒂国际工业园网站维护:百战汇智(北京)科技有限公司 京公网安备 11011402011233号 京ICP备18060230号-3 营业执照 经营许可证:京B2-20212637