摘要:现在其实有很多关于机器学习的课程,但是最经典的还是吴恩达2014机器学习的课程。 课程地址:http://www.988.1443377.com/course/ml 这是我自己在学习过程中的笔记,争取每天都更新。 目录 一、引言 1.1欢迎 1.2机器学习是什么? 1.3监督学习 1.4无监督学习 二、 阅读全文
posted @ 2020-04-10 23:10 不爱学习的Shirley 阅读(70) 评论(0) 推荐(0) 编辑
摘要:在写文章的最后最让我头疼的就是参考文献的问题了。网上的资料也有很多,这里整合了很多资料得出了一个用bib文件的方法。 1. 先确定参考文献(一句没什么用的废话)。 2. 利用谷歌学术(镜像),如果镜像用不了还可以考虑用微软学术(网址:http://821.ib765.com/708/ho 阅读全文
posted @ 2020-07-31 21:50 不爱学习的Shirley 阅读(127) 评论(0) 推荐(0) 编辑
摘要:最近在学习使用Latex,在学习过程中碰到很多小问题,故记之。 以下是一个参数表的实例(绘成三线表的形式)。 1 \begin{table}[hp] %%参数: h:放在此处 t:放在顶端 b:放在底端 p:在本页 2 \renewcommand\arraystretch{1.2} 3 %\setl 阅读全文
posted @ 2020-07-27 21:45 不爱学习的Shirley 阅读(32) 评论(0) 推荐(0) 编辑
摘要:这一节主要介绍的是决策界限(decision boundary)的概念,这个概念可以帮组我们更好地理解逻辑回归的假设函数在计算什么。 首先回忆一下上次写的公式。 现在让我们进一步了解这个假设函数在什么时候会将y预测为1,什么时候会将y预测为0。并且更好地理解假设函数的形状,特别是当我们的数据有多个特 阅读全文
posted @ 2020-07-15 17:18 不爱学习的Shirley 阅读(143) 评论(0) 推荐(1) 编辑
摘要:在本节中,我们将学习假设陈述。也就是,当有一个分类问题的时候,我们要使用哪个方程表示我们的假设。此前我们说过,希望我们的分类器的输出值在0和1之间。因此,我们希望想出一个满足它的预测值要在0和1之间的假设。 当我们使用线性回归的时候,假设形式为hθ(x)=θTx。对于逻辑回归,hθ(x)=g(θTx 阅读全文
posted @ 2020-04-15 18:21 不爱学习的Shirley 阅读(75) 评论(0) 推荐(0) 编辑
摘要:在这节以及接下来几节中,我们要开始讨论分类问题。这节将告诉我们为什么对于分类问题来说,使用线性回归并不是一个好主意。 在分类问题中,你要预测的变量y是一个离散的值,我们将学习一种叫做逻辑回归(Logistic Regression)的算法,这是当今最流行、使用最广泛的学习算法之一。 分类问题的例子有 阅读全文
posted @ 2020-04-14 20:56 不爱学习的Shirley 阅读(221) 评论(0) 推荐(1) 编辑
摘要:现在其实有很多关于机器学习的课程,中东娱乐开户28:但是最经典的还是吴恩达2014机器学习的课程。 课程地址:http://www.ib765.com/42/course/ml 这是我自己在学习过程中的笔记,争取每天都更新。 目录 一、引言 1.1欢迎 1.2机器学习是什么? 1.3监督学习 1.4无监督学习 二、 阅读全文
posted @ 2020-04-10 23:10 不爱学习的Shirley 阅读(70) 评论(0) 推荐(0) 编辑
摘要:在这节中,我们将学习有关向量化的内容。无论你是用Ocatve,还是别的语言,比如MATLAB或者你正在用Python、NumPy 或Java、C、C++,所有这些语言都具有内置的,容易阅读和获取的各种线性代数库,它们通常写得很好,已经经过高度优化,通常是数值计算方面的博士或者专业人士开发的。而当你实 阅读全文
posted @ 2020-04-10 23:09 不爱学习的Shirley 阅读(156) 评论(0) 推荐(0) 编辑
摘要:在本节中,我们将学习如何为Octave程序写控制语句。 首先,我们先学习如何使用for循环。我们将v设为一个10行1列的零向量。 接着,我们写一个for循环,让i等于1到10。写出来就是for i = 1:10。我要设v(i)的值等于2 的i次方,即输入 v(i) = 2^i ,循环的最后要记得写上 阅读全文
posted @ 2020-04-08 21:19 不爱学习的Shirley 阅读(61) 评论(0) 推荐(0) 编辑
摘要:当开发学习算法时,往往几个简单的图,可以让你更好地理解算法的内容,并且可以完整地检查下算法是否正常运行,是否达到了算法的目的。例如在之前的课程中,学了如何绘制成本函数J(θ),可以帮助确认梯度下降算法是否收敛。通常情况下,绘制数据或学习算法所有输出,也会启发如何改进学习算法。幸运的是,Octave有 阅读全文
posted @ 2020-04-07 21:50 不爱学习的Shirley 阅读(58) 评论(0) 推荐(0) 编辑
摘要:在这节中,我们将学习如何对数据进行运算操作。接下来,我们将会使用这些运算操作来实现我们的学习算法。 我现在快速地初始化一些变量。比如设置A为一个3x2的矩阵,B为一个3x2的矩阵,c为一个2x2的矩阵。 我想算两个矩阵的乘积,比如计算AxC,只需输入A*C,这是一个3x2矩阵乘以2x2矩阵,得到这样 阅读全文
posted @ 2020-04-06 21:43 不爱学习的Shirley 阅读(144) 评论(0) 推荐(0) 编辑
33suncity.com 申博直属官网注册彩金 太阳城登录网址开户网登入 太阳城官网-网上娱乐安全上网导航手机客户端下载登入 淘金申博馆计划群大全
顶级赌博网 华尔街娱乐在线 荣一娱乐美女客服 蓝博娱乐资金蓝博娱乐担保 香格里拉vip在线体育投注最高占成
乐虎国际体育最高返水 皇家赌场龙虎真人荷官 mg优质物业 金沙娱乐推荐75888手机app 永利彩票手机下载导航
时时彩安全上网导航 全讯网 sun138.com 齐发国际官网8033 88娱乐2vip彩票