“任何机器学习的算法其实都是由三部分构成的:表示、评价指标和优化算法。”
“表示,意味着用什么方式建模问题,比如决策树就会把一个分类问题建模成树状的分支结构,而支持向量机则是建模成在高维数据空间寻找超平面。”
“评价指标,是评价模型好坏的标准,经常会用一个损失函数表示,损失函数越小则说明模型越接近最优。”
“因此一个机器学习算法其实是在我们所选取的表示空间中,通过可以迭代的优化算法,不断降低损失函数以逼近最优的一种算法。”
教室里,江铭用自信的声音阐述着他对机器学习的理解。
PPT上展示着几张简图,分别是决策树与支持向量机的示意图,方便学生们能更加形象地理解。
幸好,这个PPT是徐建华提前发给他的,而不是江铭自己做的。
不然可能就只有白底黑字的公式推导了。
江铭的讲课高屋建瓴,直通机器学习精髓,令台下的学生们听得津津有味。
此时在一个女生宿舍的聊天小群里。
“哇,他也太强了,我听徐教授的课的时候都没感觉像今天这样清晰。”
“是啊,之前徐教授讲的时候,就完全按照一个一个算法讲过去。什么logistic回归,什么感知机的,还有这个树那个树,听得我都懵了。”
“今天我才知道,原来只是表示方法的不同,再也不用课后再对着课本死记了。”
“不过,江老师讲得再好,不代表萌萌就会专心听呀~你说是吧,萌萌?”
“都上课20分钟了,怎么萌萌的脸还那么红啊,是不是发烧了呀~”
萌萌全名叫章依萌,就是刚刚在课前乱讲的搞笑女孩,此时仿佛被舍友们抓住了把柄,一通调侃。
还能有比自己乱说的时候被正主碰见更尴尬的事情吗?
此时江铭已经讲到了深度神经网络的部分。
“神经网络其实也是一种表示方法,它把一个问题表示为多层神经元的相互连接,并且通过不断优化神经元参数来不断逼近所拟合的函数,优化算法则是...”
他翻到了下一页,突然停下。
下一页PPT上,竟然大刺刺地贴着他自己的照片,甚至还是从开学典礼的合照上裁下来的!
这照片肯定是林欣然发给徐教授的!
照片下面还用详细的文字描述了江铭所设计的神经网络优化算法:自适应矩估计优化。
江铭只觉得血液上涌,令他阵阵眩晕。
这也太尴尬了吧!自己在课上吹自己?
这PPT是徐建华几周前做的,那个时候他根本不可能想到今天这节课会是让江铭代课,还正好讲到这一个章节!
他都能猜到徐建华在做这页PPT的时候是怎么想的,想要在课上吹一波这样的成果是自己的学生做出来的。
结果机缘巧合之下,促成了这令人社死的事情。
江铭硬着头皮简单讲了几句,就遭不住了,赶紧翻到了下一页。
此时虽然台下的同学们都十分配合地不出声,装作没看到,但是在某些小群里已经笑翻天了。
“哈哈哈哈哈,社死现场!”
“不是,哈哈哈哈哈,笑得肚子痛。”