第八十四章网络实现的机器学习笔记  学医路漫漫

关灯 护眼 舒适     字体:

上一页(2/6) 目录 下一页(2/6) 繁体版

亲爱的书友,您现在访问的是转码页面,会导致更新不及时及无法正常下载,请访问真实地址:http://m.shubao1.cc/65427/86.html

,具体的表达是概率性的先状态(本质上是多可能的,当然,其存在一定分布,少数可能是大概率发生的,这是一种幂律分布)。在这个基础上的聚类算法才有意义,我们要构建高维结构,其可以与低维结构有比较确定的转换路径。

当前的聚类算法的粗糙度太大,我们需要更精细的分类,理论上底层的分类具有更大的确定性(如同微积分的无穷小量),再在这个基础上如同程序设计不断往上遍历形成表达式,函数,运算的循环结构等等。而且当前要摆脱的一个思想就是表达具有差异性就有更大的概率与特殊过程相关,我们应该从更底层的方式来思考,因为可能存在各种的周期性变化和脉冲式表达等等的干涉式的影响,以网络的节点的关系连接可能做出更好的解释。

无监督学习要自动找到数据的结构还是需要我们提取定义一些可以运算的量,才能根据这些作用量的判断形成不同层次的聚类。一切计算都需要运算的对象和规则。然后我们就可以期待这些大规模的运算可以为我们计算出不同层次的分类,这是超越个人认识的方法,如同数学结构能够告诉我们的信息超过构建其所需的信息,就是说我们的造物比我们聪明,但这也是我们摆脱自己限制的一种努力。

以上,我们希望能够对大规模的测量指标来做一定的聚类分析,从而以比较多的特征变化来对应于我们现实的基本,如糖尿病可以分解为的三多一少等等,这就需要我们已有的医学的知识来做这种描述性的工作。然后以此为基础,我们不断深入到更小的层次,如基因蛋白的表达模式,最终能够整合起来以数据的层次与机体的情况建立映射关系。

以线性代数来表示概率,从而实现对微积分的模仿,因此剧组的知识必不可少。

统计层次的关系构建,线性关系是最基本的假设,其余的复杂关系可以以一定基底的选择性表达来以任意精度逼近。数据越多,即考虑的变量越多,理论上能够更精确,但现实都是基于该结果的选择性表达,即有可能上调或者下调,当然在统计层次还是存在的。

预测函数的构建和实现。误差量的统计分析,可以作为我们的数据的评价标准(误差越小越好),这是可以通过算法实现的,因为一切都是清晰可比较的。其中的函数值的最小值求解可以使用其他算法计算。局部最优的求解,选择有可能的参数组合,基于一定判断,不断迭代。这种迭代可以通过经过处理的变量的重新赋值。如、这种参数的更新就是一种学习。

梯度下降算法可以用来最小化任何代价函数。

矩阵可以用于表达各种复杂的网络关系,可以在这个层次以不同矩阵的选择性表达来以任意精度逼近真实的网络关系。这就是线性回归模型作为底层可以不断遍历到高维结构,即为什么能够对大规模数据的处理产生如此有力的作用。矩阵的元素就是运算的对象,其各种变化如奇异值分解、本征值求解就是这种过程。而且矩阵之间还存在一定的交互作用,其最终的本征值求解可以理解为马尔科夫序列的表达过程。最终交互关系以矩阵相乘来表示,其可以在这个层次形成更大的途径,即特定的路径。这也和我们的概率的相乘和相加构建很好的数学结构,即最终的概率路径形成。

这还可以理解为多变量的回归分析,矩阵的阶数对应于变量数,通过矩阵内部的运算可以涌现出最后的线性关系。这与我们的序列运算其实很相似,即都是对多状态变量的处理,而且我们需要考虑交互作用。因为变量之间可能产生的耦合作用具有一定的分布,如同dna一级序列结构可以根据序列的匹配形成二级结构,即a*b.

,参数的定义。

然后在以上的线性代数的基础上构建一套语言:变量定义,逻辑比较算术位运算,表达式的形成,循环结构等等的运算结果的形成,等等。本质上我们可以通过统计来大体了解具体的语言,如疾病的频率分析。

我们的前面有ibson医生,它选择的是对各种关键词的识别来从海量数据筛选一系列的治疗方案,其功能十分强大,我们无力抗衡,因此只能另辟蹊径,那就是走得比它更远,做得比它更细。这就是我之前一直期望的网络和序列,我们期待的模式涌现是基于可运算的关系,即概率性的对象间关系和概率网络形成。我们打算从最基本的疾病诊断入手,通过对多特征的测量来对独特个体进行分类,理论上只要特征足够多,我们就可以以任意精度匹配到具有一定聚类意义的诊断(同一疾病可能有不同表现,但统计意义上大同小异)。我们可以在这个基础上继续进行聚类分析,不断往高维遍历。

线性的回归关系是如同最底层的无穷小量,可以在这个基础上遍历出所有可能的关系,当然我们需要一定的靶定才能使得其具体的路径形成维持在一定的范围内。

无穷分类,可以表示为1/0序列。除了这种直接的定义,还可以以一定的效应来定义,如是否表达。

算法的构建需要我们考虑特定性质的函数,逻辑回归作为一种分类算法能够以一定概率来区分不同的对象性质,这是如同马尔科夫序列对多可能整体的考虑。例如,如果对于给定的x,通过已经确定的参数计算得出hθ(x)=0.7,则表示有70%的几率y为正向类,相应地y为负向类的几率


第八十四章网络实现的机器学习笔记(2/6),点击下一页继续阅读。

『加入书签,方便阅读』

上一页 目录 下一页 TXT下载