有n个⾮负整数,将其按照字符串拼接的⽅式拼接为⼀个整数。如何拼接可以使得到的整数最⼤?例:[3,31,34,5,9],可以拼接出的最⼤整数为"9534330"
编程学院分类,是在编程过程中,记录开发心得体会的板块。目前主要涉及PHP、Python、Linux、前端等内容。
有n个⾮负整数,将其按照字符串拼接的⽅式拼接为⼀个整数。如何拼接可以使得到的整数最⼤?例:[3,31,34,5,9],可以拼接出的最⼤整数为"9534330"
前面我们介绍的线性回归、岭回归、Lasso都是线性回归模型,但有些场景下,数据分布并不是简单的线性模型,本节介绍线性回归里一个非常重要的改进方法:多项式回归。
上一篇文章介绍了,保证能用最小二乘法求解线性回归的第一种方案岭回归,本文介绍第二种方法Lasso回归,和岭回归一样,Lasso也是通过正则项,来解决多重共线性问题,不同的是Lasso使用的是系数w的L1范式,乘以正则化系数alpha。
贪心算法(又称贪婪算法)是指,在对问题求解时,总是做出在当前看来最好的选择。也就是说,不从整体最优上考虑,他所做出的是在某种意义上的局部最优解。
之前的文章中,我们介绍了最小二乘法求解多元线性回归问题,可以用最小二乘法求解的条件,就是特征矩阵必须是满秩矩阵。岭回归,就是在线性回归的损失函数上加上了正则项,可以通过对正则化系数alpha进行调节,保证最小二乘法有解。
二叉搜索树是一棵二叉树,且满足如下性质:设x是二叉树的一个节点,如果y是x左子树的一个节点,那么y.key<=x.key; 如果y是x右子树的一个节点,那么y.key>=x.key。
回归类算法的模型评估一直是一个难点,但回归和分类其实是相似的法则,就是找真是标签和预测值的差异,只不过分类算法中,我们只需要判断是否预测了正确的分类,而在回归算法中,需要从是否预测了正确的数值,和是否拟合了足够的信息两个角度来评判回归效果。
如果树中每个节点最多只有两个子节点,这样的树就称为“二叉树”。二叉树的链式存储:将二叉树的节点定义为一个对象,节点之间通过类似链表的链接方式来连接。
哈希表是一个通过函数函数来计算数据存储位置的数据结构,由于哈希表的大小是有限的,而要存储的值的总数是无限的,会存在哈希冲突,本文介绍用拉链法创建哈希表。
前面两篇文章介绍了澳大利亚天气数据集的特征工程,将数据处理到了可以建模的程度,本文介绍SVM建模来做天气预测。同时在线性模型基础上,介绍准确率和召回率的平衡调节方法。
前面文章中,介绍了链表结构的函数方法实现,但函数实现方法在使用上不是很方便,本文介绍一种更完善的面向对象的封装方式,可以通过传参的方式创建链表。
澳大利亚天气预测,是Kaggle上一个非常接近真实场景的数据集,因为其数据结构复杂,前期需要做大量的数据预处理,所以本文先介绍澳大利亚天气数据集的特征工程部分,下节再进行建模分析。
前几天有人在公众号留言,提到一个可转债的思路,想看下转债和正股的涨跌有没有关联,如果转债的走势和正股一致,而且滞后于正股,那我们就可以筛选正股涨的多,而转债还没涨起来的来捡漏。
本文是澳大利亚天气预测项目的前置数据处理环节,在大项目中需要将观测点所在城市转化为气候区域,以方便探究气候区域与天气的关系。
上一篇文章中介绍了常用的模型评估指标,但一个好的模型,往往追求的是多个指标的平衡,而非某一个指标的大小。本文介绍的ROC,可以直观的展示评估效果。
分类任务中,一个模型的好坏,可以有很多评价指标,本文将系统介绍混淆矩阵,和常见的几种评价指标。
上一篇文章,我们介绍了SVM在不同数据集上的表现,本文以乳腺癌数据集为例,对比SVM不同核函数的效果,并通过调参,优化模型效果。
核函数,是SVM中为了能够找到非线性数据的线性决策边界,将数据从原始空间x投射到新空间φ(x)的映射关系,SVM中常用的核函数有linear、poly、sigmoid、rbf。
双链表的每个节点有两个指针:一个指向后一个节点,另一个指向前一个节点。结构比单链表略复杂,但使用上更方便。
支持向量机(SVM),是机器学习中最重要的算法之一,也是除集成算法外,最强的学习器。它能解决有监督、无监督、半监督,分类和回归几乎所有场景。支持向量机,就是通过找出边际最大的决策边界,来对数据进行分类的分类器。