Искусственный интеллект, машинное обучение и глубокое обучение уже сейчас являются неотъемлемой частью многих предприятий. Часто эти термины используются как синонимы. Искусственный интеллект движется огромными шагами — от достижений в области беспилотных транспортных средств и способности обыгрывать человека в такие игры, как покер и Го, к...
事实上,情况恰恰相反......
一个更糟糕的算法但更多的例子比一个很酷的算法但更少的数据更好。
即使是1000元也是不够的,特别是对市场来说...
好吧,既然你是新来的,我就单独给你解释一下......
我的40个样本大约是TF M15的一个月的工作。在每月的样本上训练模型,使其在市场上至少工作2周,这有什么问题。没有什么圣杯,每周一次的优化是很正常的,更不用说每两周一次的优化。
但马克西姆卡对他的模特进行了一年或更长时间的训练,并没有因此而大放异彩 ....
预测能力上的不俗结果不会导致稳定的模型,因为单纯的荒谬的观察数=51。我们至少需要10倍的数量,最好是100倍的数量。
SanSanych,向一个傻瓜解释一下为什么分类器需要预测能力?
预测能力上的不俗结果不会导致稳定的模型,因为只是一个可笑的观察数=51。我们至少需要10倍的数字,最好是100倍的数字。
如果你在这个数量的观察上建立模型,结果是糟糕的。
预测的
实际 [0,0] (0,1] 误差
[0,0] 42.9 28.6 40
(0,1] 28.6 0.0 100
总体误差:57.1%,平均班级误差:70%。
拉特时间戳: 2018-10-18 21:29:39 用户
======================================================================
Mic1.txt的线性模型的误差矩阵[验证](计数)。
预测的
实际 [0,0] (0,1) 误差
[0,0] 1 4 80
(0,1] 2 0 100
Mic1.txt的线性模型的误差矩阵[验证](比例)。
预测的
实际 [0,0] (0,1] 误差
[0,0] 14.3 57.1 80
(0,1] 28.6 0.0 100
总体误差:85.7%,平均班级误差:90%。
拉特时间戳: 2018-10-18 21:29:39 用户
======================================================================
Mic1.txt上的神经网络模型的误差矩阵[验证](计数)。
预测的
实际 [0,0] (0,1) 误差
[0,0] 2 3 60
(0,1] 1 1 50
Mic1.txt上的神经网模型的误差矩阵[验证](比例)。
预测的
实际 [0,0] (0,1] 误差
[0,0] 28.6 42.9 60
(0,1] 14.3 14.3 50
总体误差:57.1%,平均班级误差:55%。
拉特时间戳: 2018-10-18 21:29:39 用户
我希望你不是在试图预测退出????。它已经被预测到了,你只需要尽可能地接近它。没有必要预测....
什么是人工智能?
人工智能。
桑尼奇,测试结果如何?该模型是如何表现的?
顺便说一句,如果你使用Rattle,你最好不要使用。我可以自己运行它....有趣的是,看到你的秘密AI模型的结果:-)
人工智能。
А,...你们使用AI了吗?而我们都坐在AI上。
А,...你们使用AI了吗?而我们都坐在AI上。
我对你在这个问题上的无知感到惊讶。这是同一件事。MO = AI 机器学习 = 人工智能。
令人惊讶的是你对这个问题的无知。这是同一件事。ME=机器学习=人工智能。
哦,我的上帝。你知道什么?事实上,这些绝对是不同的事情。
哦,看看这个。谁能想到呢?实际上,这完全不同。
有什么区别?启迪....
热闹的......更多!)
那么你对这些数据有什么看法?
哦,看看这个。谁能想到呢?实际上,这是一个完全不同的事情。
其实没有什么不同,这是机器学习的演变,从汇编到Python,可以这么说;)
https://habr.com/post/401857/