交易中的机器学习:理论、模型、实践和算法交易 - 页 1703 1...169616971698169917001701170217031704170517061707170817091710...3399 新评论 Реter Konow 2020.04.15 11:18 #17021 mytarmailS: 当你思考(你的智力解决了一个问题) 时,你是否必须 在那一刻与人沟通? 你还是不能把你对智力的 "虫子 "定义弄清楚,所以我们现在是在用不同的语言进行交流 也许我对人工智能的理解很蹩脚。但是,一般来说,人工智能正是一个与人类互动的系统。如果人工智能不通过为人类提供友好的语音和视觉界面与人类互动,而是以隐身模式工作,那么它就只是一个程序。不是吗?而一个程序可以在神经网络上运行,但不是人工智能。 Mihail Marchukajtes 2020.04.15 11:20 #17022 洛克诺(Rechtg Konow)。 这样过高的数据要求难道不像是一个缺点吗?我听说,如果路标边上有一个小贴纸,NS识别路标就会出错。也许这种超级敏感度是没有必要的? 这有点不同。当你在教学中犯错时,你基本上是在教她一些你不知道的事情。记住NS就像一个孩子,她需要被告知你想要她做的一切。毕竟,结果你会以你对学习的想法来解释,而实际上它们是模糊的,是一种选择。 今天的提示。将输入的矢量作为从坐标系原点出发的球体,这可以使其不含糊,并避免不一致的情况。 mytarmailS 2020.04.15 11:23 #17023 标签 Konow: 也许我对人工智能的理解很蹩脚。但是,一般来说,人工智能正是一个与人类互动的系统。如果人工智能不通过提供用户友好的语音和视觉界面与人类互动,并在隐蔽模式下工作,那么它就只是一个程序 。不是吗? YES!!!!! 这正是我所说的! 智力是一种自我修改、自我 适应的选择算法,是信息的转化,作为其行动的结果,出现了以前不为主体所知的信息模块,而且不是以现成的形式从外部进入 主体的。 这不是理性,这是唯一已知的思维方式,你把它与理性混淆了。 你把自行车的鞍座和自行车本身混为一谈,你想让鞍座来骑车!"。 Реter Konow 2020.04.15 11:26 #17024 Mihail Marchukajtes: 这有点不同。当你在教学中犯错时,你基本上是在教她一些你不知道的事情。记住,国家安全局就像一个孩子,她需要被告知你希望她做什么。毕竟结果你会在你对学习的想法的框架内解释结果,而实际上它们是模糊的,是一种变体。今天的提示。将输入的矢量以球体的形式从坐标系的原点放置,它可以让你实现不含糊,消除不一致的地方。 好的。我知道,NS的训练是为了捕捉数据中的一个复发性不变因素。从本质上讲,这是一种统计方法。那么,为什么一个小小的、一次性的错误会在训练中产生如此重大的影响?一个人不会注意和忘记,但网络的训练 会崩溃吗? Mihail Marchukajtes 2020.04.15 11:31 #17025 标签 Konow: 好的。我知道,NS的训练是为了捕捉数据中反复出现的不变量。这本质上是一种统计方法。那么,为什么一个小小的一次性错误会在训练中产生如此大的影响呢?一个人不会注意和忘记,但网络的训练会崩溃吗? 一个错误不仅仅是一个错误。一个小错误可以产生很大的影响。 而国家安全局并没有被要求捡起重复的数据。它被要求在没有重复数据的情况下识别隐藏的模式以获得正确的结果。理解泛化。当我们有一个有限的数据域,但只拥有该数据的50%。网络学习和识别一个模式可以建立它没有见过的其余数据。这就像用网络自己绘制的缺失像素的旧视频片段进行重建。 Реter Konow 2020.04.15 11:32 #17026 mytarmailS: YES!!!!! 这正是我所说的! 智力是一种自我修改、自我 适应的选择算法,是信息的转化,作为其行动的结果,出现了以前不为主体所知的信息模块,而且不是以现成的形式从外部进入 主体的。 这不是理性,这是唯一已知的思维方式,你把它与理性混淆了。 你把自行车的鞍座和自行车本身混为一谈,想让鞍座来骑车! 我并不糊涂。我已将关于传统算法、神经网络、人工智能和智能的方案明确分开。与神经网络上的封闭程序相比,人工智能直接与人互动,并在这种互动过程中被人编程。然而,NS上的程序在封闭模式下工作,对外部数据的感知是有限的。情报的定义是正确的。 Forester 2020.04.15 11:33 #17027 Aleksey Vyazmikin: 可能会绕过它,但在那里,在比赛中,采样是固定的,没有特别垃圾的特征,也就是说,条件不是我们工作的条件,我只是在考虑如何最好地准备数据,并考虑到这些特征。(该解决方案还没有最终形成,但这是一项重要的任务)。不同的建树模型很好,但目前它们不能被上传到一个单独的文件中,因此不能被嵌入到专家顾问中,这很糟糕。 我给了你一个链接来查看JOT数据的分叉。这时,完整的模型被下载到一个文件中。然后再从中读出拆分。 Aleksey Vyazmikin: 我不喜欢在boosting中缺乏后处理--当训练完成后,模型通过丢弃弱树而被简化。我不明白他们为什么不这样做。 在提升中,根据定义,所有的树都很重要。每一个连续的项目都会完善之前的所有项目。如果你在中间扔掉了一棵树,那么后面的所有树都会用不正确的数据工作--你应该在不考虑扔掉的树的情况下重新训练它们。第一棵树将非常紧密地复制被丢弃的树。 Aleksey Vyazmikin: 提升中的单个树的叶子很弱--小的完整性--小于1%,而且这个参数不能调整,这很糟糕。 是的,包头的个别树叶是不完整的,因为它们是由其他炼树的树叶反应补充的。而只有如100棵树的累积答案才能给出正确答案。 试图从提升模型的单叶中得到有效的东西是不可能的。 来自100棵树的所有100个答案在提升中被加总,每个人都给出了例如0,01的总数=1。1片叶子的价值=0.01 - 你想从中得到什么?这里面什么都没有。只有100片叶子的总和才能给出正确答案。 事实上,第一棵树很强,例如给出了0.7,其余的树使总和更接近于1。如果只单独考虑第一棵树的叶子,但我认为它们比随机森林 的任何树都要弱,因为它们的深度较浅。 随机森林有一个平均值,例如,100棵树的每一片叶子=1,平均值也=1。在其中,狐狸是完整的,但有随机的变化。但是,100个答案的人群,给出了一个平均数,作为一个合理的准确答案。 Mihail Marchukajtes 2020.04.15 11:35 #17028 像一个真正的交易员一样,我得到了两只麋鹿,并让我的模型重新接线。交易不是一个有回报的行业 :-) mytarmailS 2020.04.15 11:36 #17029 标签 Konow: 我不糊涂。我清楚地把关于传统算法、神经网络、人工智能和智能的方案分开。 与神经网络上的封闭程序不同,人工智能直接与人类互动,并在这种互动中被人类编程。另一方面,人工智能软件在一个封闭的模式下运行,对外部数据的感知是有限的。 我放弃了... Mihail Marchukajtes 2020.04.15 11:38 #17030 一般来说,人和机器之间的互动被称为界面,它是根据人体工程学的规则设计的,但这是另一个les.....。 1...169616971698169917001701170217031704170517061707170817091710...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
当你思考(你的智力解决了一个问题) 时,你是否必须 在那一刻与人沟通?
你还是不能把你对智力的 "虫子 "定义弄清楚,所以我们现在是在用不同的语言进行交流
这样过高的数据要求难道不像是一个缺点吗?我听说,如果路标边上有一个小贴纸,NS识别路标就会出错。也许这种超级敏感度是没有必要的?
这有点不同。当你在教学中犯错时,你基本上是在教她一些你不知道的事情。记住NS就像一个孩子,她需要被告知你想要她做的一切。毕竟,结果你会以你对学习的想法来解释,而实际上它们是模糊的,是一种选择。
今天的提示。将输入的矢量作为从坐标系原点出发的球体,这可以使其不含糊,并避免不一致的情况。
也许我对人工智能的理解很蹩脚。但是,一般来说,人工智能正是一个与人类互动的系统。如果人工智能不通过提供用户友好的语音和视觉界面与人类互动,并在隐蔽模式下工作,那么它就只是一个程序 。不是吗?
YES!!!!!
这正是我所说的!
智力是一种自我修改、自我 适应的选择算法,是信息的转化,作为其行动的结果,出现了以前不为主体所知的信息模块,而且不是以现成的形式从外部进入 主体的。
这不是理性,这是唯一已知的思维方式,你把它与理性混淆了。
你把自行车的鞍座和自行车本身混为一谈,你想让鞍座来骑车!"。
这有点不同。当你在教学中犯错时,你基本上是在教她一些你不知道的事情。记住,国家安全局就像一个孩子,她需要被告知你希望她做什么。毕竟结果你会在你对学习的想法的框架内解释结果,而实际上它们是模糊的,是一种变体。
今天的提示。将输入的矢量以球体的形式从坐标系的原点放置,它可以让你实现不含糊,消除不一致的地方。
好的。我知道,NS的训练是为了捕捉数据中反复出现的不变量。这本质上是一种统计方法。那么,为什么一个小小的一次性错误会在训练中产生如此大的影响呢?一个人不会注意和忘记,但网络的训练会崩溃吗?
一个错误不仅仅是一个错误。一个小错误可以产生很大的影响。
而国家安全局并没有被要求捡起重复的数据。它被要求在没有重复数据的情况下识别隐藏的模式以获得正确的结果。理解泛化。当我们有一个有限的数据域,但只拥有该数据的50%。网络学习和识别一个模式可以建立它没有见过的其余数据。这就像用网络自己绘制的缺失像素的旧视频片段进行重建。
YES!!!!!
这正是我所说的!
智力是一种自我修改、自我 适应的选择算法,是信息的转化,作为其行动的结果,出现了以前不为主体所知的信息模块,而且不是以现成的形式从外部进入 主体的。
这不是理性,这是唯一已知的思维方式,你把它与理性混淆了。
你把自行车的鞍座和自行车本身混为一谈,想让鞍座来骑车!
可能会绕过它,但在那里,在比赛中,采样是固定的,没有特别垃圾的特征,也就是说,条件不是我们工作的条件,我只是在考虑如何最好地准备数据,并考虑到这些特征。(该解决方案还没有最终形成,但这是一项重要的任务)。
不同的建树模型很好,但目前它们不能被上传到一个单独的文件中,因此不能被嵌入到专家顾问中,这很糟糕。
我给了你一个链接来查看JOT数据的分叉。这时,完整的模型被下载到一个文件中。然后再从中读出拆分。
我不喜欢在boosting中缺乏后处理--当训练完成后,模型通过丢弃弱树而被简化。我不明白他们为什么不这样做。
在提升中,根据定义,所有的树都很重要。每一个连续的项目都会完善之前的所有项目。如果你在中间扔掉了一棵树,那么后面的所有树都会用不正确的数据工作--你应该在不考虑扔掉的树的情况下重新训练它们。第一棵树将非常紧密地复制被丢弃的树。
提升中的单个树的叶子很弱--小的完整性--小于1%,而且这个参数不能调整,这很糟糕。
是的,包头的个别树叶是不完整的,因为它们是由其他炼树的树叶反应补充的。而只有如100棵树的累积答案才能给出正确答案。
试图从提升模型的单叶中得到有效的东西是不可能的。
来自100棵树的所有100个答案在提升中被加总,每个人都给出了例如0,01的总数=1。1片叶子的价值=0.01 - 你想从中得到什么?这里面什么都没有。只有100片叶子的总和才能给出正确答案。
事实上,第一棵树很强,例如给出了0.7,其余的树使总和更接近于1。如果只单独考虑第一棵树的叶子,但我认为它们比随机森林 的任何树都要弱,因为它们的深度较浅。
随机森林有一个平均值,例如,100棵树的每一片叶子=1,平均值也=1。在其中,狐狸是完整的,但有随机的变化。但是,100个答案的人群,给出了一个平均数,作为一个合理的准确答案。
像一个真正的交易员一样,我得到了两只麋鹿,并让我的模型重新接线。交易不是一个有回报的行业 :-)
我不糊涂。我清楚地把关于传统算法、神经网络、人工智能和智能的方案分开。
我放弃了...