交易中的机器学习:理论、模型、实践和算法交易 - 页 1269

 

来自AlphaGo Zero的创造者们,请尽情观看 :)


 
马克西姆-德米特里耶夫斯基

来自AlphaGo Zero的创作者的新鲜事,请尽情观看吧 :)


是否有关于如何创建/训练/连接明星卡夫的模型的详细说明?

 
马克西姆-德米特里耶夫斯基

我想我不玩,我只是看比赛。

从复盘来看,阿尔法交易员如果做出来,会比任何一袋骰子的交易效果更好。

在我看来,做这样的机器人可以在MO中获得新的技能,而且就是很有趣。自从新的章节出来后,我自己也玩了几次《星际争霸2》(那里的故事被分成了几个部分)。在与人工智能对战时,他往往不是通过行动逻辑,而是通过控制单位取胜--一个人的身体不可能同时控制整个地图和每个单位。

 
弗拉基米尔-佩雷文科

我不监控自己的,我不知道别人的。上面引用的文章没有足够的信息可供复制,而且代码太复杂。我认为一切都可以用软件包的标准层来实现,而不需要使用R6。

祝好运

我不明白你希望我有什么好运气。

请至少做一个演示

如果专家用MO元素工作的结果是可以接受的,那么我将从头到尾重读整个分支。

 
马克西姆-德米特里耶夫斯基

这里的情况并非如此,它完全接近于人类所看到的和所做的--有限的视野,平均速度低于职业球员的速度。

而SC中的内置人工智能只是争抢的无趣的对手。相反,这个人玩起来就像一个人。我不会把一个职业球员和这个人工智能区分开来,也就是说,图灵测试通过了)))。

甚至可视化了电子脑的活跃神经元云


从屏幕上看,你不能做出毫不含糊的结论。是的,也许只控制适合在屏幕上的东西--没问题,为了这些目的,在一个单位/结构或一组单位上使用热键,那么在这一点上就没有必要直观地观察它们,你可以在地图上进行协调,这在屏幕上也始终可见。Chisha都在mikrokontrol,我个人看了几个视频,没有看到那里的战略方面有什么高明之处,但那里的个别单位的潜力的使用是披露得很充分。也就是说,那里的重点是评估潜在的威胁和反击的选择--根据敌人发展的分支,加上经济的独立模块--不同的方法已经看到,和控制,我认为前两个模块(发展的分支和经济)是编程或应用模糊逻辑,一些相对笨拙的稳定,但控制是根据情况,这里只是工作AI的全面。顺便说一下,关于物体的信息是如何传输的,如何总结它们来做出决定并考虑到它们的运动,芯片和目标并不清楚。

 
顺便说一下,我有时在blizard的网络上玩《魔兽争霸III》,在那里我经常被指责为人工智能,我想知道它是否也能适用于那里。如果使用的话,我不知道我和这样的AI玩了多少次。
 
马克西姆-德米特里耶夫斯基

在那里,顺便说一下,最初整个地图都放在屏幕上,供机器人使用,然后他们把它做成玩家的样子,然后机器人开始失速,人就赢了(在视频的最后)。在这种情况下被拍到的坏mb。另一方面,如何评估有效性--一旦某些阶层导致成功,那么机器人就会选择它们。

我认为,如果你让控制的约束条件与人相称,机器人就会打败普通用户,因为人群的行为是相似的,而且会是最频繁的。顺便说一下,当我试图与我的儿子在网络上玩一个宗族对机器人玩具魔兽争霸3,然后在第一时间,它是一样困难(在此之前,我有丰富的经验,在宗族游戏在battlnet对人类),但后来习惯了机器人的行为,并逐渐超过他使用非标准的解决方案(例如,通过树切开地雷,从而保护单位从地面的攻击)。所以我想知道应该给非标准策略多大的权重,这样它们才能在MO中得到考虑,也就是说,你需要把标准行为和非标准行为分开,对它们有不同的处理方法,同时又不能相互干扰。这就像一个趋势和一个平面--一个模型很难同时训练这两个模型,至少我不知道怎么做。

 
马克西姆-德米特里耶夫斯基

我不认为这有什么分量。如果情况很少,机器人将直接忽略此类选项。如果一个人适应了机器人的策略,那么机器人就需要一直训练以适应一个人的阶层,否则就不是一个平等的情况了)。

我不知道,那么事实证明,这在很大程度上取决于样本,如果样本不同,那么机器人在相互斗争中的表现也会不同,即这里不仅有训练,还有运气因素(谁在什么地方训练)。

因此,训练的结果并不总是可见的(可能正确估计),因为没有有效的样本来比较结果。

 
马克西姆-德米特里耶夫斯基

是的,这就是那里的学习方式--通过对抗性网络,有点像那样。人工智能与之对弈数千次,再现了许多不同的策略。最终,网络会制定出最佳策略。如果一个游戏的数量超过了一个职业棋手的游戏数量(相当于他们所说的200年的游戏),统计学上的优势将很可能在机器人这一边,因为它考虑了更多的组合。但是,找到一个独特的获胜地层的概率当然仍然是人

这个话题很有趣,但笼罩着神秘的色彩 :)交易是不同的,我们不能用我们的行为影响市场,我们也没有可能纠正错误,也许用仓位平均法......

 
马克西姆-德米特里耶夫斯基

如果你把图形分成几千和几百万块,并让机器人与之对弈那么多次,也许它会学会一直打败它,这又取决于小说的内容。

我的看法略有不同,游戏惯例是每一方都有一个由许多因素组成的数学分数--机器人的数量及其潜力、资产、金钱,而对手的目标是减少这个分数,以保持自己的分数高于对手的分数,也就是在结果上花费更少的精力。这就形成了一个相互影响的系统,很明显,通过牺牲一个单位,你会使对手的估计资产价值减少的幅度大于该单位的估计价值,那么这就是正确的决定,如果不是,那就是不正确的决定。在交易中,我们没有保证,只有概率,而在玩具中,有可以计算的数学保证。

我们不能影响局势,而在游戏中我们可以,包括自己创造有利可图的局面。