바로 지금, 처음으로 나는 활을 뿌릴 것입니다. 유리는 보이는 것처럼 단순하지 않습니다. 물리학 자! 나는 그가 무엇을 하고 있는지 이해했습니다. 그는 두 개의 병렬 프로세스가 진행 중인 것 같았습니다. 하나는 확률론적인 것으로 거래할 때가 된 것 같다고 합니다. 두 번째 - NS는 좋거나 거부합니다. 더 이상 말하지 않겠습니다 - 그가 스스로에게 말하게 하십시오.
MLP ~60 뉴런. 알고리즘은 표준 BP입니다. 교육 - 거기로 가십시오. 나는 어디에 있는지 모릅니다. 저것들. 나는 국회가 거기서 무엇을 공부하는지 모른다. 또한 학습의 모든 원칙은 Huikin, Bishop과 같은 고전 단행본에 나와 있습니다. 소프트웨어는 MQL이 아닙니다.
MLP ~60 뉴런. 알고리즘은 표준 BP입니다. 교육 - 거기로 가십시오. 나는 어디에 있는지 모릅니다. 저것들. 나는 국회가 거기서 무엇을 공부하는지 모른다. 또한 학습의 모든 원칙은 Huikin, Bishop과 같은 고전 단행본에 나와 있습니다. 소프트웨어는 MQL이 아닙니다.
Искусственный интеллект AlphaGo показал прекрасные результаты самообучения: за три дня нейросеть от уровня начинающего игрока в «Го» дошла до уровня профессионала, одерживающего только победы Разработчики DeepMind усовершенствовали искусственный интеллект AlphaGo. Новая модель ИИ AlphaGo Zero обучалась «с нуля» без участия человека, играя сама...
fuhh.. 처음부터 내 모습까지 전체 주제를 읽었습니다.. 이제 나는 모든 것을 보았습니다.
하지만 나는 거기에서 성배를 찾지 못했습니다 .. 죄송합니다. 나중에 내 것을 선택할 것입니다.
이것은 올바른 결정입니다. 여기 포럼의 NS 이론은 이상적이지 않습니다.
내가 쓴 유일한 것은 삼항 분류기에 관한 것이고 Yuriy Asaulenko 의 미스터리를 풀기 위해
이것은 올바른 결정입니다. 여기 포럼의 NS 이론은 이상적이지 않습니다.
내가 쓴 유일한 것은 삼항 분류기에 관한 것이고 Yuriy Asaulenko 의 미스터리를 풀기 위해
내가 쓴 유일한 것은 삼항 분류기에 관한 것이고 Yuriy Asaulenko 의 미스터리를 풀기 위해
그리고 그 비밀을 어디에서 찾았습니까?
MLP ~60 뉴런. 알고리즘은 표준 BP입니다. 교육 - 거기로 가십시오. 나는 어디에 있는지 모릅니다. 저것들. 나는 국회가 거기서 무엇을 공부하는지 모른다. 또한 학습의 모든 원칙은 Huikin, Bishop과 같은 고전 단행본에 나와 있습니다. 소프트웨어는 MQL이 아닙니다.
내 의견으로는 주요 원칙이 이 주제에 명시되어 있습니다.
그리고 그 비밀을 어디에서 찾았습니까?
MLP ~60 뉴런. 알고리즘은 표준 BP입니다. 교육 - 거기로 가십시오. 나는 어디에 있는지 모릅니다. 저것들. 나는 국회가 거기서 무엇을 공부하는지 모른다. 또한 학습의 모든 원칙은 Huikin, Bishop과 같은 고전 단행본에 나와 있습니다. 소프트웨어는 MQL이 아닙니다.
내 의견으로는 주요 원칙이 이 주제에 명시되어 있습니다.
그것은 일종의 농담이었습니다 :)
그것은 일종의 농담이었습니다 :)
아니요. 정말 아무것도 없습니다. 당신은 Haikin과 Bishop이 절망적으로 구식이며 새로운 것을 찾고 있다고 생각합니다. 그리고 나는 그것들로 충분합니다.
아뇨 제가 그런 농담을 하는 것 같다는 얘기인데요.. 결국 주제에 너만 나온 얘기네요 :)
Monte Carlo 방법으로 퍼셉트론 훈련을 구글링해야 합니다.
일반적으로 이 방법은 특정 학습 에이전트가 있을 때 RL(reinforcement learning)과 의미가 매우 유사하며 NN 자체가 최적의 솔루션을 찾는 방법을 학습합니다.
이것이 Alpha Go가 학습되는 방식입니다(이전에는 이것이 창의적인 게임이고 기계가 그 안에 있는 사람을 이길 수 없다고 가정했지만)
그리고 그것은 이겼다
https://techfusion.ru/nejroset-alphago-pereveli-na-samoobuchenie/
아뇨 제가 그런 농담을 하는 것 같다는 얘기입니다.. 결국 주제에 너만 나온 얘기네요 :)
Monte Carlo 방법으로 퍼셉트론 훈련을 구글링해야 합니다.
일반적으로 이 방법은 특정 학습 에이전트가 있을 때 RL(reinforcement learning)과 의미가 매우 유사하며 NN 자체가 최적의 솔루션을 찾는 방법을 학습합니다.
그건 그렇고, 나는 크게 당신 덕분에 왔습니다. 내가 처음 시작할 때 Reshetov의 기사에 대한 링크를 제공한 것은 당신이었습니다. 이 기사는 일반적으로 적용의 예가 아니라 말을 어디에서 이용할 수 있는지 대략적으로 분명해졌습니다.
Google에 그러한 방법이 있는지 여부는 모르겠습니다. 왜냐하면 그는 결국 몬테카를로에 왔습니다.
저도 RL은 잘 모르겠는데 간략히 설명해주시니 제 방식 같네요.
Google에서 Monte Carlo를 찾았습니다. https://logic.pdmi.ras.ru/~sergey/teaching/mlbayes/08-neural.pdf 이것만 완전히 다릅니다.