트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2415 1...240824092410241124122413241424152416241724182419242024212422...3399 새 코멘트 Mikhail Mishanin 2021.07.13 16:29 #24141 mytarmails : 구성이 명확할까요? 서로를 구별하는 지식이 없다면 ... 지식 습득 원하면 무엇을 읽어야 하는지 알려주세요 " 똑똑한 사람들을 읽어요, 한 시간에 정보(BENEFITS)를 읽으면 그 이상을 얻을 수 있습니다" 서로 진흙탕 그런 다음 모든 곳에서 일종의 지배력을 가지고 있습니다. 인내와 힘은 공허한 것에 낭비된다 영형 템포라 ! 영형 더 많은 !(((( mytarmailS 2021.07.13 17:00 #24142 미하일 미샤닌 : 지식 습득 원하면 무엇을 읽어야 하는지 알려주세요 " 똑똑한 사람들을 읽어요, 한 시간에 정보(BENEFITS)를 읽으면 그 이상을 얻을 수 있습니다" 서로 진흙탕 그런 다음 모든 곳에서 일종의 지배력을 가지고 있습니다. 인내와 힘은 공허한 것에 낭비된다 영형 템포라 ! 영형 더 많은 !(((( 이미 주어진, 읽을 사람도 시간도 .. 따라서 읽은 것의 30% 이상을 배운다면 과학자들 사이에서 당신이 "신"이라고 생각하십시오 ... 그리고 이 기사는 Habré에 관한 것입니다. 단지 부끄러운 일입니다. 거기에는 아무것도 없습니다! 과학적 참신함이나 최소한 흥미로운 아이디어는 없습니다. 그들은 단지 그들이 알고 있는 모든 것을 힙과 pzdt에 넣었습니다... 나는 R-ki와 4-5 기성품 패키지의 도움으로 몇 시간 안에 그러한 automl을 만들 수 있습니다 1) Rssa - 행을 구성 요소로 분해하기 위한 ssa 애벌레 2-3) 예측 , 캐럿 으로 다른 모델의 "팬"을 만들고 확인 4) GramEvol - 모델의 모든 변형, 모델의 모델, 모델의 모델 등의 진화적 열거용 어제 파이썬 강의를 수강한 학생들의 기사를 읽을 수 있습니다. 그들은 스스로를 데이터마이닝 구라미라고 상상하지만 아무것도 아닙니다. 그리고 40년 동안 과학 로봇에 전념하고 알고리즘을 연구하며 실제 문제를 해결한 사람들을 읽을 수 있습니다. 전국 최고 중 최고 ... 그래서 그런 분들의 작품을 한번쯤은 읽어보면 '블로그'를 읽는 것이 마치 만화책을 보는 듯한 느낌이 들 것입니다.. 그러나 여전히 책을 읽으면 Habré에 대한 기사에있는이 모든 automl이 있음을 알 수 있습니다. 책에서만 모든 것이 더 완전하고 성숙하며 더 rabasno하고 훨씬 더 간단합니다 ... 45년 전 일입니다. 포트폴리오: PriceChannelExpert 및 기타 엘리엇 파동 이론에 기반한 10포인트 3.mq4 Mikhail Mishanin 2021.07.13 17:30 #24143 mytarmailS : 이미 주어진, 읽을 사람도 시간도 .. 따라서 읽은 것의 30% 이상을 배운다면 과학자들 사이에서 당신이 "신"이라고 생각하십시오 ... 그리고 이 기사는 Habré에 관한 것입니다. 단지 부끄러운 일입니다. 거기에는 아무것도 없습니다! 과학적 참신함이나 최소한 흥미로운 아이디어는 없습니다. 그들은 단지 그들이 알고 있는 모든 것을 힙과 pzdt에 넣었습니다... 나는 R-ki와 4-5 기성품 패키지의 도움으로 몇 시간 안에 그러한 automl을 만들 수 있습니다 1) Rssa - 행을 구성 요소로 분해하기 위한 ssa 애벌레 2-3) 예측 , 캐럿 으로 다른 모델의 "팬"을 만들고 확인 4) GramEvol - 모델의 모든 변형, 모델의 모델, 모델의 모델 등의 진화적 열거용 그래서 그런 분들의 작품을 한번쯤은 읽어보면 '블로그'를 읽는 것이 마치 만화책을 보는 듯한 느낌이 들 것입니다.. 미안하지만 당신의 "육성"은 여전히 네트워크를 통해 돌진하고 있으며, 곱창으로 당신을 배신하고 통신 / 토론의 작은 메시지조차도 완전히 두드립니다. p/s 책을 읽다 mytarmailS 2021.07.13 17:43 #24144 미하일 미샤닌 : 죄송합니다만, 당신의 '교육'은 네트웍을 돌진하고, 곱창으로 당신을 배신하고, 작은 소통/토론의 메시지조차 완전히 무너뜨립니다. p/s 책을 읽다 정리할게 딱 2개네요.. 1) 다중 행 알고리즘(MGUA) 이 유전자 알고리즘 보다 나은/나쁜 이유는 무엇입니까? 2) 기사의 ssa가 다조화 근사(MGUA)보다 더 나은/나쁜 이유는 무엇입니까? 의견이 궁금해서 필요없어 책을 읽으면 의견이 있을텐데.. mytarmailS 2021.07.13 17:50 #24145 미하일 미샤닌 : 죄송합니다만, 당신의 '교육'은 네트웍을 돌진하고, 곱창으로 당신을 배신하고 , 작은 소통/토론의 메시지조차 완전히 무너뜨립니다. p/s 책을 읽다 내 양육은 나쁘고 나는 일반적으로 여기에서 나를 상상하지 않았기 때문에 무언가가 나를 배신했습니다)) mytarmailS 2021.07.13 18:36 #24146 미하일 미샤닌 : 뭐, 그렇게 생각했는데... 알다시피, 무례한 것이 낫지 만 평범한 발라 볼보다 당신이 말하는 것을 알고 있습니다 ... 시간을 낭비해서 죄송합니다. 다시는 그러지 않겠습니다. Renat Akhtyamov 2021.07.14 07:09 #24147 100년 동안 한 쌍의 샤프트만 바꾸면 아무 일도 일어나지 않을 것입니다. babos는 하나에서 다른 것으로 흐릅니다. Alexander Ivanov 2021.07.14 07:32 #24148 안녕하세요 기계공 여러분! martyngale은 머신 러닝이라는 미명 아래 AI의 주역을 밀어붙이고 있습니다. 도착했습니다. Renat Akhtyamov 2021.07.14 07:38 #24149 알렉산더 이바노프 : 안녕하세요 기계공 여러분! martyngale은 머신 러닝이라는 미명 아래 AI의 주역을 밀어붙이고 있습니다. 도착했습니다. 보았다 멋진 아브 당신은 그 길을 따라 시장에서 최고의 고객입니다 두 번째 다리에 대해 조금 더 생각하거나 첫 번째 다리가 잘못되었습니다 ... 짧은 브레인스토밍으로 ;) --- 그들은 여기서 시도한 마티니 컷 없이만 Alexander Ivanov 2021.07.14 07:55 #24150 레나트 아크티아모프 : 보았다 멋진 수목 당신은 그 길을 따라 시장에서 최고의 고객입니다 두 번째 다리에 대해 조금 더 생각하거나 첫 번째 다리가 잘못되었습니다 ... 짧은 브레인스토밍으로 ;) --- 그들은 여기서 시도한 마티니 컷 없이만 좋은. 사람이나 신이 금지한 경우 최소한 인사를 먼저 합니까? 1...240824092410241124122413241424152416241724182419242024212422...3399 새 코멘트 트레이딩 기회를 놓치고 있어요: 무료 트레이딩 앱 복사용 8,000 이상의 시그널 금융 시장 개척을 위한 경제 뉴스 등록 로그인 공백없는 라틴 문자 비밀번호가 이 이메일로 전송될 것입니다 오류 발생됨 Google으로 로그인 웹사이트 정책 및 이용약관에 동의합니다. 계정이 없으시면, 가입하십시오 MQL5.com 웹사이트에 로그인을 하기 위해 쿠키를 허용하십시오. 브라우저에서 필요한 설정을 활성화하시지 않으면, 로그인할 수 없습니다. 사용자명/비밀번호를 잊으셨습니까? Google으로 로그인
구성이 명확할까요? 서로를 구별하는 지식이 없다면 ...
지식 습득 원하면 무엇을 읽어야 하는지 알려주세요 " 똑똑한 사람들을 읽어요, 한 시간에 정보(BENEFITS)를 읽으면 그 이상을 얻을 수 있습니다" 서로 진흙탕
그런 다음 모든 곳에서 일종의 지배력을 가지고 있습니다.
인내와 힘은 공허한 것에 낭비된다
영형 템포라 ! 영형 더 많은 !((((
지식 습득 원하면 무엇을 읽어야 하는지 알려주세요 " 똑똑한 사람들을 읽어요, 한 시간에 정보(BENEFITS)를 읽으면 그 이상을 얻을 수 있습니다" 서로 진흙탕
그런 다음 모든 곳에서 일종의 지배력을 가지고 있습니다.
인내와 힘은 공허한 것에 낭비된다
영형 템포라 ! 영형 더 많은 !((((
이미 주어진, 읽을 사람도 시간도 ..
따라서 읽은 것의 30% 이상을 배운다면 과학자들 사이에서 당신이 "신"이라고 생각하십시오 ...
그리고 이 기사는 Habré에 관한 것입니다. 단지 부끄러운 일입니다. 거기에는 아무것도 없습니다! 과학적 참신함이나 최소한 흥미로운 아이디어는 없습니다. 그들은 단지 그들이 알고 있는 모든 것을 힙과 pzdt에 넣었습니다...
나는 R-ki와 4-5 기성품 패키지의 도움으로 몇 시간 안에 그러한 automl을 만들 수 있습니다
1) Rssa - 행을 구성 요소로 분해하기 위한 ssa 애벌레
2-3) 예측 , 캐럿 으로 다른 모델의 "팬"을 만들고 확인
4) GramEvol - 모델의 모든 변형, 모델의 모델, 모델의 모델 등의 진화적 열거용
어제 파이썬 강의를 수강한 학생들의 기사를 읽을 수 있습니다. 그들은 스스로를 데이터마이닝 구라미라고 상상하지만 아무것도 아닙니다.
그리고 40년 동안 과학 로봇에 전념하고 알고리즘을 연구하며 실제 문제를 해결한 사람들을 읽을 수 있습니다. 전국 최고 중 최고 ...
그래서 그런 분들의 작품을 한번쯤은 읽어보면 '블로그'를 읽는 것이 마치 만화책을 보는 듯한 느낌이 들 것입니다..
그러나 여전히 책을 읽으면 Habré에 대한 기사에있는이 모든 automl이 있음을 알 수 있습니다. 책에서만 모든 것이 더 완전하고 성숙하며 더 rabasno하고 훨씬 더 간단합니다 ...
45년 전 일입니다.
이미 주어진, 읽을 사람도 시간도 ..
따라서 읽은 것의 30% 이상을 배운다면 과학자들 사이에서 당신이 "신"이라고 생각하십시오 ...
그리고 이 기사는 Habré에 관한 것입니다. 단지 부끄러운 일입니다. 거기에는 아무것도 없습니다! 과학적 참신함이나 최소한 흥미로운 아이디어는 없습니다. 그들은 단지 그들이 알고 있는 모든 것을 힙과 pzdt에 넣었습니다...
나는 R-ki와 4-5 기성품 패키지의 도움으로 몇 시간 안에 그러한 automl을 만들 수 있습니다
1) Rssa - 행을 구성 요소로 분해하기 위한 ssa 애벌레
2-3) 예측 , 캐럿 으로 다른 모델의 "팬"을 만들고 확인
4) GramEvol - 모델의 모든 변형, 모델의 모델, 모델의 모델 등의 진화적 열거용
그래서 그런 분들의 작품을 한번쯤은 읽어보면 '블로그'를 읽는 것이 마치 만화책을 보는 듯한 느낌이 들 것입니다..
미안하지만 당신의 "육성"은 여전히 네트워크를 통해 돌진하고 있으며, 곱창으로 당신을 배신하고 통신 / 토론의 작은 메시지조차도 완전히 두드립니다.
p/s 책을 읽다
죄송합니다만, 당신의 '교육'은 네트웍을 돌진하고, 곱창으로 당신을 배신하고, 작은 소통/토론의 메시지조차 완전히 무너뜨립니다.
p/s 책을 읽다
정리할게 딱 2개네요..
1) 다중 행 알고리즘(MGUA) 이 유전자 알고리즘 보다 나은/나쁜 이유는 무엇입니까?
2) 기사의 ssa가 다조화 근사(MGUA)보다 더 나은/나쁜 이유는 무엇입니까?
의견이 궁금해서 필요없어 책을 읽으면 의견이 있을텐데..
죄송합니다만, 당신의 '교육'은 네트웍을 돌진하고, 곱창으로 당신을 배신하고 , 작은 소통/토론의 메시지조차 완전히 무너뜨립니다.
p/s 책을 읽다
내 양육은 나쁘고 나는 일반적으로 여기에서 나를 상상하지 않았기 때문에 무언가가 나를 배신했습니다))
뭐, 그렇게 생각했는데...
알다시피, 무례한 것이 낫지 만 평범한 발라 볼보다 당신이 말하는 것을 알고 있습니다 ...
시간을 낭비해서 죄송합니다. 다시는 그러지 않겠습니다.
100년 동안 한 쌍의 샤프트만 바꾸면 아무 일도 일어나지 않을 것입니다.
babos는 하나에서 다른 것으로 흐릅니다.
안녕하세요 기계공 여러분!
martyngale은 머신 러닝이라는 미명 아래 AI의 주역을 밀어붙이고 있습니다.
도착했습니다.
안녕하세요 기계공 여러분!
martyngale은 머신 러닝이라는 미명 아래 AI의 주역을 밀어붙이고 있습니다.
도착했습니다.
보았다
멋진 아브
당신은 그 길을 따라 시장에서 최고의 고객입니다
두 번째 다리에 대해 조금 더 생각하거나 첫 번째 다리가 잘못되었습니다 ...
짧은 브레인스토밍으로
;)
---
그들은 여기서 시도한 마티니
컷 없이만
보았다
멋진 수목
당신은 그 길을 따라 시장에서 최고의 고객입니다
두 번째 다리에 대해 조금 더 생각하거나 첫 번째 다리가 잘못되었습니다 ...
짧은 브레인스토밍으로
;)
---
그들은 여기서 시도한 마티니
컷 없이만
좋은.
사람이나 신이 금지한 경우 최소한 인사를 먼저 합니까?