모델이 토폴로지를 개선하고 동일한 정확도로 몇 개의 뉴런을 내보냈기 때문에 피트니스가 향상될 수 있습니다. 코드의 주석에서 내가 이해한 한 이것은 Lua를 사용한 포트입니다. 원본이 이미 C++에 있었기 때문에 Lua도 포트입니다. http://nn.cs.utexas.edu?neat Port from port는 아쉽고 불필요한 작업이 많이 발생합니다. RNeat의 작성자가 C++ 코드를 기반으로 하고 네트워크의 진화를 위해 기존 R 유전자 패키지를 적용했다면 더 좋았을 것입니다.
모델이 토폴로지를 개선하고 동일한 정확도로 몇 개의 뉴런을 내보냈기 때문에 피트니스가 향상될 수 있습니다.
코드의 주석에서 내가 이해한 한 이것은 Lua를 사용한 포트입니다. 원본이 이미 C++에 있었기 때문에 Lua도 포트입니다. http://nn.cs.utexas.edu?neat
Port from port는 아쉽고 불필요한 작업이 많이 발생합니다. RNeat의 작성자가 C++ 코드를 기반으로 하고 네트워크의 진화를 위해 기존 R 유전자 패키지를 적용했다면 더 좋았을 것입니다.
한 사이트에서 다른 메모를 찾았습니다. 어떤 이유로 더 이상 작동하지 않습니다.
아마도 누군가가 관심을 가질 것입니다:
… 다음 단계는 새로운 모델이었습니다: 종가 에 저역 통과 필터를 적용하고 (저는 2차 버터워스 필터를 사용했습니다), 다항식-조파 근사를 적용하고, 변환 A*cos(wx)+B*sin(wx) M*sin(wx+f) 형식으로 변환하고 M과 f를 2차 기능으로 사용합니다.
…. 그리고 이 모델을 사용하여 아주 좋은 일반화 속성을 가진 네트워크를 구축할 수 있었습니다. 새 데이터로 거의 모든 것을 올바르게 인식했습니다.
Yury Reshetov - Yury, 그 사람이 일반적으로 여기에 쓴 내용을 이해합니까? 다시 만들 수 있습니까?
최근 센트 지폐를 자랑하는 것이 유행이되었습니다.
mytarmailS :
… 다음 단계는 새로운 모델이었습니다: 종가 에 저역 통과 필터를 적용하고 (저는 2차 버터워스 필터를 사용했습니다), 다항식-조파 근사를 적용하고, 변환 A*cos(wx)+B*sin(wx) M*sin(wx+f) 형식으로 변환하고 M과 f를 2차 기능으로 사용합니다.
… 그리고 이 모델을 사용하여 아주 좋은 일반화 속성을 가진 네트워크를 구축할 수 있었습니다. 새 데이터로 거의 모든 것을 올바르게 인식했습니다.
Yury Reshetov - Yury, 그 사람이 일반적으로 여기에 쓴 내용을 이해합니까? 다시 만들 수 있습니까?
솔직히 말해서, 정말 아닙니다. 많은 질문:
우리는 구체적인 내용이 없는 일종의 과학 텍스트인 것처럼 보입니다.
따라서 위의 질문에 대한 답변을 모르면 실제로 재현하는 방법과 적절한 결과를 얻을 수 있는지 여부만 추측할 수 있습니까?
어딘가에 광고가 있었나요?
여기서 문제는 자랑과 센트 지폐가 아닙니다.
문제는 다릅니다.
토론 참가자들은 내 의견으로는 불필요한 입구를 밀어 넣어 어떤 성배 를 찾기를 희망합니다.
그리고 그들은 개발 된 전략이나 전술의 기성 규칙을 찌를 필요가 있음을 완전히 잊어 버립니다. 누구에게 더 가깝습니까?
기계는 사용자가 입력한 작업만 수행합니다.
입구의 헛간은 출구의 헛간과 동일합니다.
죄송합니다.
여기서 문제는 자랑과 센트 지폐가 아닙니다.
문제는 다릅니다.
토론 참가자들은 내 의견으로는 불필요한 입구를 밀어 넣어 어떤 성배를 찾기를 희망합니다.
그리고 그들은 개발 된 전략이나 전술의 기성 규칙을 찌를 필요가 있음을 완전히 잊어 버립니다. 누구에게 더 가깝습니까?
기계는 사용자가 입력한 작업만 수행합니다.
입구의 헛간은 출구의 헛간과 동일합니다.
죄송합니다.
단백질 신경망은 입력과 출력 모두에서 타작마당으로 가득 차 있을 수도 있습니다.
죄송합니다.
단백질 신경망은 입력과 출력 모두에서 타작마당으로 가득 차 있을 수도 있습니다.
죄송합니다.
여기 내가 말하는 내용이 있습니다.
주제에 대해 할 말이 있습니까?
여기 내가 말하는 내용이 있습니다.
주제에 대해 할 말이 있습니까?
그래서 당신을 위한 질문입니다. )
이 전술은 무엇입니까? 머리는 무엇을 생각해 냈습니까? 그러니 나에게 말해봐?