Quelle est la profondeur optimale de l'historique pour identifier un signal utile ? - page 20

 
ZaPutina:
Je vois que vous n'avez pas eu de conversation avec votre gendre...

Avec un ex beau-fils. Ce n'est pas un mauvais psychiatre, mais il ne connaît rien aux méthodes de réduction de la dimensionnalité des problèmes d'optimisation.

Je vais vous révéler un terrible secret : avec une fonction cible lisse, la dimensionnalité du problème de la recherche des valeurs optimales des paramètres peut être presque divisée par deux très facilement. Le résultat le plus important de la réduction de la dimensionnalité peut être obtenu lorsque l'intervalle d'optimisation entier est divisé en plusieurs parties avec deux intervalles dans chacune. Cela aboutit finalement au dessin d'un cube multidimensionnel avec 2 intervalles pour chaque bord. Comme le problème d'optimisation se résume toujours à la comparaison de ces intervalles, la complexité de calcul de l'algorithme est proportionnelle au périmètre du cube multidimensionnel.

Il est utilisé dans l'optimisation dynamique (à la volée) des paramètres de quelque chose ; ce processus est parfois appelé adaptation, car un système capable de s'optimiser en temps réel est évidemment adaptatif.

 
tara:
Parce que le plus petit périmètre a un carré.
Une déclaration assez controversée ;)
 
Oui ?
 
ZaPutina:

1-Le degré de deux dans ce post était clair, ce degré n'est pas seulement 32 mais aussi 16 et 64, pourquoi 32 était le rapport optimal de la détection du signal et des coûts de calcul. Et sur quel délai un tel compromis a été atteint, certainement pas sur le délai de 5 minutes. Par ailleurs, l'auteur de ce billet a suggéré d'utiliser une grande échelle de temps car mon compte est long. Il se limite à 32 mesures d'historique pour la prévision en stipulant qu'il compte une demi-seconde pour 64 mesures et il se demande combien de temps il faudra pour obtenir 720 mesures. Qu'y a-t-il donc de si extravagant s'il utilise déjà un grand TF (il n'a pas encore dit lequel).

2- La méthode chpc existe, les implémentations ont des vélos communs et privés, et ce...

3-Pour en revenir à vos courbes sur les tangentes, il y a des manières graphiques où il ne faut rien moyenner, les courbes peuvent sauter en valeurs absolues, mais il y a des zones où elles ne changent pas (un certain contexte) après avoir quitté ces zones, on regarde où le mouvement est allé, et on roule, car dans la plupart des cas il va continuer, il est évident que les deux méthodes se réduisent à peu près à la même chose.

Mais s'il est possible d'intégrer vos courbes dans un cluster multi-devises (à un stade postérieur à la construction de l'indice), alors je ne pense pas qu'il sera plus facile d'interpréter ces courbes dans une analyse conjointe simultanée. Même si je ne sais pas, ils vont simplement dessiner des points d'entrée et c'est tout.

Mes courbures n'ont pas été discutées. Ils ont un autre but.

Et ce fil de discussion porte sur le théorème de Kotelnikov. C'est un peu décousu, mais c'est à peu près ça.

 
tara:
Je ne pense pas qu'ils parlaient de mes courbes. Ils ont un objectif différent.
L'opinion que vous avez de votre exclusivité va vous ruiner)))). ouf ouf ouf ouf ouf
 
ZaPutina:
L'opinion que vous avez de votre exclusivité vous ruinera)))). ouf ouf ouf ouf ouf ouf ouf ouf ouf ouf ouf ouf ouf ouf ouf ouf ouf ouf ouf.
Patriote, dois-je accrocher un sac de cendres à vos pieds sur un cordon ?
 
Champignons, ou baies ?
 
Vous savez mieux que quiconque dans quel contexte vous avez posé la question.
 

Endormi ?

 
Je lui ai demandé ?