Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
No es una tendencia aquí, es un lío ramplón.
Vagabundeo aleatorio )):
Si para mí el autor de este hilo debería escribir un gran cartel con la sabiduría más importante del trader - La tendencia es un amigo y leerlo cien veces al día como una oración, entonces su trading puede comenzar.
Divagaciones al azar )):
En general, creo que el autor de este hilo debería escribir un gran cartel con la sabiduría más importante del trader - Trend My Friend, y leerlo cien veces al día, como una oración, entonces su trading puede ir mejor.
El azar no interviene en la definición de la información.
Se equivoca. Un concepto significativo de información (no un concepto parlanchín, sino uno que permite expresarlo numéricamente) fue introducido por primera vez por Claude Shannon, basándose en un modelo probabilístico de aleatoriedad.
Se equivoca. Un concepto significativo de información (no un concepto parlanchín, sino uno que permite expresarlo numéricamente) fue introducido por primera vez por Claude Shannon, basándose en un modelo probabilístico de aleatoriedad.
Sólo tiene una parte de información sobre la información, y esa parte, aunque no es insignificante, sigue teniendo un valor auxiliar.
No hay que reducir la noción de información a una estrecha definición de Shannon, relativa a la capacidad de transporte de un canal de comunicación (teoría de la información de C.Shannon). Ignorar el significado de un mensaje y la importancia del significado de un mensaje para el emisor y el receptor es malinterpretar el problema en su totalidad.
Para empezar, hay que tener en cuenta el panorama general:
http://terme.ru/termin/informacija.html#item-5215
Se equivoca. Claude Shannon fue el primero en introducir una noción significativa de la información (no de parloteo, sino de posibilidad de expresarla numéricamente), basada en un modelo probabilístico de aleatoriedad.
Y en general, hace tiempo que noto que casi todas mis afirmaciones provocan un furioso espíritu de contradicción contigo.
¿Por qué debería ser así? ;)))
Esto sugiere que estamos ante una especie de simbiosis de un proceso SB del tipo Ornstein-Uhlenbeck y un proceso de memoria.
Si no existieran esos valores atípicos, mi TS sería 100% rentable, y quien afirme que es imposible ganar dinero en SB es un imbécil. En una moneda, no lo sé, pero en un OM, es fácil.
Y es imposible eliminar estos valores atípicos en las colas - esto también se ha demostrado en este hilo. Tienes que vivir con ellos de alguna manera... ¿Cómo? No hay respuesta...
La SB y el op-amp son procesos fundamentalmente diferentes, no los confundas o se reirán de ti. Opu es estacionario y con memoria, SB es no estacionario y sin ella.
Pues bien, toma barras de alcance y no tendrás colas. Sólo habrá dos palos en la distribución.
No se trata de colas.
déjame leerlo).
¿Cómo se llama el libro?
¿Entiendes la teoría de los juegos? ¿En su formulación diferencial? Te he dado un enlace al trabajo de Pontryagin. ¿Lo tienes? Si no es así, le recomiendo encarecidamente que lo haga.
Sólo tiene una parte de la información sobre la información. Y esta parte, aunque no es insignificante, sigue teniendo una importancia auxiliar.
No se puede reducir el concepto de información a una estrecha definición de Shannon del ancho de banda de un canal de comunicación (teoría de la información de C.Shannon). Ignorar el significado de un mensaje y la importancia del significado de un mensaje para el emisor y el receptor es malinterpretar el problema en su totalidad.
Para empezar, hay que tener en cuenta el panorama general:
http://terme.ru/termin/informacija.html#item-5215
Bueno, sí, como he escrito, parloteo. Es imposible calcular nada sin el enfoque de Shannon.
Como diceWikipedia: "La aparición de la teoría de la información se asocia a la publicación de La teoría matemática de la comunicación de Claude Shannon en 1948".
Bueno, sí, como he escrito, parloteo. Es imposible calcular nada sin el enfoque de Shannon.
Como diceWikipedia: "La aparición de la teoría de la información se asocia a la publicación de La teoría matemática de la comunicación de Claude Shannon en 1948".
Ahí tienes otra vez, persistiendo en tu malentendido.