Rete neurale - pagina 10

 
Molte persone discutono sul fatto che la rete cerca e impara regole, da una varietà di regole di input che funzioneranno per il profitto...... Ho un'altra domanda....È possibile, o meglio, come insegnare alla rete a lavorare con regole preconfezionate? ......Guardiamo il sistema del canale......Non importa come o in quali circostanze il canale è costruito. Come insegnare a una rete a lavorare all'interno di un canale o sulla sua svolta?????? Bene le menti della rete neurale......Cosa può suggerire a questo proposito? Prendete almeno una rete senza un insegnante.....Rekur, per esempio. Come preparare gli input in modo che la rete capisca ciò che le viene richiesto? se ha originariamente un canale che cambia nel tempo........
 
nikelodeon >>:
Многие рассуждают о том чтобы сеть искала и учила правила, из многообразия правил входов, которые будут работать на прибыль......У меня другой вопрос....Возможноли, вернее, как научить сеть работать по готовым правилам?......Возмём канальную систему......Неважно как и при каких обстоятельствах строится канал. Как научить сеть работать внутрь канала или на его пробитии?????? Ну нейросетевые умы......что можете предложить по этому поводу?. Взять хотябы сеть без учителя.....Рекур, например. Как подготовить входы так, чтоб сеть поняла что от неё требуеться? если изначально имееться меняющийся со временем канал........

Se abbiamo regole già pronte, a che diavolo ci serve una rete neurale?

La domanda è retorica, non c'è bisogno di rispondere.

 

Aggiungendo un input, sotto forma di un demolitore, è possibile aumentare la redditività del sistema.....La rete calcolerà quali scoperte sono false o vere, qualcosa del genere.......

 
nikelodeon писал(а) >>

Aggiungendo un input, sotto forma di un demolitore, è possibile aumentare la redditività del sistema.....La rete calcolerà quali guasti sono falsi e quali sono veri, qualcosa del genere.......

Sembra che lei sopravvaluti le capacità delle reti neurali.

Al tuo post del 09.08.2009 21:00.

Una rete da sola non può cercare nulla. Può solo rivelare alcune regolarità (legami tra ingressi e uscite; è allora possibile utilizzare la "conoscenza" accumulata per calcolare le uscite in una situazione sulla quale la rete non è stata direttamente addestrata). Cioè, la ricerca di modelli è possibile solo se e quando esistono.

Ora al tuo post del 09.08.2009 21:56.

Se conosci le regolarità sulla penetrazione dei canali (il tuo esempio) - perché usare una rete neurale quando puoi implementarle più facilmente? Le reti neurali sono un approccio generalizzato; è inutile usare un approccio generalizzato quando un caso particolare è follemente semplice. Le AM possono anche essere introdotte nel regolamento. Ci deve essere una relazione tra il comportamento dell'AM e le rotture del canale (e dovete essere in grado di esprimere questa relazione). Le reti neurali non fanno miracoli da sole.

p.s. Allora rispondo alla sua domanda: "È possibile, o meglio, come insegnare a una rete a lavorare con regole già pronte?" Sì, è possibile, se si ha comprensione della matematica usata nelle reti neurali. A proposito, una rete neurale ricorrente non è l'esempio migliore. Prendete qualcosa di più semplice (perceptron multistrato senza feedback) - è fatto lì senza problemi.

 
Buon pomeriggio a tutti qui su questo thread. Vorrei fare una domanda alle persone che conoscono NS. Sono un perdente totale. Ho recentemente creato in MQL-4 una rete di backspreading con uno strato nascosto. Lo alimento con quotazioni delta. Normalizzo gli ingressi e le uscite di rete degli strati usando sigmoid-0.5. Insegno la direzione del movimento dei prezzi fino a quando un errore su un campione di prova smette di diminuire. Ho rilevato un paio di cose spiacevoli: 1. Per qualche motivo, la rete dà solo 2 varianti di uscita. Così, è impossibile distinguere i segnali deboli da quelli forti. È una peculiarità della rete a 3 strati? Forse dovremmo aumentare il numero di strati? 2. L'errore RMS è tanto più piccolo quanto più le soglie di uscita superiore e inferiore sono vicine tra loro. Quando le soglie sono uguali, la lettura è almeno 0,22. È normale?
 
Cosa le stai insegnando? Se gli insegnate due "opzioni di uscita" - su e giù, come ho capito, le imparerà. Se si fanno più neuroni all'uscita - cioè si aumenta il numero di classi - ad esempio trade forti, deboli più un flat, si può ottenere una previsione più dettagliata. Uno strato nascosto è sufficiente. Quali sono le soglie? Il peso di bias non è impostato esternamente, ma è addestrato nello stesso modo degli altri pesi. Se la funzione di attivazione è sigmoidale, perché abbiamo bisogno di soglie? Avete provato senza soglie?
 

vedere un esempio di quali input sono alimentati a una rete neurale. http://www.nnea.net/research/18-neural-network-forecast-indicator



 

Non ho trovato nessuna entrata lì...

 
Burgunsky писал(а) >>
Ho scoperto un paio di cose spiacevoli: 1. La rete per qualche motivo dà solo 2 opzioni di uscita. Così sembra impossibile separare i segnali deboli da quelli forti. È una peculiarità della rete a 3 strati? Forse è necessario aumentare il numero di strati? 2. L'errore RMS è tanto più piccolo quanto più le soglie di uscita superiore e inferiore sono vicine tra loro. Quando le soglie sono uguali, la lettura è almeno 0,22. È normale?

No, questa non è una caratteristica delle reti a 3 strati, il segnale all'uscita della rete è una funzione continua. Forse hai già qualche classificatore incorporato all'uscita della griglia, che dà il segnale finale, per esempio se l'uscita della griglia è maggiore di 0,5 allora 1, meno di 0, o se l'uscita della griglia è maggiore di 0,5 allora 1, meno di -1.

Riguardo alle soglie, non capisco ancora, dovresti descrivere in dettaglio tutto quello che hai nel tuo algoritmo e come è costruito, allora sarà possibile pensare alle domande che ti poni...

 
Swetten писал(а) >>

Non riesco a trovare nessuna entrata lì...

Nemmeno io... Possiamo solo supporre che sia il numero di caselle in cui il prezzo è sceso, forse qualche altra condizione aggiuntiva...

Forse MeteQuotes non ha visto la pubblicità del decompilatore...