Reti neurali ibride. - pagina 7

 
joo >> :

In realtà, l'ho inventato quando ero in terza o quarta elementare. Quando si estraggono le radici? Ecco, stavo facendo radici quadrate, radici al cubo... Ma su un foglio di quaderno con dei quadrati.

Testato. I risultati sono davvero impressionanti.


Voce (vantarsi).
 
IlyaA >> :

Il compito che ho descritto non ti ha toccato? È un po' dappertutto. Assolutamente no. La maggior parte delle apparecchiature radio elettroniche è costruita su questo principio.

Non estrapoliamo o facciamo una media, isoliamo. L'integrazione del rumore funziona qui.

Il punto dell'apprendimento non è quello di isolare setacciando alcune delle caratteristiche speciali che si presentano e poi ricordarle. E non è nemmeno che non possiamo vagliare le caratteristiche.

Ho delineato il principio dell'apprendimento in uno dei thread:

L'apprendimento è il processo di acquisizione della capacità di generalizzare, di classificare, di astrarre, di poter trarre conclusioni.

Con quali mezzi è un'altra questione.

IlyaA ha scritto (a) >>.

Come imparano le persone? :) Leggono un argomento, poi un altro. Ogni argomento è studiato individualmente. Poi generalizzano. E in questo modo, la vostra griglia roteerà l'immagine e non generalizzerà nulla. Diventerà altamente specializzato.

Leggi sopra.

IlyaA ha scritto (a) >>.

Non leggere troppi libri, cosa mi consigli? Guardare la TV e sbattere la testa contro il muro?

Il significato è più profondo di quanto sembri, o piuttosto sembra che non ci sia alcun significato in queste parole. Il punto è pensare, ragionare, trarre conclusioni, non memorizzare.

IlyaA ha scritto (a) >>.

Suonare (vantarsi).

Non ne ho bisogno. C'era una domanda, c'era una risposta.

 
IlyaA >> :


Oh sì, la rete ai primi stadi è full-bonded, beh, o come le reti convoluzionali, ma ci sono molti strati). E tutta questa felicità viene moltiplicata per 10 e inizia ad accoppiarsi. Ognuno di loro deve essere elaborato, cioè abbiamo 10x. E se avete un'idea per insegnare un trucco redditizio, allora devo calcolare tutto l'intervallo di tempo per ogni generazione e farlo passare attraverso ogni progenie. Questa operazione ha richiesto molte risorse, quindi torno alla mia domanda originale.

Perché non usare RProp? Nel caso della genetica dà un'accelerazione significativa dei calcoli.

 
joo >> :

Lo scopo dell'apprendimento non è quello di isolare, setacciando alcune caratteristiche speciali che si presentano e poi ricordarle. Non è nemmeno che non possiamo vagliare le caratteristiche.

Ho delineato il principio dell'apprendimento in uno dei thread:

L'apprendimento è il processo di acquisizione della capacità di generalizzare, di classificare, di astrarre, di trarre conclusioni.

Con quali mezzi - questa è un'altra domanda.


Mi sembra che abbiamo iniziato a filosofeggiare e propongo di terminare la discussione su questo tema con una nota di "attaccamento alle nostre armi".
 
rip >> :

Perché non usare RProp? Nel caso della genetica, dà una notevole accelerazione dei calcoli.


Sono d'accordo che è più veloce, così come la discesa a gradiente. La differenza non è molta. Il punto di usare la genetica è che la probabilità di trovare un estremo GLOBALE si avvicina a 1. Nessun gradiente lo mostrerà (correggetemi se sbaglio). Inoltre, la superficie di un iperpiano ottimizzato è costellata da un numero infinito di estremi locali con ampiezze significative. Ma sempre più neuroni aggiungono altro olio al fuoco - l'iperpiano diventa ancora più intricato. In queste condizioni i gradienti convergono, ma come ho scritto sopra la probabilità di trovare un estremo globale è del 50-80%.
 
IlyaA писал(а) >>

Sono d'accordo che è più veloce, così come la discesa a gradiente. La differenza non è molta. Il punto di usare la genetica è che la probabilità di trovare un estremo GLOBALE è vicina a 1. Nessun gradiente lo mostrerà (correggetemi se sbaglio). Inoltre, la superficie di un iperpiano ottimizzato è costellata da un numero infinito di estremi locali con ampiezze significative. Ma sempre più neuroni aggiungono altro olio al fuoco - l'iperpiano diventa ancora più intricato. In queste condizioni i gradienti convergono, ma come ho scritto sopra la probabilità di trovare un estremo globale è del 50-80%.

Avete risultati concreti dal trading con questo sistema? >> Ne vale la pena?

 
IlyaA >> :


Sono d'accordo che è più veloce, così come la discesa a gradiente. La differenza non è molta. Il punto di usare la genetica è che la probabilità di trovare un estremo GLOBALE è vicina a 1. Nessun gradiente lo mostrerà (correggetemi se sbaglio). Inoltre, la superficie di un iperpiano ottimizzato è costellata da un numero infinito di estremi locali con ampiezze significative. Ma sempre più neuroni aggiungono altro olio al fuoco - l'iperpiano diventa ancora più intricato. In queste condizioni i gradienti convergono, ma come ho scritto sopra la probabilità di trovare un estremo globale è del 50-80%.

Sono d'accordo che il gradiente non fornisce il 100% di convergenza dell'algoritmo di apprendimento.

Uso i GA solo per ottenere una nuova topologia di rete. In media RProp mostra di raggiungere un minimo locale in 100-200 epoche.

Dopodiché, si trovano gli individui di maggior successo e si forma una nuova popolazione. Mutazione. RProp.

 
rip >> :

Sono d'accordo, il gradiente non fornisce il 100% di convergenza dell'algoritmo di apprendimento.

Uso i GA solo per ottenere una nuova topologia di rete. In media RProp mostra di raggiungere un minimo locale in 100-200 epoche.

Dopodiché, si trovano gli individui più performanti e si forma una nuova popolazione. Mutazione. RProp.


La combinazione significa. Signori, permettetemi di congratularmi con tutti! Abbiamo appena giustificato il nome del ramo. È un'idea! Ecco cosa mi è venuto in mente. Le mutazioni nella genetica cambiano il 20-40% delle scale in piccoli incrementi. C'è un'alta probabilità che la prole ritorni nell'habitat dei genitori?
 
FION >> :

Hai risultati concreti dal trading con questo sistema? >> Ne vale la pena?


Non ci sono risultati concreti. Solo idee e previsioni. Tutti i perceptron che ho fatto non sono sopravvissuti allo stadio di indicatore. Li ho respinti. :( L'idea migliore al momento supera l'intensità di risorse dell'algoritmo. Ma Vera continua a vivere (anche Nadya e Lyuba :).
 

Domanda.

Chi ha implementato le reti fuzzy Takagi-Sugeno-Kanga?