Equazione di regressione - pagina 16

 
lea:

Quanto tempo ha impiegato per fare questa scoperta? :)

hrenfx ha fatto e postato un eccellente lavoro di laboratorio - e voi? ;-)
Per esempio, non vuoi aprire qualcosa come "matrici nell'analisi valutaria"?
 
jartmailru:
Per esempio, vuoi per caso iniziare qualcosa come "matrici nell'analisi valutaria"?

Ne ho abbastanza dei miei laboratori, grazie.

Mi hanno fatto dormire un giorno sì e uno no per la seconda settimana di seguito.

 
lea:

Ne ho abbastanza dei miei laboratori, grazie.

Mi hanno fatto dormire una notte sì e una no per la seconda settimana.

Sputa il rospo. C'è una mancanza catastrofica di roba buona.

P.S. Naturalmente, è inevitabile che ti venga fatta la cacca addosso. Ma a un certo punto smetterai di prestare attenzione.

 
hrenfx:

Sputa il rospo. C'è catastroficamente poco di utile.

P.S. Naturalmente, è inevitabile che ti venga fatta la cacca addosso. Ma ad un certo punto smetterai di farci caso.


)) Quindi probabilmente si tratta di università :)
 
 
j21:

Per quanto riguarda l'articolo - ho visto da qualche parte un'implementazione (o simile) dell'algoritmo (di questi autori). Appena lo trovo, lo posterò.

P.S. Non ho l'articolo completo. ((

Se qualcuno ha ancora interesse, il secondo autore dell'articolo nell'introduzione al suo dottorato in economia (2006, Muravyev, Dmitry Georgievich, Mathematical and Instrumental Methods in Economics, Scientific Library of Dissertations and Author's Abstracts dissertationCat http://www.dissercat.com/content/matematicheskie-metody-razrabotki-i-otsenki-strategii-torgovli-na-mezhbankovskom-valyutnom-r?_openstat=cmVmZXJ1bi5jb207bm9kZTthZDE7#ixzz3vXr6iRi5) nota:

"I metodi e gli algoritmi sviluppati in questo documento sono basati sulle idee di V.N. Vapnik di trovare una regola vicina alla migliore della classe per una data dimensione del campione con la stima della qualità della regola sulla popolazione generale con una data affidabilità.

Vapnik si è occupato di pattern recognition per decenni, e applicato al detto "rule finding" ha scritto un'ottima monografia

Vapnik V. N. Dependence reconstruction from empirical data.-Moscow: Nauka, 1979. - 448 p. http://www. machinelearning.ru/wiki/index.php?title=%D0%9F%D1%83%D0%B1%D0%BB%D0%B8%D0%BA%D0%B0%D1%86%D0%B8%D1%8F:%D0%92%D0%B0%D0%BF%D0%BD%D0%B8%D0%BA_1979_%D0%92%D0%BE%D1%81%D1%81%D1%82%D0%B0%D0%BD%D0%BE%D0%B2%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B7%D0%B0%D0%B2%D0%B8%D1%81%D0%B8%D0%BC%D0%BE%D1%81%D1%82%D0%B5%D0%B9

Viene introdotta la nozione di rischio medio, o rischio empirico, che include non solo il rischio di deviazione della funzione approssimativa dai dati disponibili (è minimizzato da OLS) ma anche il rischio di un numero eccessivo di parametri o funzioni montate.

Ho usato, se ricordo bene, il suo altro libro, 1984, Algorithms and Dependency Recovery Programs, che mi ha permesso di scrivere un'implementazione direttamente dal testo del libro in Fortran. Ho preso da diversi luoghi funzioni definite per punti, calcolato approssimazioni con polinomi algebrici e trigonometrici, combinazioni miste di qualsiasi funzione. Sono rimasto stupito dalla precisione con cui i suoi algoritmi hanno determinato quanti parametri mantenere e quanti saranno inutili. Sono rimasto sorpreso nel senso che in quasi tutti gli esempi io stesso avrei lasciato la stessa quantità e gli stessi parametri.