L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3231

 
Forester #:
Pourquoi en avez-vous besoin ? Lorsque j'expérimentais R, j'ai utilisé la dll-ku commandée par SanSanych. Elle fonctionne bien et offre plus de possibilités, car elle transfère toutes les données dans les deux sens, et pas seulement les citations (comme c'était le cas dans le premier portage de R). De plus, j'ai même réussi à faire de l'optimisation multithread à travers elle.

Le support officiel, comme il me semble, peut donner un bon coup de pouce pour R et MKL ....

Nouveaux articles sur tous les pays, nouvelles idées, nouvelles personnes à qui parler, nouveaux algorithmes....

 

Il existe unsite qui enregistre la publication de nouveaux paquets R....

J'ai toujours été intéressé par le téléchargement de ces données et leur agrégation dans le temps (combien de nouveaux paquets sont téléchargés par jour), afin de comprendre ce qui se passe avec le langage....

Mais j'ai toujours repoussé l'idée, je ne savais pas comment faire, je pensais que c'était long et compliqué....

Aujourd'hui j'ai décidé de le faire, j'ai passé environ 5 minutes à comprendre comment faire et 30 secondes sur le code lui-même)))

voici le code

library(rvest)
library(xts)
url <- "https://cran.r-project.org/web/packages/available_packages_by_date.html"

tb <- url |> read_html() |> html_table() |> _[[1]] |> {\(.) .[nrow(.):1,]}()

tb$Date |> rle() |> _$lengths |> xts(as.POSIXct(r$values)) |> plot(main="количество новых пакетов",col=4)

téléchargement des données du site + agrégation par jour + visualisation.


2008-09-08                                           1
2008-10-28                                           1
2010-06-25                                           1
2010-07-07                                           1
2011-08-18                                           1
2011-09-07                                           1
2011-12-01                                           1
2011-12-28                                           1
2012-01-28                                           1
2012-03-01                                           1
       ...                                            
2023-09-01                                          44
2023-09-02                                          35
2023-09-03                                          37
2023-09-04                                          32
2023-09-05                                          72
2023-09-06                                          84
2023-09-07                                          58
2023-09-08                                          45
2023-09-09                                          26
2023-09-10                                          27

Je reçois en moyenne 40-50 nouveaux paquets par jour.

=========================================================================


Et voici le même code en Python, qui est le meilleur pour le parsing et en général.

import pandas as pd
import requests
from bs4 import BeautifulSoup
import matplotlib.pyplot as plt

url = "https://cran.r-project.org/web/packages/available_packages_by_date.html"

response = requests.get(url)
soup = BeautifulSoup(response.text, 'html.parser')
table = soup.find_all('table')[0] 
df = pd.read_html(str(table))[0]
df = df.iloc[::-1]

df['Date'] = pd.to_datetime(df['Date'])
df_grouped = df.groupby('Date').size()

df_grouped.plot(title="количество новых пакетов")
plt.show()

Date
2008-09-08     1
2008-10-28     1
2010-06-25     1
2010-07-07     1
2011-08-18     1
              ..
2023-09-06    84
2023-09-07    58
2023-09-08    45
2023-09-09    26
2023-09-10    29
Length: 2807, dtype: int64

===========================================================


7 lignes de code en R, 18 lignes de code en Python...

 
Renat Fatkhullin #:

Pour l'essentiel, tout se passera au fur et à mesure que nous définirons les conditions du concours - c'est un travail énorme.

Nous attendons les conditions détaillées.

Cependant, la plupart des développements sont propres à chacun, et ne peuvent être adaptés à des normes/modèles pour tout le monde. Et les éléments les plus précieux ne sont pas les modèles, mais les prédicteurs.

Si les prédicteurs sont un ensemble fixe, la tâche de formation se réduira à la sélection des prédicteurs significatifs. Mais s'il est possible d'ajuster les paramètres de ces prédicteurs, ce sera plus amusant.

 
Andrey Dik #:

ZZY**. "La soirée cesse d'être languissante" - c'est très intéressant de savoir ce qui en sortira, après tout, tu t'en soucies, fxsaber, n'est-ce pas ? - et moi aussi))))))))))))))))))))))))))

L'une des choses les plus stupides est probablement d'essayer de faire changer d'avis une autre personne. Aucun argument ne fonctionne. D'où l'autre mot en "P" : le passé.

 
fxsaber #:

L'une des choses les plus stupides est probablement d'essayer de faire changer d'avis une autre personne. Aucun argument ne fonctionne. C'est pourquoi l'autre mot en "P" est le passé.

leur concours == leurs conditions.

C'est une chose stupide à discuter.

 

Je vais devoir redoubler d'efforts pour pouvoir installer des paquets avec accélération.

import requests, pandas as pd, matplotlib.pyplot as plt
from bs4 import BeautifulSoup

df = pd.read_html(requests.get("https://cran.r-project.org/web/packages/available_packages_by_date.html").text, flavor='bs4')[0].iloc[::-1]
df.groupby('Date').size().plot(title="количество новых пакетов")
plt.show()
Une fois de plus, vous vous êtes fait avoir, vous avez étalé des lignes sur l'écran et vous les avez fait passer pour des vérités.
 
Maxim Dmitrievsky #:

Je vais devoir augmenter la quantité d'efforts pour pouvoir installer les paquets à un rythme accéléré.

Une fois de plus, je suis dans la merde, j'ai juste étalé les lignes sur l'écran et je l'ai fait passer pour la vérité.
Si je le compresse d'une manière aussi inutile que vous l'avez fait, j'aurai 2 lignes avec la déclaration de la bibliothèque....

Vous n'avez donc pas de chance ici non plus.
 
mytarmailS #:
Si je compresse de manière inutilisable comme vous l'avez fait, j'aurai 2 lignes au total avec la déclaration de la bibliothèque...

Vous n'avez donc pas de chance ici non plus.

Une manière absolument utilisable et une syntaxe parfaitement compréhensible, et vous apprenez l'alphabet du prédateur pour écrire du code en boucles, qui ne sont même pas sur le clavier )).

Du coup, on ne peut même pas écrire une boucle sans erreur dans d'autres langues, parce qu'on est habitué aux hiéroglyphes.

 

On ne peut que se féliciter de l'organisation du championnat dans le but de populariser le MoD.

Il semblerait.

Cependant, le cadre technique du championnat, qui est python et onnx, laisse de côté la véritable diversité des modèles disponibles au sein de la MO.

Des centaines de modèles sont laissés de côté. Ce sont ces modèles qui définissent le sens du mot "machine learning", et les différents réseaux neuronaux sont une petite partie de MO, et pas la plus intéressante pour le trading.

Je joins une liste assez ancienne (2015) des modèles disponibles au sein de la coquille caret, c'est-à-dire disponibles au sein de l'opérateur de train. La composition de certains groupes de modèles n'est pas divulguée, car la liste reflète mes goûts.

Dossiers :
 
C'est une barrière contre une secte de fous.