Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3397

 
Maxim Dmitrievsky #:

Будущее наступило.. запустил LLM от гугла локально. Теперь мне не нужна жена и друзья.

https://blog.google/technology/developers/gemma-open-models/

Gemma: Introducing new state-of-the-art open models
Gemma: Introducing new state-of-the-art open models
  • blog.google
Gemma is designed with our AI Principles at the forefront. As part of making Gemma pre-trained models safe and reliable, we used automated techniques to filter out certain personal information and other sensitive data from training sets. Additionally, we used extensive fine-tuning and reinforcement learning from human feedback (RLHF) to align...
 

Хорошее обобщение всей ветки


 
Aleksey Vyazmikin #:

Хорошее обобщение всей ветки


Прослушал с удовольствием 
 
mytarmailS #:
Прослушал с удовольствием 
Вот эта тоже хорошая https://youtu.be/EutX1Knl6v4?si=bBicqPoh474EiRIc 
 
Там в конце основы козула, на это обратил бы внимание
 
где именно? я бы сказал что наоборот в начале
 
mytarmailS #:
где именно? я бы сказал что наоборот в начале
Я про видос Алексея, твой еще не посотрел. У тебя про отбор признаков. Я его не очень люблю, потому что у меня нет много признаков :)
 
Maxim Dmitrievsky #:
потому что у меня нет много признаков :)

Так оно так и получаеться, из "много" разных путем отбора получаеться "не много" но хороших.

И чем у тебя в начале "много" больше , тем богаче и лучше получиться  "не много" но хороших в конце.

 
mytarmailS #:

Так оно так и получаеться, из "много" разных путем отбора получаеться "не много" но хороших.

И чем у тебя в начале "много" больше , тем богаче и лучше получиться  "не много" но хороших в конце.

Делали же через всякие gmdh или как его там
Видится перспективным козул (очень тяжело придумывать алгоритмы на его основе, надо иметь буйную фантазию). И языковые модели - очень сложно их дообучать. Вот эти от Гугла короче, там есть небольшая модель на 2 миллиарда параметров, ее еще можно попробовать дообучить. По методике one shot.
 
Maxim Dmitrievsky #:
Делали же через всякие gmdh или как его там
Видится перспективным козул (очень тяжело придумывать алгоритмы на его основе, надо иметь буйную фантазию). И языковые модели - очень сложно их дообучать. Вот эти от Гугла короче, там есть небольшая модель на 2 миллиарда параметров, ее еще можно попробовать дообучить. По методике one shot.

при чем тут LLM ?

Причина обращения: