Разговор с ChatGPT об улучшении нейронной сети и торговле на Форекс - страница 7

 
Lilita Bogachkova #:

Не могли бы вы углубиться в технические детали архитектуры LNN, в частности, в ключевые инновации или модификации?

Почему мне по-английски сказали, что LNN это опечатка, а правильно LSM?

 
Только меня подташнивает от этих бессмысленных вставок на пол страницы с с общими фразами ниочем от LLM?

Вы думаете это умно или кому то интересно? 
 
Evgeniy Scherbina #:

- user: Do I Understand correctly that an LSM is not a network by itself, it is rather an approach that I need to develop to processing data during training?

- robot: Yes, you are correct. A Liquid State Machine (LSM) is not a standalone network like a specific neural network architecture (e.g., LSTM, GRU). Instead, it is an approach or framework used in the design of reservoir computing systems, particularly in processing temporal information or time-series data. LSM involves setting up a large network of interconnected neurons (the "liquid") that transforms input data before passing it on to a readout layer for the final computation or output. The design and implementation aspects of the LSM approach require you to develop and adapt it to suit your specific task or application.

- user: Alright. Can I append new input data during training an LSM model? So not only before training it, but during training?

- robot: In a Liquid State Machine (LSM) setup, typically the initial training phase involves creating a fixed randomly connected reservoir (liquid) that processes the input data. Once this reservoir is set up, new input data is usually not appended during training. The reservoir dynamics are pre-determined and fixed during the training phase. However, you may reinitialize or modify the reservoir if needed for new tasks, but this process would involve restarting the training or adapting the model accordingly.

>>>>>>>>> Чет, меня смущает теория, которая ничего не предлагает. А только предлагает придумать что-нибудь эдакое, чего еще не бывало.

>>>>>>>>> Я думаю подождать, пока это появится в tensorflow в качестве рабочего класса, навроде LSTM. Сейчас этого нет ни в tensorflow, ни торче ни сайките.

It is important to note that LNNs are distinct from Liquid State Machines (LSMs), which are a specific type of reservoir computer that utilizes spiking neural networks rather than traditional feedforward or recurrent neural networks

Важно отметить, что LNN отличаются от машин с жидким состоянием (LSM), которые представляют собой особый тип пластового компьютера, который использует импульсные нейронные сети, а не традиционные нейронные сети с прямой связью или рекуррентные нейронные сети.


 
Aleksey Nikolayev #:

Важно отметить, что LNN отличаются от машин с жидким состоянием (LSM), которые представляют собой особый тип пластового компьютера, который использует импульсные нейронные сети, а не традиционные нейронные сети с прямой связью или рекуррентные нейронные сети.

Хорошо, но класса нет. Это подход, нужно самому лепить некую модель. Я все-таки думаю, что засада возникает на этапе подготовки данных, которые идут в нейронную сеть. Любую нейронную сеть.

А вообще стоит подумать, что с этим делать...

 
Evgeniy Scherbina #:

Хорошо, но класса нет. Это подход, нужно самому лепить некую модель. Я все-таки думаю, что засада возникает на этапе подготовки данных, которые идут в нейронную сеть. Любую нейронную сеть.

А вообще стоит подумать, что с этим делать...

Потому и ничего нет, поскольку это последний писк моды.
 
mytarmailS #:
Только меня подташнивает от этих бессмысленных вставок на пол страницы с с общими фразами ниочем от LLM?

Вы думаете это умно или кому то интересно? 
какие когнитивные нарушения мешают понять суть темы: "Разговор с ChatGPT об улучшении нейронной сети и торговле на Форекс"?

При обсуждении темы "Разговор с ChatGPT об улучшении нейронной сети и торговле на Форекс" возможны несколько когнитивных нарушений, которые могут мешать пониманию сути:

  1. Диссоциация: Человек может испытывать диссоциацию, когда тема кажется ему слишком абстрактной или далекой от его текущих интересов или знаний.

  2. Псевдодилемма: Может возникнуть ситуация, когда человек видит только две крайние точки зрения на тему, например, "нейронные сети это сложно" или "торговля на Форекс это рискованно", и не учитывает промежуточные или альтернативные возможности.

  3. Селективное внимание: Человек может сосредоточиться только на том аспекте темы, который ему кажется наиболее интересным или знакомым, игнорируя остальные аспекты.

  4. Эмоциональные предвзятости: Предвзятость по отношению к теме, основанная на эмоциональном опыте или убеждениях, может мешать объективному пониманию информации.

  5. Комплекс избыточной уверенности: Человек может быть уверен в своих знаниях или мнении относительно темы, несмотря на недостаточное понимание или опыт.

  6. Когнитивная дисторсия: Искажение информации или сужение круга восприятия может привести к неправильному пониманию сути темы.

Решить эти проблемы может помочь более глубокое изучение темы, общение с экспертами, открытость к новым идеям и умение анализировать информацию с разных точек зрения.

 
Aleksey Nikolayev #:
Потому и ничего нет, поскольку это последний писк моды.
С 22-го года уже,  и что то прорывов не видно
 
Evgeniy Scherbina #:

Хорошо, но класса нет. Это подход, нужно самому лепить некую модель. Я все-таки думаю, что засада возникает на этапе подготовки данных, которые идут в нейронную сеть. Любую нейронную сеть.

А вообще стоит подумать, что с этим делать...

Можно попробовать измельчить песок
 
Uladzimir Izerski #:

Уже создали программу выдавать вам все тайны мира???))

Удивительные люди на этом форуме)

Ты соскучилось, донное отложение?
 

Пасаны, я нашел другой вариант!!

Девица из ChatGPT начала лечить про эффективность метрики f1-score:

- user: Is it not the same as the loss value?

- robot: The F1 score and loss value are different metrics used to evaluate the performance of a machine learning model.

- **F1 Score**: It is a metric used in classification tasks to measure the balance between precision and recall. It provides a single score that considers both false positives and false negatives. A higher F1 score indicates better performance in terms of precision and recall balance.

- **Loss Value**: The loss value, such as cross-entropy loss or mean squared error, is used to quantify the error between the predicted values and the actual values during the training process. Its primary purpose is to optimize the model parameters during training by minimizing this error.

While the F1 score is focused on the model's classification performance, the loss value is used during training to update the model's parameters towards better performance.

Я конечно сразу впердолил. И по ходу дела изменил входы в миллион-первый раз: день недели, день года, нормализованные цены и только 2 периода - дейли и викли.

Проканало!! Но не метрика ф1, которая оказалась очередной чушью. А изменение входов!