Что подать на вход нейросети? Ваши идеи... - страница 56

 
Ivan Butko #:

Обучение некоторой интеллектуальной системы выполнять некоторые задачи. Например, прогнозировать.

Учиться - значит приобретать знания или опыт.

Детский вопрос, на который не могут ответить "ценные специалисты". Не могут отличить обучение от оптимизации.

Весь процесс создания модели, включая подготовку данных и выбор модели, называется learning (обучение). Оптимизация весов НС называется fitting (подгонка или оптимизация).

Есть модели, в которых этап оптимизации вообще отсутствует в явном виде, например случайный лес или модели, основанные на правилах (rule based), некоторые виды кластеризации. В нейросетях он в явном виде присутствует.

Про гейты лучше даже не продолжай :)
 
Maxim Dmitrievsky #:

Обучение некоторой интеллектуальной системы выполнять некоторые задачи. Например, прогнозировать.

Учиться - значит приобретать знания или опыт.

Детский вопрос, на который не могут ответить "ценные специалисты". Не могут отличить обучение от оптимизации.

Весь процесс создания модели, включая подготовку данных и выбор модели, называется learning (обучение). Оптимизация весов НС называется fitting (подгонка или оптимизация).

Есть модели, в которых этап оптимизации вообще отсутствует в явном виде, например случайный лес или модели, основанные на правилах (rule based), некоторые виды кластеризации. В нейросетях он в явном виде присутствует.

Про гейты лучше даже не продолжай :)

Водичка потекла

Как в воду глядел

 
Ivan Butko #:

Водичка потекла

Как в воду глядел

Если в одно затекает, из другого вытекает - это уже патология
 
Maxim Dmitrievsky #:
Если в одно затекает, из другого вытекает - это уже патология

Ты даже вопроса не понял

Тупо транслируешь общие знания

Этакая энциклопедия

 
Ivan Butko #:

Ты даже вопроса не понял

Тупо транслируешь общие знания

Этакая энциклопедия

Общие знания не выглядят таким бредом, как лично вымученные, через отрицалово всего и вся :)
 
Andrey Dik #:

Т.е, на самом деле нет никакой систематизации в науке применения МО? Просто какая-то алхимия с отсутсвием гарантии положительного результата?

Чем отличается обучение нейронной сети от обучения пуделя выполнять трюки? - или обучения школьника в школе? Есть ли различия, а если есть, то кто и где систематизировал эти отличия и обосновал?

Если найдёшь такие работы - поделись
Самому интересно

Последователи учебников транслируют ровно одно - под обучнеием они понимают метод настройки/подстройки движка (модели). 

Но это не отражает суть обучения, которое в общем смысле имеет более глубокое значение. 

 
Лучше не ищи, а сам придумай и напиши, маэстро :)
 
Ivan Butko #:

Замечательный вопрос

Если его раскрыть в полной мере в контексте виртуальной среды (информационного поля), то предположительно можно выйти на нужное направление, а не транслировать академические знания и учебники

Каждый раз ковыряясь в архитектурах задавал себе вопрос "а нафига вот так? Зачем? Почему так решили?" Нет, просто бери - и транслируй архитектуру, которую написали умные дяди-математики. 


Даже у чата спрашивал, нафига блок LSTM имеет тот вид, который имеет? В ответ - гадость из учебников по МО: это долгая краткосрочная память, бла-бла-бла, приспособлена к обучению на задачах классификации и бла-бла-бла. 

Переспрашиваю "так почему именно так?", ответ по типу "так решили математики". Никакой теории, никакой теории информации, никакой теории обработки информации, никаких определений обучения, теорий обучения и тд. Тупо постулаты. 


Раза с третьего чат начал говорить про затухания и взыры градиентов. Мол, LSTM решает эти проблемы. Ну окей, как решает?  — С помощью вентилей (gates)! 
Каких вентилей!? Чего?? — 

Какую информацию???? Числа на входе? Но вы же её преобразуете из входящей в трали-вали искажённую непонятную белиберду, которая превращает входящие числа-цвета RGB в нечто нечитаемое, чёрный ящик с кашей. 

Ну допустим, преобразование одних чисел в другие, а обучение в чём? В запоминании? Так это запоминание! А чем оно отличается от обучения? 


В итоге, непонятно что пытаются применить к непонятно-что во второй степени - нестационарному рынку. 



В общем, вопрос замечательный, напрашивался давным-давно. Его раскрытие - это что-то крайне интересное.


Это треш ))))))

Изучай машки лучше .
 
Maxim Dmitrievsky #:
Лучше не ищи, а сам придумай и напиши, маэстро :)
mytarmailS #:

Это треш ))))))

Изучай машки лучше .

Вы чего такие ранимые

Ну у меня другой подход, более глубокий. У вас более поверхностный

Я хочу докопаться до сути, а вас устраивают готовые пакеты

Нормально всё

 
😁