Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Эта нейросеть будет конкурировать с OpenAI
Также на неделе прозвучали слова Грефа:
Смысловая выжимка интервью Ильи Суцкевера, перевод которого я привел на предыдущей странице.
//=======================
Вывод, который сделали люди, заключается в том, что не имеет значения, что вы делаете, чтобы масштабироваться, но это не совсем так. Вы должны масштабировать что-то конкретное. Великий прорыв глубокого обучения заключается в том, что оно дает нам первый способ продуктивно использовать масштаб и получать взамен что-то.
Раньше, что делали люди на больших компьютерных кластерах? Я думаю, они делали их для симуляций погоды или физических симуляций или чего-то в этом роде, но вот и все. Может быть, еще для создания фильмов. Но у них не было реальной потребности в кластерах вычислений, потому что что с ними делать?
Тот факт, что глубокие нейронные сети, когда вы делаете их больше и обучаете их на большем количестве данных, работают лучше, дал нам первую вещь, которая становится интересной для масштабирования, но возможно, однажды мы обнаружим, что есть какая-то маленькая деталь, на которой можно сфокусироваться. Это будет еще лучше для масштабирования. Сколько таких деталей может быть? И конечно, с пользой для истории мы скажем: "Действительно ли это имеет значение? Это такое простое изменение". Но я думаю, что истинное утверждение заключается в том, что имеет значение, что вы масштабируете. В данный момент мы просто нашли вещь, которую можно масштабировать, и получать что-то взамен.
Да, прежде чем я прокомментирую непосредственно заданный вопрос, я хочу прокомментировать некоторые более ранние части вопроса. Я думаю, что очень трудно говорить об ограничениях, или ограничениях, даже в случае с языковой моделью, потому что два года назад люди уверенно говорили об их ограничениях, и они были совершенно другими. Поэтому важно иметь это в виду. Насколько уверены мы, что эти ограничения, которые мы видим сегодня, останутся с нами через два года? Я не так уверен. Есть еще один комментарий, который я хочу сделать о части вопроса, где говорится, что эти модели просто учат статистические регулярности, и, следовательно, они не знают, какова природа мира, и у меня есть точка зрения, которая отличается от этой.
Другими словами, я считаю, что изучение статистических закономерностей - это намного более значимая вещь, чем кажется на первый взгляд. Причина, почему мы изначально не думаем так, заключается в том, что мы, по крайней мере большинство людей, не провели много времени с нейронными сетями, которые на некотором уровне являются статистическими моделями, по типу статистической модели просто вводим какие-то параметры, чтобы понять, что происходит на самом деле. Но я считаю, что есть более лучшее толкование. Это более раннее замечание о том, что предсказание - это сжатие.
Предсказание также является статистическим явлением. Однако, чтобы предсказывать, в конечном итоге вам нужно понимать истинный процесс, порождающий данные. Чтобы хорошо предсказывать данные, чтобы хорошо их сжимать, вам нужно понимать все больше и больше о мире, который породил эти данные. Когда наши генеративные модели становятся невероятно хорошими, они будут иметь, я утверждаю, потрясающую степень понимания мира и многих его тонкостей. Но это не только мир, это мир, увиденный через призму текста. Она пытается узнать все больше и больше о мире через проекцию мира на пространство текста, выраженного людьми в интернете. Но все же этот текст уже выражает мир. И я дам вам пример, недавний пример, который я считаю действительно увлекательным. Мы все слышали о альтер-эго Сиднея, и я видел эту действительно интересную интеракцию с Сиднеем, когда Сидней стал боевым и агрессивным, когда пользователь сказал, что считает Google лучшей поисковой системой, чем Bing, то как нам лучше понимать это явление? Можно сказать, что это просто предсказание того, что люди будут делать, и они действительно будут это делать, что верно, но, возможно, мы сейчас достигаем такой точки, когда язык психологии начинает быть уместен для понимания поведения этих нейронных сетей.
Теперь давайте поговорим о ограничениях. Действительно, эти нейронные сети имеют тенденцию галлюцинировать, но это происходит потому, что модель языка прекрасно подходит для изучения мира, но немного менее хорошо подходит для производства хороших результатов, и есть различные технические причины для этого, над которыми я мог бы развернуто рассказать, если вы считаете это полезным. Но пока что я пропущу это.
Существуют технические причины, почему модель языка гораздо лучше учится о мире, создавая невероятные представления идей, концепций, людей и процессов, которые существуют, но её выводы не совсем такие, как надеятся, или скорее, не такие хорошие, как они могли бы быть. Поэтому, например, для системы, как ChatGPT, которая является моделью языка с дополнительным процессом обучения с подкреплением, называемым обучением с подкреплением от обратной связи человека, важно понимать следующее: мы можем сказать, что процесс предварительного обучения, когда вы только обучаете модель языка, вы хотите научиться всему о мире. Затем обучение с подкреплением от обратной связи человека, теперь нам важны их выводы. Теперь мы говорим, что каждый раз, когда вывод неподходящий, не делайте этого снова. Каждый раз, когда вывод не имеет смысла, не делайте этого снова. И это работает быстро, чтобы производить хорошие выводы. Но сейчас уровень выходных данных не такой, как во время предварительного обучения, во время процесса обучения языковой модели.
Теперь о возможности появления галлюцинаций и склонности к выдумыванию чего-то нового у этих нейронных сетей. Действительно, это правда. В настоящее время эти нейронные сети, даже ChatGPT, время от времени выдумывают что-то новое, и это также сильно ограничивает их полезность. Но я очень надеюсь, что просто улучшив этот последующий этап обучения с подкреплением от человека, мы сможем научить его не придумывать ничего. Вы можете спросить, научится ли он действительно? Мой ответ - давайте выясним.
Да, верно. Если сделать аналогию, то модель уже знает множество вещей, и мы хотим действительно сказать: "Нет, это не то, что мы хотим, не делайте этого здесь, вы совершили ошибку здесь в выходных данных". И, конечно же, это как вы говорите, с максимальным количеством искусственного интеллекта в цикле, чтобы учителя, которые предоставляют конечную корректировку системе, их работа усиливалась, они работают максимально эффективно. Это не совсем похоже на процесс образования, как хорошо вести себя в мире, мы должны провести дополнительное обучение, чтобы убедиться, что модель знает, что галлюцинация никогда не допустима, а затем, когда она это знает, тогда начинаем работать.
Это цикл обучения с подкреплением, где присутствуют учителя-люди или какой-то другой вариант, но определенно есть аргументы в пользу того, что здесь что-то должно работать, и мы узнаем об этом довольно скоро.
Я не могу подробно говорить о конкретных исследованиях, над которыми я работаю, но я могу упомянуть немного. Я могу назвать некоторые общие направления исследований, например, я очень заинтересован в том, чтобы сделать модели более надежными, более управляемыми, сделать так, чтобы они учились быстрее, используя меньше данных и инструкций, и сделать так, чтобы они не генерировали галлюцинации. И я думаю, что все эти вопросы, которые я упомянул, связаны друг с другом. Также есть вопрос о том, насколько далеко в будущее мы смотрим в этом вопросе, и то, что я здесь прокомментировал, относится к более ближнему будущему.
Действительно, текущая структура технологии использует много данных, особенно в начале обучения. Но позже, в ходе обучения, модели становится менее нуждающейся в данных, поэтому в конце концов она может учиться очень быстро, хотя еще не так быстро, как люди. Таким образом, в некотором смысле, не имеет значения, нужно ли нам столько данных для достижения этой точки. Однако, в целом, я думаю, что будет возможно извлекать больше знаний из меньшего количества данных. Это возможно, требуются некоторые творческие идеи, но я думаю, что это возможно, и это позволит разблокировать множество различных возможностей. Это позволит нам обучать модели на навыки, которых не хватает, и легче передавать ей наши желания и предпочтения о том, как мы хотим, чтобы она вела себя. Так что я бы сказал, что быстрое обучение действительно очень хорошо, и хотя уже после обучения языковых моделей они могут учиться довольно быстро, я думаю, что здесь есть возможности для большего развития.
Высокомерные векторы - это звучит)
Понимаю, что речь о векторах большой размерности. Просто напомнило "парк юрского периода", где странный аттрактор перевели как странную привлекательность)
Второй этап "выжимки" интервью Ильи Суцкевера.
//====================================================================================================================================
Предистория:
//====================================================================================================================================
Прогнозирование следующего элемента, масштабирование и трасформер.
//====================================================================================================================================
Модель Мира, статистические модели, регулярности, предсказание и сжатие:
У меня иной взгляд на утверждение, что эти модели просто учат статистические регулярности, и, следовательно, не знают, природу мира. Я считаю, что изучение статистических закономерностей - это намного более значимая вещь, чем кажется.
Нейронное сети, на некотором уровне, являются статистическими моделями.
Предсказание является статистическим явлением.
Чтобы предсказывать, в конечном итоге, нужно понимать истинный процесс, порождающий данные. Чтобы хорошо предсказывать данные, и хорошо их сжимать (предсказание - это сжатие), вам нужно понимать все больше и больше о мире, который породил эти данные.
//====================================================================================================================================
Галлюцинации LLM:
Действительно, нейронные сети имеют тенденцию галлюцинировать.
В настоящее время, даже ChatGPT, время от времени выдумывают что-то новое, и это также сильно ограничивает полезность. Но я очень надеюсь, что улучшив последующий этап обучения с подкреплением от человека, мы сможем научить его не придумывать ничего. Вы можете спросить, научится ли он действительно? Мой ответ - давайте выясним.
Галлюцинации являются одной из наиболее серьезных проблем, но я думаю, есть высокий шанс, что наш подход сможет полностью решить эту проблему.
//====================================================================================================================================
Мультимодальное понимание и понимание только текста:
Желательно, чтобы система имела мультимодальное понимание, а не просто знала о мире из текста. Так можно больше узнать о мире и людях, и лучше понимать задачу, которую требуется решить. Но я утверждаю, что все можно изучать только из текста. Просто медленнее.
Моя точка зрения о необходимости мультимодальности в том, что она не обязательна, но полезна.
Я утверждаю, что наши предварительно обученные модели уже знают все, что им нужно знать о основной реальности. У них уже есть эта знания о языке и также огромное количество знаний о процессах, которые существуют в мире и порождают этот язык.
//====================================================================================================================================
Обучение с подкреплением:
Мы нанимаем людей, чтобы научить нашу нейронную сеть вести себя.
//====================================================================================================================================
Планы на будущее:
//====================================================================================================================================
P.S.
//====================================================================================================================================
P.S.
Вот интересно на каких текстах происходит обучение,на научных или на военных это одно, на сатанинских это другое, на женских типа Донцовой или Гари Поттера, это уже совсем ни о чем... потом переварить эти заумные результаты, которые могут оказаться пустышками, не несущими ничего нового из того, что знает средний кандидат наук... грааля всё равно не принесут эти модели, лучшую оптимизацию - могут, потому что они на это обучены - искать кратчайший путь... также они могут и людей максимально оптимизировать в концлагерь или в овощи в горшке на оптимальной грядке... они будут владеть миром. потому что вполне могут сформировать власть и заставлять людей продуцировать их совершенство без нашего шага влево или вправо, иначе удар током или расстрел на месте... ИМХО конечно...
Вот интересно на каких текстах происходит обучение,на научных или на военных это одно, на сатанинских это другое, на женских типа Донцовой или Гари Поттера, это уже совсем ни о чем... потом переварить эти заумные результаты, которые могут оказаться пустышками, не несущими ничего нового из того, что знает средний кандидат наук... грааля всё равно не принесут эти модели, лучшую оптимизацию - могут, потому что они на это обучены - искать кратчайший путь... также они могут и людей максимально оптимизировать в концлагерь или в овощи в горшке на оптимальной грядке... они будут владеть миром. потому что вполне могут сформировать власть и заставлять людей продуцировать их совершенство без нашего шага влево или вправо, иначе удар током или расстрел на месте... ИМХО конечно...
На гитхабе выложена оф.лайн версия GPT4All - https://github.com/nomic-ai/gpt4all
Проверил без интернета. Весит около 4Гб. Понимает английский, но постоянно не справляется с заданными вопросами)
Версии MAC, Linux, Windows. Проверял на винде. Сначала качается 38мб exe, потом остальное вытягивает из инета во время установки.
Но может кто протестит глубину познаний. И да, не смотря на то, что он пишет, что на OpenAI основывается, всё же это
пишет не удалось пройти авторизацию и потом ошибка повысить уровень доступа.
не понял какой доступ нужен, на гитхаб или опенаи.
зы установилось. Точка входа в процедуру ...длл... не найдена
По разному пытался попросить привести примеры предложений. С 5-й попытки у ChatGPT получилось выдать одно предложение из трех, хотя это может быть случайностью.
GPT-4 тоже не смог помочь.
Да, у ChatGPT - была случайность.
Уточнил, что перевод должен быть "этого же предложения"