AI 2023. Встречайте ChatGPT. - страница 148

 
Valeriy Yastremskiy #:

Гугл зло))) Это разные информации тогда уж, звучат одинаково, но там энтропия и мера упорядочивания, какой то чел почему то назвал это не удачно инфой. При чем тут инфа, о которой говорит Петр. С мерой упорядоченности это вообще не коррелирует. К тому же, счас с сыном обсудил, он тоже не в курсе, хотя закончил лет 5 назад и знаком с темой, что термин информация применяется в физических характеристиках газов или других веществ. С сопроматом он на ты))) Меня тоже не учили, хотя энтропию в мозг вдалбливали нормально так)))

Ошибочная интерпретация термина начинается с обрывания связи с его этимологией. Причина, наверное, в инклюзивности некоторых понятий. Со временем, они выходят за исходные границы и периодически переосмысливаются учеными. Инклюзивность растет, уровень абстракции повышается, и вместе с этим, увеличивается и запутанность и неразбериха в понимании понятия. Информация - как раз такой случай.

 Из за того, что формы информации разнообразны и она окружает нас по всюду, нам сложно обобщить все ее явления в границах одного определения. 

В информационную эпоху, мы запутались в том, что такое информация. Это неудивительно. В голове смешалось слишком много связанных с информацией сущностей: материя, волны, носители, биты, энтропия, нервная деятельность, и прочее. 

Среди всего, с чем связана информация, нам нужно выделить то, что ее производит. "Генератор" информации. До этого, мы говорили о носителях, теперь, логично поговорить об источнике.

Информацию производит материя? А как информация участвует в физических процессах? И как ее измерить? Нужно признать, что наука не включает информацию в качестве состовляющей материи.

Для материи, диск с информацией и без нее - одно и тоже. Для человека, который записал на нем фотографии любимой собаки, - это информация.

 Исходя из этого - физический носитель информации не несет ничего. ... И в тоже самое время, - несет, если с ним взаимодействует человек. Парадокс? Нет. Все укладывается в концепцию информации как продукта интерпретации, которая есть нервная деятельность.
 
Valeriy Yastremskiy #:

Не, тогда уже не доучи))) В 8 классе на информатике энтропию не нашел))) Лан, в физике тогда наоборот получается. Мера неупорядоченности - количество разных состояний - энтропия. 0 спокойное состояние, элементы системы одинаковы. 1 неспокойное состояние. Вариантов состояний слишком много, что бы их можно оценить. И это не бесконечно много. Просто состояния элементов изменяются хаотично относительно друг друга.

И таки да, информации о состоянии вещества и его элементах точной при энтропии 1 у нас 0. Посчитать или оценить состояния элементов внутри у нас нет возможности. 

Оценивается наличие или отсутствие информации между системами или внутри одной. Какие конкретно связи - это уже 3-й вопрос.
 
Maxim Dmitrievsky #:
Оценивается наличие или отсутствие информации между системами или внутри одной. Какие конкретно связи - это уже 3-й вопрос.

Ну эта инфа к Петру не имеет отношения))) Это количество состояний элементов системы и возможности их учета. Типа каждый элемент имеет свойства, и эти свойства это информация. И есть допущение в этой науке, что  при увеличении количества состояний возможности учета состояний уменьшаются. Часто уменьшаются не линейно, а ступенькой.

У Петра инфа это отражение мира нервными клетками))) Удачное определение)))

 
Maxim Dmitrievsky #:
Капец вы неучи. Чем больше энтропия, тем больше потеря информации. Все, я с вами не общаюсь :) людям даже почитать лень.

все процессы стремятся к повышению энтропии (увеличивается "беспорядок", увеличивается количество возможных состояний). увеличение количества информации на носителе приводит к увеличению энтропии (это выглядит как парадокс, но это так).

два одинаковых чистых диска имеют равномерную намагниченность, один диск записали и равномерность магнитных полей станет меньше что увеличивает энтропию магнитного поля записанного диска.

более простое в использовании и понимании понятие применительно к информации - изотропия, то есть равномерность свойств. увеличение информации на носителе неизбежно приводит к снижению изотропии (равномерности).

примеры:

1. на поверхность нанесли надпись краской с предварительным удалением советующей массы материала на поверхности - уменьшилась изотропия химического состава

2. сделали надпись кернением или на виниловую пластину нанесли дорожки - уменьшилась структурная изотропия материала объекта

3. записали информацию на магнитный диск - уменьшилась изотропия магнитного поля

с электромагнитными волнами тоже самое - волны, несущие больше информации менее изотропны, чем "пустые" равномерные волны, которые в природе встречаются чрезвычайно редко. поэтому, если обнаруживают равномерные по частоте и амплитуде волны то предполагают что они имеют искусственное происхождение.

если нет ключа к способу прочтения информации, то она выглядит как хаотичное распределённые свойств в объекте, это очень важно, ведь всё, что не понимается воспринимается как хаос, случайность.

 
Реter Konow #:
Материя "бедна" на информацию. А теперь, сколько информации создал человеческий интеллект за историю развития цивилизации?

Вообще-то наоборот. Если прикинуть, сколько нашей привычной информации нужно, чтобы закодировать такую систему, как атом, а потом прикинуть, какое количество таких объектов образует те или иные материальные формы нашего привычного мира, то получаются запредельные объёмы информации. К тому же, именно в них также косвенно закодирована наша обычная информация, наши мысли и понимание вещей. Т.о. материальная информация > человеческая (компьютерная) интерпретация.

Реter Konow #:
Материя может поставлять нам бесконечный поток неструктурированных данных. И практически НОЛЬ информации. Создание информации из данных - НАША работа.

Неструктурированных данных? Так в этих структурах и хранится та самая "человеческая" информация, о которой вы и говорите. Более того, если вы не знаете, как работают клетки вашего тела, то это не превращает ваше тело в мешок с неструктурированным бульоном какой-то там материи. Там всё очень упорядочено и работает без вашего понимания или согласия.

Реter Konow #:
Данные имеют простейшую структуру. Информация - сколь угодно сложную. Материя не может производить хитроумную интерпретацию своих данных. 

Ну пример с репликацией нуклеиновых кислот в ядрах клеток вам не кажется хитроумным, не так ли? Подумаешь, бесполезная же для человека ерунда, сам же он не интерпетирует генетическую информацию (ой, уже интерпретирует!).

Реter Konow #:
Ошибочная интерпретация термина начинается с обрывания связи с его этимологией. Причина, наверное, в инклюзивности некоторых понятий. Со временем, они выходят за исходные границы и периодически переосмысливаются учеными. Инклюзивность растет, уровень абстракции повышается, и вместе с этим, увеличивается и запутанность и неразбериха в понимании понятия. Информация - как раз такой случай.

Ну да, о материи раньше не рассуждали в таком ключе, что это форма информации в некоторой среде-носителе. А теперь вот рассуждаем. И толку теперь от старых этимологических корней разных слов, которые, возможно, вообще излишни?

 
Valeriy Yastremskiy #:

Ну эта инфа к Петру не имеет отношения))) Это количество состояний элементов системы и возможности их учета. Типа каждый элемент имеет свойства, и эти свойства это информация. И есть допущение в этой науке, что  при увеличении количества состояний возможности учета состояний уменьшаются. Часто уменьшаются не линейно, а ступенькой.

У Петра инфа это отражение мира нервными клетками))) Удачное определение)))

Это точно такой же процесс - формирование упорядоченных связей между нейронами
Неужели так сложно
 
Andrey Dik #:

все процессы стремятся к повышению энтропии (увеличивается "беспорядок", увеличивается количество возможных состояний). увеличение количества информации на носителе приводит к увеличению энтропии (это выглядит как парадокс, но это так).

два одинаковых чистых диска имеют равномерную намагниченность, один диск записали и равномерность магнитных полей станет меньше что увеличивает энтропию магнитного поля записанного диска.

более простое в использовании и понимании понятие применительно к информации - изотропия, то есть равномерность свойств. увеличение информации на носителе неизбежно приводит к снижению изотропии (равномерности).

примеры:

1. на поверхность нанесли надпись краской с предварительным удалением советующей массы материала на поверхности - уменьшилась изотропия химического состава

2. сделали надпись кернением или на виниловую пластину нанесли дорожки - уменьшилась структурная изотропия материала объекта

3. записали информацию на магнитный диск - уменьшилась изотропия магнитного поля

с электромагнитными волнами тоже самое - волны, несущие больше информации менее изотропны, чем "пустые" равномерные волны, которые в природе встречаются чрезвычайно редко. поэтому, если обнаруживают равномерные по частоте и амплитуде волны то предполагают что они имеют искусственное происхождение.

если нет ключа к способу прочтения информации, то она выглядит как хаотичное распределённые свойств в объекте, это очень важно, ведь всё, что не понимается воспринимается как хаос, случайность.

Ну мы же сравниваем не сами диски, а дорожки на них. Правильнее было бы сравнить рандомные засечки с нерандомными. У рандомных энтропия будет максимальной. И услышим коричневый шум (или какой там).
 
Maxim Dmitrievsky #:
Ну мы же сравниваем не сами диски, а дорожки на них. Правильнее было бы сравнить рандомные засечки с нерандомными.

появление дорожек на дисках - энтропия увеличилась, изотропия уменьшилась.

рандомные и нерондомные засечки имеют равную по объёму сырой информации и равную энтропию и изотропию, но нерандомные закодированы и при распаковке получится больше информации (энтропия увеличится изотропия уменьшиться).

уменьшение энтропии возможно только с затратами энергии. поэтому запоковка (сжатие информации) уменьшает энтропию с затратами энергии.

пример. звезда взрывается и появляется нейтронная звезда, которая очень равномерна по структуре - парадокс? - нет, потому что затрачена энергия и бОльшая масса звезды рассеялась в пространстве, что в сумме по общей изначальной массе звезды означает что материя пришла к бОльшей энтропии.

Максим, не тупи)))

 
Maxim Dmitrievsky #:
Это точно такой же процесс - формирование упорядоченных связей между нейронами
Неужели так сложно

Не, не сложно, только как измерить этот процесс у дауна, шизофреника, как оценить психологические состояние при этом. И главный вопрос, зачем? Смысл что придумали что то и предположили, что это работает везде? В информатике да, работает, а у Петра не хочет)))) 

 
Andrey Dik #:

появление дорожек на дисках - энтропия увеличилась, изотропия уменьшилась.

рандомные и нерондомные засечки имеют равную по объёму сырой информации и равную энтропию и изотропию, но нерандомные закодированы и при распаковке получится больше информации (энтропия увеличится изотропия уменьшиться).

уменьшение энтропии возможно только с затратами энергии. поэтому запоковка (сжатие информации) уменьшает энтропию с затратами энергии.

пример. звезда взрывается и появляется нейтронная звезда, которая очень равномерна по структуре - парадокс? - нет, потому что затрачена энергия и бОльшая масса звезды рассеялась в пространстве, что в сумме по общей изначальной массе звезды означает что материя пришла к бОльшей энтропии.

Максим, не тупи)))

Сравнивать надо одну и ту же систему, когда рандомные засечки изменились на нерандомные
Причина обращения: