Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Гугл зло))) Это разные информации тогда уж, звучат одинаково, но там энтропия и мера упорядочивания, какой то чел почему то назвал это не удачно инфой. При чем тут инфа, о которой говорит Петр. С мерой упорядоченности это вообще не коррелирует. К тому же, счас с сыном обсудил, он тоже не в курсе, хотя закончил лет 5 назад и знаком с темой, что термин информация применяется в физических характеристиках газов или других веществ. С сопроматом он на ты))) Меня тоже не учили, хотя энтропию в мозг вдалбливали нормально так)))
Не, тогда уже не доучи))) В 8 классе на информатике энтропию не нашел))) Лан, в физике тогда наоборот получается. Мера неупорядоченности - количество разных состояний - энтропия. 0 спокойное состояние, элементы системы одинаковы. 1 неспокойное состояние. Вариантов состояний слишком много, что бы их можно оценить. И это не бесконечно много. Просто состояния элементов изменяются хаотично относительно друг друга.
И таки да, информации о состоянии вещества и его элементах точной при энтропии 1 у нас 0. Посчитать или оценить состояния элементов внутри у нас нет возможности.
Оценивается наличие или отсутствие информации между системами или внутри одной. Какие конкретно связи - это уже 3-й вопрос.
Ну эта инфа к Петру не имеет отношения))) Это количество состояний элементов системы и возможности их учета. Типа каждый элемент имеет свойства, и эти свойства это информация. И есть допущение в этой науке, что при увеличении количества состояний возможности учета состояний уменьшаются. Часто уменьшаются не линейно, а ступенькой.
У Петра инфа это отражение мира нервными клетками))) Удачное определение)))
Капец вы неучи. Чем больше энтропия, тем больше потеря информации. Все, я с вами не общаюсь :) людям даже почитать лень.
все процессы стремятся к повышению энтропии (увеличивается "беспорядок", увеличивается количество возможных состояний). увеличение количества информации на носителе приводит к увеличению энтропии (это выглядит как парадокс, но это так).
два одинаковых чистых диска имеют равномерную намагниченность, один диск записали и равномерность магнитных полей станет меньше что увеличивает энтропию магнитного поля записанного диска.
более простое в использовании и понимании понятие применительно к информации - изотропия, то есть равномерность свойств. увеличение информации на носителе неизбежно приводит к снижению изотропии (равномерности).
примеры:
1. на поверхность нанесли надпись краской с предварительным удалением советующей массы материала на поверхности - уменьшилась изотропия химического состава
2. сделали надпись кернением или на виниловую пластину нанесли дорожки - уменьшилась структурная изотропия материала объекта
3. записали информацию на магнитный диск - уменьшилась изотропия магнитного поля
с электромагнитными волнами тоже самое - волны, несущие больше информации менее изотропны, чем "пустые" равномерные волны, которые в природе встречаются чрезвычайно редко. поэтому, если обнаруживают равномерные по частоте и амплитуде волны то предполагают что они имеют искусственное происхождение.
если нет ключа к способу прочтения информации, то она выглядит как хаотичное распределённые свойств в объекте, это очень важно, ведь всё, что не понимается воспринимается как хаос, случайность.
Вообще-то наоборот. Если прикинуть, сколько нашей привычной информации нужно, чтобы закодировать такую систему, как атом, а потом прикинуть, какое количество таких объектов образует те или иные материальные формы нашего привычного мира, то получаются запредельные объёмы информации. К тому же, именно в них также косвенно закодирована наша обычная информация, наши мысли и понимание вещей. Т.о. материальная информация > человеческая (компьютерная) интерпретация.
Материя может поставлять нам бесконечный поток неструктурированных данных. И практически НОЛЬ информации. Создание информации из данных - НАША работа.
Неструктурированных данных? Так в этих структурах и хранится та самая "человеческая" информация, о которой вы и говорите. Более того, если вы не знаете, как работают клетки вашего тела, то это не превращает ваше тело в мешок с неструктурированным бульоном какой-то там материи. Там всё очень упорядочено и работает без вашего понимания или согласия.
Данные имеют простейшую структуру. Информация - сколь угодно сложную. Материя не может производить хитроумную интерпретацию своих данных.
Ну пример с репликацией нуклеиновых кислот в ядрах клеток вам не кажется хитроумным, не так ли? Подумаешь, бесполезная же для человека ерунда, сам же он не интерпетирует генетическую информацию (ой, уже интерпретирует!).
Ошибочная интерпретация термина начинается с обрывания связи с его этимологией. Причина, наверное, в инклюзивности некоторых понятий. Со временем, они выходят за исходные границы и периодически переосмысливаются учеными. Инклюзивность растет, уровень абстракции повышается, и вместе с этим, увеличивается и запутанность и неразбериха в понимании понятия. Информация - как раз такой случай.
Ну да, о материи раньше не рассуждали в таком ключе, что это форма информации в некоторой среде-носителе. А теперь вот рассуждаем. И толку теперь от старых этимологических корней разных слов, которые, возможно, вообще излишни?
Ну эта инфа к Петру не имеет отношения))) Это количество состояний элементов системы и возможности их учета. Типа каждый элемент имеет свойства, и эти свойства это информация. И есть допущение в этой науке, что при увеличении количества состояний возможности учета состояний уменьшаются. Часто уменьшаются не линейно, а ступенькой.
У Петра инфа это отражение мира нервными клетками))) Удачное определение)))
все процессы стремятся к повышению энтропии (увеличивается "беспорядок", увеличивается количество возможных состояний). увеличение количества информации на носителе приводит к увеличению энтропии (это выглядит как парадокс, но это так).
два одинаковых чистых диска имеют равномерную намагниченность, один диск записали и равномерность магнитных полей станет меньше что увеличивает энтропию магнитного поля записанного диска.
более простое в использовании и понимании понятие применительно к информации - изотропия, то есть равномерность свойств. увеличение информации на носителе неизбежно приводит к снижению изотропии (равномерности).
примеры:
1. на поверхность нанесли надпись краской с предварительным удалением советующей массы материала на поверхности - уменьшилась изотропия химического состава
2. сделали надпись кернением или на виниловую пластину нанесли дорожки - уменьшилась структурная изотропия материала объекта
3. записали информацию на магнитный диск - уменьшилась изотропия магнитного поля
с электромагнитными волнами тоже самое - волны, несущие больше информации менее изотропны, чем "пустые" равномерные волны, которые в природе встречаются чрезвычайно редко. поэтому, если обнаруживают равномерные по частоте и амплитуде волны то предполагают что они имеют искусственное происхождение.
если нет ключа к способу прочтения информации, то она выглядит как хаотичное распределённые свойств в объекте, это очень важно, ведь всё, что не понимается воспринимается как хаос, случайность.
Ну мы же сравниваем не сами диски, а дорожки на них. Правильнее было бы сравнить рандомные засечки с нерандомными.
появление дорожек на дисках - энтропия увеличилась, изотропия уменьшилась.
рандомные и нерондомные засечки имеют равную по объёму сырой информации и равную энтропию и изотропию, но нерандомные закодированы и при распаковке получится больше информации (энтропия увеличится изотропия уменьшиться).
уменьшение энтропии возможно только с затратами энергии. поэтому запоковка (сжатие информации) уменьшает энтропию с затратами энергии.
пример. звезда взрывается и появляется нейтронная звезда, которая очень равномерна по структуре - парадокс? - нет, потому что затрачена энергия и бОльшая масса звезды рассеялась в пространстве, что в сумме по общей изначальной массе звезды означает что материя пришла к бОльшей энтропии.
Максим, не тупи)))
Это точно такой же процесс - формирование упорядоченных связей между нейронами
Не, не сложно, только как измерить этот процесс у дауна, шизофреника, как оценить психологические состояние при этом. И главный вопрос, зачем? Смысл что придумали что то и предположили, что это работает везде? В информатике да, работает, а у Петра не хочет))))
появление дорожек на дисках - энтропия увеличилась, изотропия уменьшилась.
рандомные и нерондомные засечки имеют равную по объёму сырой информации и равную энтропию и изотропию, но нерандомные закодированы и при распаковке получится больше информации (энтропия увеличится изотропия уменьшиться).
уменьшение энтропии возможно только с затратами энергии. поэтому запоковка (сжатие информации) уменьшает энтропию с затратами энергии.
пример. звезда взрывается и появляется нейтронная звезда, которая очень равномерна по структуре - парадокс? - нет, потому что затрачена энергия и бОльшая масса звезды рассеялась в пространстве, что в сумме по общей изначальной массе звезды означает что материя пришла к бОльшей энтропии.
Максим, не тупи)))