Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Не, не сложно, только как измерить этот процесс у дауна, шизофреника, как оценить психологические состояние при этом. И главный вопрос, зачем? Смысл что придумали что то и предположили, что это работает везде? В информатике да, работает, а у Петра не хочет))))
Сравнивать надо одну и ту же систему, когда рандомные засечки изменились на нерандомные
хорошо, давай сравним. я вроде бы уже сравнил, айда ещё раз)
закодированная информация может иметь энтропию меньше чем сырая и рандомная, но для кодирования нужно затратить энергию (при равных условиях энергозатраты уже неравны)! к тому же, распакованная информация снова будет иметь бОльшую энтропию. поэтому, больше информации - больше энтропии и меньше анизотропии.
всё верно.
если брать в целом, при прочих равных (масса и энергия), то случайные данные имеют энтропию больше, чем неслучайные.
хорошо, давай сравним. я вроде бы уже сравнил, айда ещё раз)
закодированная информация может иметь энтропию меньше чем сырая и рандомная, но для кодирования нужно затратить энергию (при равных условиях энергозатраты уже неравны)! к тому же, распакованная информация снова будет иметь бОльшую энтропию. поэтому, больше информации - больше энтропии и меньше анизотропии.
всё верно.
А при распаковке закодированной информации энергия, случаем, не выделяется? 😄
А при распаковке закодированной информации энергия, случаем, не выделяется? 😄
да, я тоже об этом подумал)) но, походу, нет. майнить энергию распаковыванием зипов не выйдет))
к стати, "вечные" двигатели тоже потребляют энергию (энергию волн к примеру), так что вечные двигатели скорее не двигатели, а преобразователи энергии.
1. Вообще-то наоборот. Если прикинуть, сколько нашей привычной информации нужно, чтобы закодировать такую систему, как атом, а потом прикинуть, какое количество таких объектов образует те или иные материальные формы нашего привычного мира, то получаются запредельные объёмы информации. К тому же, именно в них также косвенно закодирована наша обычная информация, наши мысли и понимание вещей. Т.о. материальная информация > человеческая (компьютерная) интерпретация.
2. Неструктурированных данных? Так в этих структурах и хранится та самая "человеческая" информация, о которой вы и говорите. Более того, если вы не знаете, как работают клетки вашего тела, то это не превращает ваше тело в мешок с неструктурированным бульоном какой-то там материи. Там всё очень упорядочено и работает без вашего понимания или согласия.
3. Ну пример с репликацией нуклеиновых кислот в ядрах клеток вам не кажется хитроумным, не так ли? Подумаешь, бесполезная же для человека ерунда, сам же он не интерпетирует генетическую информацию (ой, уже интерпретирует!).
4. Ну да, о материи раньше не рассуждали в таком ключе, что это форма информации в некоторой среде-носителе. А теперь вот рассуждаем. И толку теперь от старых этимологических корней разных слов, которые, возможно, вообще излишни?
Мы информацию обсуждали.
Да, только инфа из информатики и ее формулы не подойдут к процессу отражения мира нервными клетками. Там другая инфа. Более сложная.
Не удачное применение термина в оценке количества состояний и степени их учета. Чем энтропия и например степень информативности о свойствах системы не подошло? Просто информация о системе не удачный термин. В информатике тока норм.Да, только инфа из информатики и ее формулы не подойдут к процессу отражения мира нервными клетками. Там другая инфа. Более сложная.
Не удачное применение термина в оценке количества состояний и степени их учета. Чем энтропия и например степень информативности о свойствах системы не подошло? Просто информация о системе не удачный термин. В информатике тока норм.ну вы это нейросетевикам расскажите (уж что ближе к нервным клеткам)
все котраргументы мимо из-за тотального невладения предметом
щас опять начнется что это не то же самое, бла бла..
хорошо, давай сравним. я вроде бы уже сравнил, айда ещё раз)
закодированная информация может иметь энтропию меньше чем сырая и рандомная, но для кодирования нужно затратить энергию (при равных условиях энергозатраты уже неравны)! к тому же, распакованная информация снова будет иметь бОльшую энтропию. поэтому, больше информации - больше энтропии и меньше анизотропии.
всё верно.
если брать в целом, при прочих равных (масса и энергия), то случайные данные имеют энтропию больше, чем неслучайные.
мы берем информацию и ее оценку, кодирование это уже другое
ну вы это нейросетевикам расскажите
Ну там вообще то куча упрощений реальных процессов. Поэтому не думаю что они согласятся, что они смогут смоделировать процесс отражения реального субьекта и как он что там чувствует. На уровне нейросетевиков, да, информатика работает, на уровне медицины к сожалению нет.
Ну там вообще то куча упрощений реальных процессов. Поэтому не думаю что они согласятся, что они смогут смоделировать процесс отражения реального субьекта и как он что там чувствует. На уровне нейросетевиков, да, информатика работает, на уровне медицины к сожалению нет.
угадал, навчалось.. вернее, продолжилось
суть повествования такова: информация и ее выражение универсальна для всех случаев