Midjourney и другие нейросети обработки изображений - страница 685

 
Дип фэйкомет детектед. Теперь пруфы. Не надо тратить время людей на фейки.
 
Maxim Dmitrievsky #:
Определение, а не словесный понос чата гпт, пожалуйста.
Страницы из книг, где даны такие определения.   

На примере этой книги:
          
Стюарт Рассел и Питер Норвиг:
   - В своей книге "Artificial Intelligence: A Modern Approach" они обсуждают алгоритмы машинного обучения в контексте поиска оптимального решения, рассматривая их как часть более общей темы оптимизации.

Поиск по книге (пролистал всю) не находит определение МО через подкласс алгоритмов оптимизации.

Содержание четко разделено на разделы про оптимизацию и на разделы про ML.

Раздел теории обучения не содержит ни одного включения слова "оптимизация".

Есть разделы про RL и оптимизацию гиперпараметров моделей. Про алгоритмы МО в контексте общей темы оптимизации нет ни слова.

Опять бесноватые оптимизаторщики выдают желаемое за действительное, теперь уже с привлечением дипфаков.


 
Andrey Dik #:


Эволюция, в конечном итоге, всегда приводит к увеличению энтропии

Извините, Андрей, есть вопрос. Вроде, эволюция приводит к увеличению разнообразия и сложности, то есть энергия сгущается, а не рассеивается, почему тогда эволюция создатель энтропии?

 
Остальную литературу разбирать уже нет смысла. И тратить время на бредни. Очередной провал.
 
Aleksei Stepanenko #:

Извините, Андрей, есть вопрос. Вроде, эволюция приводит к увеличению разнообразия и сложности, то есть энергия сгущается, а не рассеивается, почему тогда эволюция создатель энтропии?

Эволюционные процессы приводят к увеличению разнообразия и сложности системы, совершенно верно, это и есть увеличение энтропии. Уменьшение энтропии - уменьшение разнообразия и увеличение порядка.

Эволюция - не создатель энтропии, энтропия - это мера оценки. Эволюция процесс, описываемый вторым законом термодинамики, который определяет, что все процессы ведут в конечном итоге к увеличению энтропии.

 
Похоже, не могу правильно осознать понятие энтропии.
 
Maxim Dmitrievsky #:

Поиск по книге (пролистал всю) не находит определение МО через подкласс алгоритмов оптимизации.

Содержание четко разделено на разделы про оптимизацию и на разделы про ML.

Раздел теории обучения не содержит ни одного включения слова "оптимизация".

Есть разделы про RL и оптимизацию гиперпараметров моделей. Про алгоритмы МО в контексте общей темы оптимизации нет ни слова.

Опять бесноватые оптимизаторщики выдают желаемое за действительное, теперь уже с привлечением дипфаков.


Подводит промптусов их божество)

«Когда говорит он ложь, говорит свое, ибо он лжец и отец лжи»

 

In the early period of AI it seemed plausible that new forms of symbolic computation,
e.g., frames and semantic networks, made much of classical theory obsolete. This led to
a form of isolationism in which AI became largely separated from the rest of computer
science. This isolationism is currently being abandoned. There is a recognition that
machine learning should not be isolated from information theory, that uncertain reasoning
should not be isolated from stochastic modeling, that search should not be isolated from
classical optimization and control, and that automated reasoning should not be isolated
from formal methods and static analysis.

Машинный перевод:

На заре развития ИИ казалось вероятным, что новые формы символьных вычислений, например фреймы и семантические сети, сделали большую часть классической теории устаревшей. Это привело к определенной форме изоляционизма, при которой ИИ был в значительной степени отделен от остальной части компьютерных наук. В настоящее время от этого изоляционизма отказываются. Существует понимание того, что машинное обучение не должно быть изолировано от теории информации, что неопределенные рассуждения не должны быть изолированы от стохастического моделирования, что поиск не должен быть изолирован от классическая оптимизация и управление, а также то, что автоматизированное рассуждение не должно быть изолировано от формальных методов и статического анализа.

И далее в книге чуть ли ни в каждой главе упоминается оптимизация.

Ещё раз, последний:

Определение оптимизации: оптимизация - процесс поиска наилучшего решения.

МО - поиск состояния модели, которое (состояние) минимизирует ошибку на новых неизвестных данных. МО - подкласс процессов оптимизации по решению задачи уменьшения ошибки на новых данных. Если кто-то занимается чем угодно и утверждает, что он не ищет наилучшее решение, значит он осуществляет бессмысленный случайный процесс. Наилучшее решение в МО - модель, имеющая минимум ошибки на новых неизвестных данных.

Кто хочет понимать и разобраться - поисковики в помощь.

 

у сектанотов подгорает

начинают судорожно отрицать очевидное

 
Vitaliy Kuznetsov #:

Апскейл на основе FLUX. Работает чисто и хорошо, не портит картинку лишними придумками.

тут - https://huggingface.co/jasperai/Flux.1-dev-Controlnet-Upscaler


Кто-нибудь пользовался локально такими моделями?

1. Как я понимаю, работает только с картами NV. Для модификации под AMD нужен напильник.

2. Можно ли использовать несколько видеокарт?

3. Вроде бы нужно много памяти.

4. Вместо How to use нарисован код на питоне, я в нём ноль. Как это устанавливать?

Есть опыт? Или ссылки на 100% решение. Танцевать с бубном возможности нет. Но восстанавливать старые фотки люблю.