Midjourney и другие нейросети обработки изображений - страница 344

 

GigaChat PRO от Сбера превосходит GPT3,5 Turbo по многим критериям.

Российская модель обошла конкурента в различных задачах на русском языке: например, по суммаризации и извлечению информации из текста.

Тут разборы - https://habr.com/ru/companies/sberdevices/articles/780334/


 

//Ну вот, уже и открытия начались. То ли ещё будет.

Учёным удалось сделать открытия в математике при помощи DeepMind

https://habr.com/ru/news/780734/

//краткую выжимку делаю нажатием одной кнопки в Яндекс.Браузере.

• Исследователи искусственного интеллекта сделали первое научное открытие с использованием большой языковой модели.

• Технология, лежащая в основе ChatGPT и подобных программ, может генерировать информацию, выходящую за рамки человеческих знаний.

• Открытие было сделано в Google DeepMind, где ученые изучают, могут ли большие языковые модели делать нечто большее, чем просто перерабатывать информацию.

• Большие языковые модели, или LLM, - это мощные нейронные сети, которые изучают закономерности языка на основе огромного количества текста и других данных.

• Chat-боты оказались чрезвычайно популярными, но не генерируют новые знания и часто выдают ерунду.

• Чтобы создать "FunSearch", исследователи использовали LLM для написания решений задач в виде компьютерных программ.

• LLM работает в паре с "оценщиком", который автоматически ранжирует программы по степени их эффективности.

• FunSearch нашла лучшие подходы для решения головоломок, включая проблему множества крышек и задачу об упаковке контейнеров.

• Исследователи изучают спектр научных проблем, с которыми может справиться FunSearch, но основным ограничивающим фактором является то, что проблемы должны иметь решения, которые могут быть проверены автоматически.

 
Vitaliy Kuznetsov #:
Учёным удалось сделать открытия в математике
Математика - это язык на котором описываются процессы реального мира. "Открытие" в математике - это как "открытие" в русском языке.
 

В Open Source GPT врываются французы со своим Mixtral. По качеству немного превосходит GPT3.5

Подробнее - https://habr.com/ru/articles/780204/

Базы тут -  TheBloke/Mixtral-8x7B-v0.1-GGUF at main (huggingface.co)

Запускаем этим - Release KoboldCPP_Frankenstein_Experimental_1.52_Mixtral · Nexesenex/kobold.cpp · GitHub


Если много оперативки, то можно поднять систему у себя на компе.

Тут можно глянуть характеристики для моделей - TheBloke/Mixtral-8x7B-v0.1-GGUF · Hugging Face .


 

Open Ai рассуждает о полезности человека для ИИ, когда тот станет умнее человека.

Поскольку GPT2 всё же смог помочь в развитии GPT4, то человек не будет бесполезным для сверх-ИИ.



Сможем ли мы контролировать сверх-интеллект?

• Статья обсуждает гипотетическую ситуацию с сильным искусственным интеллектом (ASI) и проблемой его контроля.

• ASI будет превосходить человеческий интеллект и потребует "alignment" с нашими ценностями и этикой.

• Проблема контроля ASI заключается в сложности определения желаемого и нежелаемого поведения и правильных ценностей.

• Команда super-alignment моделирует эту ситуацию, используя GPT-2 в качестве слабого супервизора и GPT-4 в качестве супер-интеллекта.

• Эксперимент проверяет, сможет ли слабая модель улучшить качество сильной модели, обучаясь на предсказаниях, сгенерированных сильной моделью.

• Результаты эксперимента подтверждают гипотезу о возможности обучения сильных моделей слабыми учителями, хотя результаты не всегда удовлетворительны.

• OpenAI выкладывает исходный код и запускает грант на $10M для исследования проблемы super-alignment.

Подробнее - https://habr.com/ru/articles/781056/

 

Космический монстр от Миджорни


 

Генерации животных от Миджорни


 

Генерации несуществующих животных

Midjourney


 

Янтарь с инклюзом от нейросети.


 

Домик в лесу расписной.

Да, это Миджорни.


Причина обращения: