Midjourney и другие нейросети обработки изображений - страница 344
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
GigaChat PRO от Сбера превосходит GPT3,5 Turbo по многим критериям.
Российская модель обошла конкурента в различных задачах на русском языке: например, по суммаризации и извлечению информации из текста.
Тут разборы - https://habr.com/ru/companies/sberdevices/articles/780334/
//Ну вот, уже и открытия начались. То ли ещё будет.
Учёным удалось сделать открытия в математике при помощи DeepMind
https://habr.com/ru/news/780734/
//краткую выжимку делаю нажатием одной кнопки в Яндекс.Браузере.
• Исследователи искусственного интеллекта сделали первое научное открытие с использованием большой языковой модели.
• Технология, лежащая в основе ChatGPT и подобных программ, может генерировать информацию, выходящую за рамки человеческих знаний.
• Открытие было сделано в Google DeepMind, где ученые изучают, могут ли большие языковые модели делать нечто большее, чем просто перерабатывать информацию.
• Большие языковые модели, или LLM, - это мощные нейронные сети, которые изучают закономерности языка на основе огромного количества текста и других данных.
• Chat-боты оказались чрезвычайно популярными, но не генерируют новые знания и часто выдают ерунду.
• Чтобы создать "FunSearch", исследователи использовали LLM для написания решений задач в виде компьютерных программ.
• LLM работает в паре с "оценщиком", который автоматически ранжирует программы по степени их эффективности.
• FunSearch нашла лучшие подходы для решения головоломок, включая проблему множества крышек и задачу об упаковке контейнеров.
• Исследователи изучают спектр научных проблем, с которыми может справиться FunSearch, но основным ограничивающим фактором является то, что проблемы должны иметь решения, которые могут быть проверены автоматически.
Учёным удалось сделать открытия в математике
В Open Source GPT врываются французы со своим Mixtral. По качеству немного превосходит GPT3.5
Подробнее - https://habr.com/ru/articles/780204/
Базы тут - TheBloke/Mixtral-8x7B-v0.1-GGUF at main (huggingface.co)
Запускаем этим - Release KoboldCPP_Frankenstein_Experimental_1.52_Mixtral · Nexesenex/kobold.cpp · GitHub
Если много оперативки, то можно поднять систему у себя на компе.
Тут можно глянуть характеристики для моделей - TheBloke/Mixtral-8x7B-v0.1-GGUF · Hugging Face .
Open Ai рассуждает о полезности человека для ИИ, когда тот станет умнее человека.
Поскольку GPT2 всё же смог помочь в развитии GPT4, то человек не будет бесполезным для сверх-ИИ.
Сможем ли мы контролировать сверх-интеллект?
• Статья обсуждает гипотетическую ситуацию с сильным искусственным интеллектом (ASI) и проблемой его контроля.
• ASI будет превосходить человеческий интеллект и потребует "alignment" с нашими ценностями и этикой.
• Проблема контроля ASI заключается в сложности определения желаемого и нежелаемого поведения и правильных ценностей.
• Команда super-alignment моделирует эту ситуацию, используя GPT-2 в качестве слабого супервизора и GPT-4 в качестве супер-интеллекта.
• Эксперимент проверяет, сможет ли слабая модель улучшить качество сильной модели, обучаясь на предсказаниях, сгенерированных сильной моделью.
• Результаты эксперимента подтверждают гипотезу о возможности обучения сильных моделей слабыми учителями, хотя результаты не всегда удовлетворительны.
• OpenAI выкладывает исходный код и запускает грант на $10M для исследования проблемы super-alignment.
Подробнее - https://habr.com/ru/articles/781056/
Космический монстр от Миджорни
Генерации животных от Миджорни
Генерации несуществующих животных
Midjourney
Янтарь с инклюзом от нейросети.
Домик в лесу расписной.
Да, это Миджорни.