Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Исследователи утверждают, что генеративные инструменты ИИ могут выдавать ответы низкого качества на запросы пользователей, так как их модели обучаются на «синтетических данных», а не на уникальном человеческом контенте, который делает их ответы особенными.
Другие исследователи в области ИИ придумали свои термины для описания этого метода обучения. В исследовании, опубликованном в июле, ученые из университетов Стэнфорда и Райса назвали его «Синдромом модельной автографии», при котором «поглощающий себя» цикл обучения ИИ контенту, созданному другими ИИ, может привести к тому, что генеративные инструменты ИИ будут «обречены» на ухудшение «качества» и «разнообразия» создаваемых ими изображений и текста
Джатан Садовски, старший исследователь в лаборатории исследований новых технологий в Австралии, который изучает ИИ, назвал это явление «ИИ Габсбургов», утверждая, что системы обученные на выходных данных других генеративных инструментов ИИ, могут создавать «изуродованные мутации ответов».
В то время как конкретные последствия этих явлений остаются неясными, некоторые эксперты в области технологий считают, что «коллапс модели» может затруднить определение исходного источника информации, на основе которой обучена модель ИИ. В результате поставщики точной информации, такие как СМИ, могут решить ограничить свой контент, чтобы предотвратить его использование для обучения ИИ. Генеральный директор фирмы по исследованиям технологий Constellation Research Рэй Ванг в своем эссе предположил, что это может породить «эпоху тьмы общественной информации».
Все так. Людям понимающим технологию ML удивляться не приходится. Подобная деградация модели была заранее предсказуема. Кстати, несколько месяцев назад, до того как этот феномен заметила широкая публика, мы уже обсуждали высокую вероятность переспективы "вырождения" LLM здесь, в этой теме.
Однако, наивно думать, что это конец эры ИИ. Скорее всего, промежуточный этап, за которым последует приход новой технологии. Когда это случится неизвестно, но определенно это будет не LLM. Языковая модель не может избежать подобной судьбы в принципе. Если ее не дообучать на огромном количестве нового контента, который, к слову, нужно постоянно фильтровать и цензурировать, а это огромная и дорогая работа, она неизбежно устареет за несколько лет, а если дообучать - она будет поглощать контент созданный другими LLM и начнется деградация. Поэтому, наверное, нас ждет конец эры LLM, а не ИИ. К тому же, языковая модель - не настоящий ИИ, хотя внешне на него очень похожа.
Чем же будет отличаться настоящий ИИ от LLM? Ну,... рискну предположить, что он будет иметь обратную связь от реального мира. Такую же, какую имеем мы, и благодаря которой "чистятся" наши мозги от разного рода бреда, который они так норовят породить.))))
Мысль такая: LLM обученная анализу информации сама будет составлять себе обучающий сет данных. То есть, сет будет состоять не из исходных данных которые ей предоставляют, а из производных - переработанных внутренними механизмами критики и логики.
Самообучение на производных данных.
Продолжаю работать над материалом на тему т.н. "Восстания ИИ". Примерные сроки или дату завершения определить не могу - работа сложная. Могу сказать, что конечный результат будет значительно отличатся от моих начальных ожиданий, и фантастики с футурологией, приправленных "соусом" масковских сказкок, НЕ БУДЕТ. Я буду жестоко уничтожать любые мифы, как уничтожаю паразитов в доме. Паразиты, в данном случае, бредовые идеи или фантазии вокруг ИИ, которые легко залазят людям в голову, и от которых иногда трудно избавиться. Но именно сейчас это наиболее необходимо.
Для меня стала открытием мысль, что мы все находимся под воздействий разных "идей-паразитов", и они в свою очередь, открывают дверь в нашу жизнь "людям-паразитам". И самое интересное, что в распиаренной версии идеи ИИ я идентифицировл такого "паразита". Его нужно извлечь и "препарировать", используя всю мощь научного подхода. Для этого необходимо обратится к классической науке и мнению признанных ученых, чем я и занимаюсь.
В завершении этого поста скажу - человек наконец сотворил зеркало, отражающее главную тайну его эволюционной уникальности среди видов, и на какое то время застыл, разглядывая себя в нем. Понял ли человек как работает его Интеллект? - Конечно НЕТ. До этого далеко. Но пока, человек пялится на ИИ, словно мартышка на зеркало, и как у мартышки, - эмоции у него зашкаливают. Нужно заглушить генератор бреда и задуматься... Что мы и сделаем.
В общем, если у кого то возник вопрос зачем я этим занимаюсь и в чем моя мотивация, ответ прост - извлекаю из своего сознания идею-паразита, которая десятилетия отравляла мой мозг красочными иллюзиями. Хватит.
Что в итоге, терминаторы не захватят землю?
Что в итоге, терминаторы не захватят землю?
Для ответа на этот вопрос, необходимо объективно оценить вероятность подобного развития событий с научной точки зрения. По другому отделаться от этого вопроса не получится, как бы глупо он не звучал.