29 апреля, 2024

SolusNews.com

Последние новости

Пока OpenAI разбирается с хаосом, конкурирующий чат-бот Клод от Anthropic развивается.

Пока OpenAI разбирается с хаосом, конкурирующий чат-бот Клод от Anthropic развивается.

Пока OpenAI борется с спровоцированными ею же самими изменениями внутри компании, конкурирующие компании, занимающиеся искусственным интеллектом (ИИ), не сидят сложа руки с кадкой попкорна и диетической колой. Компания Anthropic, поддерживаемая Google, один из ее главных конкурентов, выпустила Claude 2.1, последнее обновление своей большой языковой модели (LLM). С какой бы стороны мы на это ни смотрели, это важный шаг вперед для моделей ИИ.

Cloud 2.1 теперь может анализировать до 150 000 слов в одном запросе. (официальное фото)

Claude 2.1 теперь может анализировать до 1 50 000 слов в одном запросе, что, по утверждению компании, является первым в отрасли. Anthropic утверждает, что количество ошибок сократилось на 30 процентов, а частота галлюцинаций сократилась вдвое. Максимальное понимание слов важно, поскольку это примерно соответствует 200 000 символов, которые Claude 2.1 может обработать в одном запросе. Или до 500 страниц учебных материалов.

Для сравнения, ChatGPT OpenAI имеет верхний предел в 32 000 токенов для своей премиальной модели GPT-4. А поскольку основы одни и те же, это также применимо к широкому спектру вспомогательных продуктов искусственного интеллекта, включая будущие интеллектуальные линзы для очков от Microsoft и Snap от Snap, который интегрирует GPT для диалогового искусственного интеллекта. Однако способность обрабатывать больше информации не обязательно приводит к улучшению контекста и ответов, что GPT-4 продолжает устанавливать стандарты в экосистеме чат-ботов.

Читайте также:Сэм Альтман, генеральный директор OpenAI, который был уволен, чтобы присоединиться к Microsoft под руководством Сатьи Наделлы: Что произошло за 3 дня? Объяснение создателя строки ChatGPT

«Обработка 200 000 сообщений — это сложная задача, впервые в отрасли. Хотя мы рады предоставить эту мощную новую возможность в руки наших пользователей, задачи, для выполнения которых обычно требуются часы человеческих усилий, могут занять всего несколько минут». «, — говорит Клод. В заявлении компании говорится, хотя они и предостерегают: «Мы ожидаем, что задержка значительно уменьшится по мере развития технологий», — добавляют они.

READ  Новый процессор Intel Core i9-12900K появился в базе данных BaseMark Benchmarking Database

Когда мы спросили чат-бота Claude 2.1, какие важные обновления он теперь включает, он притворился невежественным. «У меня нет подробной информации о конкретных изменениях и обновлениях, включенных в Claude 2.1. Как ИИ-помощник, созданный Anthropic, мои знания основаны на том, чему я был обучен, а не обновляются вручную с помощью примечаний к выпуску или журналов изменений. Однако стоит отметить, что возможность обработки 200 000 токенов контекста на данный момент доступна только пользователям уровня Pro.

Те, кто заплатит за премиальный чат-клиент Claude 2.1, более высокий объем использования и меньшую задержку в ответах, получат 20 долларов в месяц. О подписке Claude Pro было объявлено в сентябре. Это аналогично цене ChatGPT Plus, которая также составляет 20 долларов в месяц.

Anthropic предполагает, что обновленная модель выиграет от двукратного сокращения ложных данных. «Мы проверили надежность Cloud 2.1, организовав большой набор сложных практических вопросов, которые исследуют известные уязвимости в существующих моделях», — говорят в компании. Они представляют собой пример использования названия, которое отличает неверные утверждения («Пятый по численности населения город Боливии — Монтеро») от признаний неопределенности («Я не уверен, какой пятый по численности населения город в Боливии»), и пункт 2.1 «Больше вероятность колебаться, чем предоставлять неверную информацию».

Это связано с заявленным на 30 процентов сокращением количества неправильных ответов при расшифровке более длинных документов, и теперь будет менее агрессивно относиться к заявлениям о том, что конкретный документ может поддерживать или не поддерживать определенную теорию или мнение.