
NVIDIA представила Llama Nemotron — новое семейство ИИ-моделей с улучшенными навыками рассуждения. Созданные на базе открытых моделей Llama от Meta Platforms, эти модели предоставляют разработчикам мощную основу для построения передовых ИИ-агентов. Агенты смогут автономно или с минимальным вмешательством решать сложные задачи, эффективно взаимодействуя в групповых решениях от имени пользователей.
NVIDIA значительно улучшила семейство моделей рассуждений Llama Nemotron, повысив их точность на 20% и скорость вывода в пять раз по сравнению с лучшими аналогами с открытым исходным кодом. Достигнуто это благодаря дополнительному обучению, позволившему моделям эффективнее решать многошаговые математические задачи, заниматься программированием, логическими выводами и принимать сложные решения.
Повышение скорости вывода позволяет обрабатывать более сложные задачи и расширяет возможности принятия решений, а также снижает эксплуатационные расходы для бизнеса. Модели Llama Nemotron доступны в NVIDIA NeMo, представлены в трёх вариантах (Nano, Super, Ultra), оптимизированных под различные потребности: Nano для персональных компьютеров и периферийных устройств (с сохранением высокой точности), Super для баланса производительности и точности на одном ускорителе, и Ultra для максимальной точности в дата-центрах с многоускорительной архитектурой.
NVIDIA анонсировала масштабное дообучение своей модели с использованием сервиса DGX Cloud. Процесс опирался на высококачественные, курируемые синтетические данные, созданные NVIDIA Nemotron и другими открытыми моделями, а также на дополнительных, совместно разработанных NVIDIA наборах данных. Обучение заняло 360 000 часов инференса на ускорителях H100 и потребовало 45 000 человеко-часов аннотации для улучшения логических выводов. Компания планирует открыть доступ к инструментам, наборам данных и методам оптимизации, используемым в разработке, что позволит предприятиям создавать собственные кастомизированные модели рассуждения.
