
Компания Foxconn представила свою первую большую языковую модель FoxBrain с возможностью к рассуждениям. Она основана на архитектуре Llama 3.1 от Meta, а процесс ее обучения занял всего четыре недели.
В реализации проекта приняла участие компания Nvidia, предоставившая доступ к крупнейшему на Тайване суперкомпьютеру Taipei-1, а также оказавшая услуги технического консалтинга в процессе обучения модели, в котором было задействовано 120 ускорителей Nvidia H100.
Модель FoxBrain будет использоваться внутри компании для анализа данных, математических вычислений, управления производством и цепочкой поставок, совместной работы с документами и написания программного кода.
Несмотря на то, что FoxBrain немного уступает по производительности нашумевшей китайской модели DeepSeek, по мнению компании ее производительность близка к мировым стандартам. В дальнейшем Foxconn планирует опубликовать исходный код, что позволит сотрудничать с технологическими партнерами для расширения областей применения модели.
