OpenAI представила GPT-4 — новейшую версию своей большой языковой ИИ-модели, которая, демонстрирует «производительность на уровне человека» во многих профессиональных задачах. GPT-4 намного больше предыдущих версий — она была обучена на большем количестве данных и использует больший объём информации, что делает нейросеть более дорогой в работе. При этом GPT-4 способна работать не только с текстом, но и с изображениями, хотя на выходе она по-прежнему даёт только текст.
Большая языковая модель GPT от OpenAI используется во многих системах искусственного интеллекта, которые поразили людей в технологической отрасли за последние шесть месяцев, включая ChatGPT и поисковик Bing с ИИ. Новейшая GPT-4 — это предварительный просмотр новых достижений, которые могут начать просачиваться в потребительские продукты, такие как чат-боты, в ближайшие недели. ИИ-бот в Bing уже использует GPT-4, сообщила Microsoft во вторник.
Важнейшим нововведением GPT-4 стала поддержка не только текста, но и изображений в качестве вводных. Новая версия нейросети может понимать, что изображено на фото, схеме, рисунке или другом изображении, и учитывать эти данные при решении задачи. Ещё ИИ способно объяснять данные, представленные в виде диаграммы. Но пока что поддержка с изображений проходит закрытое тестирование.
OpenAI утверждает, что новая модель будет давать меньше фактически неверных ответов, реже «сходить с ума» и говорить на запрещенные темы, и даже показывать лучшие результаты, чем люди, во многих стандартизированных тестах. Касательно последнего, по заявлению OpenAI, модель GPT-4 сдала смоделированный адвокатский экзамен лучше 90 % людей, экзамен SAT Reading test (нужно ответить на вопросы по небольшим текстам) — лучше, чем 93 % людей, а экзамен SAT по математике — лучше, чем 89 % людей.
Однако OpenAI предупреждает, что новое программное обеспечение еще не совершенно и что во многих сценариях оно уступает человеку. По словам компании, у модели всё ещё есть серьезные проблемы с «галлюцинациями» (выдумыванием фактов), так что она не является надежной с точки зрения представления фактов. GPT-4 по-прежнему склонна настаивать на своей правоте, когда ошибается
Microsoft инвестировала миллиарды в OpenAI и для обучения модели GPT-4 использовалась облачная инфраструктура Microsoft Azure. Разработчики не опубликовали подробностей о конкретном размере модели или аппаратном обеспечении, которое они использовала для ее обучения и которое может быть использовано для воссоздания модели, сославшись на «конкурентную среду».
Новая модель сначала будет доступна платным подписчикам ChatGPT, а также будет доступна в составе API, что позволит сторонним разработчикам интегрировать ИИ в свои приложения. Для доступа к API нужно записаться на лист ожидания. OpenAI будет взимать около 3 центов за примерно 750 слов подсказок и 6 центов за примерно 750 слов ответа.
Горячие темы