OpenAI обновленную версию ChatGPT4 — GPT4o (Omni). Новая версия будет доступна для всех пользователей СhatGPT, в том числе на бесплатной основе, а все ее функции станут доступны в течение трех недель.

Фото: «БИЗНЕС Online»

GPT4o обладает «уровнем интеллекта GPT-4», однако стала, по словам технического директора Миры Мурати, в 2 раза быстрее, на 50% дешевле, работает на 50 языках, а также является нативно-мультмодальной, т. е. обрабатывает и текст, и аудио, и видео или фото ряд. Кроме того, модель обладает памятью и запоминает прошлые запросы пользователя.

GPT4o доступна в виде приложения на ПК, фактически исполняя функции голосового помощника. Модель распознает тон голоса, эмоции человека, а также может менять тональность своего ответа по запросу, например, отвечать голосом робота или «говорить театрально». Реакция на запрос составляет 0,3 секунды, что создает ощущение общения с живым человеком.

GPT 4o сможет читать и анализировать диаграммы, находить ошибку в данных, писать код еще быстрее. Для получения ответа пользователю необходимо выделить интересующий кусок текста на экране и показать боту. Как утверждают разработчики, без запроса модель экран не видит.

Модель также считывает картинки в реальном времени: например, решает или помогает найти ответ на написанный и показанный ей пример. Кроме того, она может определить по видео, в каком эмоциональном состоянии находится пользователь. В ходе презентации GPT-4о в режиме реального времени считала эмоции по видеокамере и отпустила пару шуток. «О, это так мило, спасибо!» — отреагировала она на написанную сотрудником OpenAI фразу «Я люблю тебя, ChatGPT».

Также модель может выступать в роли карманного переводчика. В ходе презентации GPT-4о перевела разговор двух сотрудников друг другу, при этом один говорил исключительно на итальянском, а второй — на английском.