Ярче всего выступил главный действующий персонаж в области разработки ИИ — СЕО Open AI Сэм Альтман. Публикуем самое интересное из двухчасовой беседы Фото: © Hannes P Albert/dpa/globallookpress.com

Общий ИИ и все-все-все

Общий искусственный интеллект (AGI — Artificial general intelligence), который не хуже человека будет справляться с широким спектром задач и самообучаться, пока создать не удалось, но его появление ожидается уже в ближайшие несколько лет. Этот тезис на прошлой неделе удивительно синхронно транслировали по разным каналам сразу несколько ведущих мировых разработчиков ИИ-моделей. Причем с довольно смелыми прогнозами выступили даже самые осторожные игроки.

Так, Джаред Каплан, соучредитель и главный научный сотрудник Anthropic, в подкасте Salesforce спрогнозировал, что в 10-летнем горизонте появятся системы ИИ (формулировки «общий ИИ» он избегает), которые смогут помочь в проведении научных исследований, решении проблем бедности, неравенства, но приведут к другим проблемам. «Человечество всегда отличалось способностью к сотрудничеству и интеллектом, поэтому, если появятся системы ИИ, которые смогут выполнять всю нашу когнитивную работу, все станет совсем другим», — рассуждает он. Подвох в том, что даже ведущие мировые исследователи ИИ точно не знают, как работают большие языковые модели, а темпы развития ИИ экспоненциальные: даже то, что не работает сегодня, может заработать через месяц. В то же время его коллега, соосновательница Anthropic и президент компании Даниэла Амодей дает интервью Bloomberg, в котором аккуратно рассказывает, что модели становятся все более умными и способными.

Гораздо более смелые прогнозы делает Дженсен Хуанг, основатель и генеральный директор Nvidia. На ежегодной конференции он заявил, что общий ИИ появится уже в течение пяти лет. Основная проблема заключается в непредсказуемости процессов принятия решений AGI, которые могут не совпадать с человеческими ценностями и приоритетами. Значит, есть опасения, что, как только AGI достигнет определенного уровня автономии и возможностей, его станет невозможно сдерживать или контролировать, что приведет к сценариям, в которых действия ИИ невозможно будет предсказать или обратить вспять.

Ярче всего выступил, наверное, главный действующий персонаж в области разработки ИИ — СЕО Open AI Сэм Альтман. Он только в марте вернулся в совет директоров компании после сверхрезонансного конфликта с другими членами совета. Его даже уволили с формулировкой, что он «не был последовательно честен», но через пять дней позвали обратно. Считается, что главным оппонентом Альтмана выступил известный ученый и сооснователь Open AI Илья Суцкевер, родившийся в Нижнем Новгороде. С тех пор о том практически ничего не было слышно, а вот Альтман активно раздает интервью, комментируя и конфликт, и будущие разработки. Но одна из самых откровенных бесед произошла на днях, в мартовском подкасте Лекса Фридмана, известного американского ученого, интервьюера и блогера российского происхождения (имя Фридмана при рождении — Алексей Федотов). «БИЗНЕС Online» собрал самое интересное из двухчасовой беседы.

Альтман убежден, что ИИ будет иметь гораздо больше хороших последствий, чем плохих, но общество пока это не принимаетФото: ru.freepik.com

Взрывоопасный путь к сильному ИИ

Путь к общему искусственному интеллекту может привести к гигантской борьбе за власть, философски рассуждает Альтман, комментируя свою отставку. «Я счастлив, что это случилось относительно рано. Я предполагал, что в какой-то момент — между началом работы OpenAI и созданием общего ИИ — произойдет что-то взрывоопасное. Но, возможно, случатся и более безумные вещи», — допускает он.

Общий ИИ «никто не видел». «Есть мнение, что Илья Суцкевер, возможно, видел общий искусственный интеллект и это вызвало у него сильное внутреннее беспокойство. Что же все-таки увидел Илья?» — вкрадчиво спросил у Альтмана Фридман. «Илья не видел общий искусственный интеллект. Никто из нас его не видел. Мы его не создали», — заверил гендиректор OpenAI. «Илью держат в заложниках на секретном ядерном объекте?.. Почему тогда он хранит молчание и о нем ничего не слышно? Он просто ищет себя?» — попытался продолжить допрос ведущий, но Альтман переадресовал его напрямую к Суцкеверу.

«Microsoft не та фирма, чтобы жертвовать 10 ярдов на пользу человечеству»

OpenAI не лучшее название компании. Безопасность разработок Альмана тревожит не только Суцкевера. Недавно на OpenAI и ее гендиректора подал в суд… Илон Маск — сам бывший член совета директоров (вышел из состава в 2018 году), упрекнув компанию в закрытости, мол, новое правление совершенствует искусственный интеллект, чтобы «максимизировать прибыль для Microsoft, а не на благо человечества». Маск даже предложил бывшим партнерам сменить название: с OpenAI (в дословном переводе — «Открытый ИИ») на Closed AI («Закрытый ИИ»).

«Илон думал, что OpenAI провалится. Он хотел получить полный контроль <…> одно время он хотел превратить ее в коммерческую компанию, чтобы она слилась с Tesla. Мы не согласились, и он решил уйти, что вполне нормально», — парировал Альтман. Но кое в чем он с Маском согласен: «Я бы определенно выбрал другое название, — внезапно заявил он. — Я думаю, что некоторые вещи мы должны открывать, а некоторые — нет».

Нейросети запоминают, забывают, врут и пугают

Sora может стать источником глобальной дезинформации. Речь о еще одной неройсети от OpenAI, которая способна по текстовому описанию сгенерировать видео. Реалистичное настолько, что в 5 из 8 случаев респонденты оказывались не способны отличить генерацию от реальной видеозаписи. Но доступ к модели пока открыт не для всех. «Там еще тонна работы. Вы можете представить себе количество возможных дипфейков, дезинформации? Мы стараемся вдумчиво прорабатывать то, что выпускаем в мир. Не нужно много размышлять, чтобы представить, как все может плохо обернуться», — резюмировал Альтман.

ИИ-агент должен запоминать все о владельце и забывать по первому требованию. «Я хочу для себя модель, которая бы узнавала меня, становилась более полезной», — заявил глава OpenAI. «А как насчет того, что GPT запомнил бы весь тот кошмар, через которой вы прошли в ноябре?» — уточнил ведущий. «Я не просто хочу, чтобы он помнил об этом — я хочу, чтобы он интегрировал вынесенные уроки и напоминал мне в будущем, что нужно делать по-другому или чего стоит остерегаться. Мы все получаем опыт в течение жизни. И я желал бы, чтобы мой ИИ-агент тоже приобретал его», — подтвердил Альтман. В будущем GPT будет запоминать все переговоры, электронные письма и т. д. Но выбирать, что именно запомнит бот и что он забудет, должен человек.

Люди зациклились на проблемах. Страх людей перед искусственным интеллектом, по мнению Альтмана, примерно такой же, как и перед новым Чернобылем. «Я не знаю, какова вероятность того, что меня в конце концов пристрелят, но она не нулевая», — заметил Альтман. Он убежден, что ИИ будет иметь гораздо больше хороших последствий, чем плохих, но общество пока это не принимает. «Мы же знаем, что гораздо больше людей умерло от загрязнения воздуха, чем от ядерных реакторов, но мы беспокоимся именно о будущем последних. У большинства людей больше страха вызывает жизнь рядом с ядерным реактором, чем с угольной станцией», — заметил он.

При этом многие страхи, витающие вокруг данной разработки, говорят скорее не о реальных рисках общего искусственного интеллекта, но о том, что эта тема реально захватывает умы людей. «Есть большая группа очень умных, очень благонамеренных исследователей безопасности ИИ, которые сильно зациклились на проблемах… На самом деле я рад, что они об этом говорят, нам действительно нужно больше думать об ИИ. Но, мне кажется, их действия отодвинули на задний план множество других очень значительных рисков, связанных с искусственным интеллектом», — заключил он.

Компьютеры дороже денег

Вычисления — новая валюта человечества. «Я думаю, что это будет, возможно, самый ценный товар в мире. Единственное, о чем, на мой взгляд, имеет смысл говорить, — это о том, что при цене X мир будет использовать столько-то вычислительных ресурсов, а при цене Y — другое количество. Потому что если это действительно дешевый компьютер, то он будет читать мою электронную почту весь день… А если это дорогой компьютер, то, возможно, я буду использовать его только для того, чтобы попытаться вылечить рак», — заметил он.

Маск запускает спутники-шпионы, гендиректор Apple обманул акционеров, а вас вычислят по манере печатать

GPT-4 — это «отстой»… в сравнении с моделями будущего. «Во времена GPT-3 люди говорили: „О, это потрясающе, это чудо техники!“ И это так и было. Но теперь у нас есть GPT-4, и, глядя на GPT-3, вы думаете: „Это невообразимо ужасно“. Я ожидаю, что дельта между GPT-5 и GPT-4 будет такой же», — спрогнозировал он. Названия, к слову, у новой модели до сих пор нет, как и сроков выпуска. Но Альтман пообещал, что в этом году OpenAI выпустит «новую прекрасную вещь».

Общий искусственный интеллект появится, но не сегодня. «Раньше я любил порассуждать на тему того, создаст ли человечество ИИ. С тех пор я понял, что само его понятие очень плохо сформулировано. Поэтому я думаю, что более разумно говорить о том, когда мы создадим системы, способные выполнять возможности X, Y или Z», — сказал Альтман. Да и сам общий искусственный интеллект — это только начало, уверен он. «Я бы сказал, что ожидаю появления общего ИИ к концу этого десятилетия, а возможно, и несколько раньше», — заключил гендиректор OpenAI.