«Если механизм нейросетей начнет обладать авторитетом Жириновского, все члены ЛДПР будут говорить, что наконец-то появился «пророк 3.0», — обсуждали судьбу искусственного интеллекта в России депутаты, бизнесмены и представители общественности. На круглом столе в ВШЭ парламентарии спорили, могут ли нейросети стать угрозой нацбезопасности, а ректор Иннополиса Александр Тормасов призывал не запрещать то, чего мы пока не понимаем. О том, какие барьеры развития стоят перед ИИ и какие законопроекты помогут их преодолеть, — в материале «БИЗНЕС Online».
Владислав Даванков: «Я думаю, что повально все члены ЛДПР будут говорить, что вот наконец-то появился «пророк 3.0»
Нейросеть «Жириновский» и доклады для депутатов от ChatGPT
«Можно ли загрузить в сеть этические нормы, которые будут противоречить нашему законодательству и вообще нормам, принятым в Российской Федерации? Не превратится ли она в оружие?» — размышляли на днях на круглом столе в Высшей школе экономики законотворцы, представители IT-гигантов и других самых разных сфер — от РПЦ до образования. Участники с разных сторон попытались понять, к чему в конце концов приведет развитие искусственного интеллекта (ИИ) и стоит ли вообще его развивать.
Первым взял слово заместитель председателя Госдумы РФ Владислав Даванков, вспомнивший выступление в Думе своего коллеги по партии «Новые люди» Антона Ткачева. Текст к нему был полностью написан ботом ChatGPT, который рассуждал о том, почему ее нельзя запрещать. Впрочем, в ЛДПР пошли еще дальше и решили создать нейросеть «Жириновский» — на основе более 18 тыс. часов интервью и выступлений основателя партии. Леонид Слуцкий в начале апреля говорил, что это будет «первый в мире политический алгоритм», который сможет отвечать на вопросы.
«Очень настораживающая история, потому что одно дело, когда мы говорим о программном механизме, другое — когда этот механизм начинает обладать авторитетом в данном случае Жириновского. Я думаю, что повально все члены ЛДПР будут говорить, что вот наконец-то появился „пророк 3.0“», — указал Даванков, имея в виду продолжение серии книг о «пророческих» высказываниях Жириновского.
Искусственный интеллект, в отличие от человека, не думает о будущем, а значит, не несет ответственности и может выдать ошибочный результат, добавил он. А зампред комитета Думы по вопросам собственности, земельным и имущественным отношениям Николай Николаев заявил, что рамки для ИИ нужно обозначить на законодательном уровне. «Всегда должен быть человек, который отвечает за результат», — подчеркнул он.
В ноябре прошлого года президент России Владимир Путин поручил Госдуме ускорить рассмотрение проекта, согласно которому компании смогут обезличивать данные граждан без их согласия и передавать государству
«У нас проблема с исполнением уже двух поручений президента РФ»
«Искусственный интеллект — инструмент для привлечения инвестиций», — зашел с экономической стороны вопроса директор правового департамента минэкономразвития РФ Лев Гершанок. Поэтому он ратует за снятие всех барьеров для развития ИИ. А одна из главных проблем — оборотоспособность данных, которыми должны подпитываться нейросети.
Гершанок напомнил, что законопроект по доступу к обезличенным данным россиян был разработан в 2021 году и принят в первом чтении. В ноябре прошлого года президент России Владимир Путин поручил Госдуме ускорить рассмотрение проекта, согласно которому компании смогут обезличивать данные граждан без их согласия и передавать государству. «Сегодня основная проблема в том, что данные являются персональными. Во многом мы сегодня считаем, что возможно добиться баланса и часть данных, которые не обладают признаками персонифицированности, направлять в оборот и давать тем самым возможность развитию систем искусственного интеллекта», — пояснил Гершанок.
В конце 2022 года минэкономики опубликовало проект поправок к постановлению правительства от 18 декабря 2020 года о «цифровых песочницах», который как раз должен охватить обработку персональных данных. «Нам не надо уходить в формирование глобального регулирования искусственного интеллекта — не заурегулировать то, что и так развивается. Наша задача — снять барьеры и дать возможность использовать технологические наработки в существующем правовом поле», — пояснил Гершанок.
Кроме этого, в скором времени на рассмотрение будут вынесены поправки, регулирующие работу национальной системы управления данными, сообщил Гершанок. Законопроект должен обозначить условия доступа к системе, где собраны все госданные, а также регламентировать способ передачи данных и взаимодействия с ними. А заодно и ввести понятие санитизации данных — отделения конфиденциальной информации. Как пишет Forbes, согласно новой версии документа, за предварительную обработку (обезличивание) данных будет платить бизнес.
«У нас есть проблема с исполнением уже двух поручений президента», — поддержал представителя минэкономики директор национального центра развития искусственного интеллекта при правительстве РФ Сергей Наквасин. Он пояснил, что эти изменения законодательства должны открыть разработчикам доступ к данным государственных и негосударственных информационных систем. Но они не приняты, потому что до сих пор не удается решить вопрос безопасности.
«Не будет ли там все-таки риска для национальной безопасности? Я предполагаю, что это связано с отсутствием четкого ответа на вопрос о законном способе анонимизации. И призываю на этом по возможности максимально сконцентрировать наши усилия. Поскольку уже стыдно перед президентом, два года не можем исполнить его поручения», — заключил он.
Александр Крайнов: «Что делает нейросеть? Она берет огромное количество текста и, находя какие-то закономерности, создает из этого текста новость»
«Нейросеть не имеет никакого собственного мнения, знаний, этики»
Безопасность данных не единственная препона на пути развития искусственного интеллекта в России. Сложности возникают и с достоверностью результатов, которые генерируют нейросети, и с их этичностью. Пока все решения проверяют люди — специальные разметчики данных. Именно они проверяют, хорошо решена поставленная задача или плохо, рассказал исполнительный директор по исследованию данных Sber AI Денис Димитров.
«Причем плохо может быть в разном понимании. Потому что она (нейросеть) решила задачу неправильно или решила хорошо, но неэтично: кого-то там обозвала или сказала какую-то фразу, которая подпадает под какой-нибудь уголовный закон Российской Федерации», — пояснил он. Впрочем, Димитров верит, что вероятность того, что доученная модель даст неправильный ответ, стремится к нулю.
«Что делает нейросеть? Она берет огромное количество текста и, находя какие-то закономерности, создает из этого текста новость. Нейросеть не имеет никакого собственного мнения, знаний, этики и еще чего-нибудь, — поддержал Димитрова директор по развитию технологий искусственного интеллекта „Яндекса“ Александр Крайнов. — Помните, как Т9 работал, набирая нам подсказки? Это ровно то же самое, только сильно умнее».
Проблема заключается в том, что за свое существование человечество нагенерило много того, что сейчас считается неэтичным, отметил представитель «Яндекса». При этом благодаря работе разработчиков ответы нейросети все равно будут в разы этичнее, чем ответы поисковика в интернете.
«Пока никто из нас не может оценить, насколько то, что сейчас происходит, в ближайшие годы окажет серьезное влияние на жизнь людей. Возможно, это что-то типа электричества — по тому, какое влияние на жизнь людей оказывает. Занимать такую позицию, что мы пока не разобрались, насколько это полезно, и поэтому давайте не будем никак электричество пока использовать, было бы можно, если бы мы на этой планете были одни, но мы живем в довольно конкурентном мире», — заявил спикер. Кроме этого, считает эксперт, необходимо повышать всеобщую грамотность населения в части ИИ: «Электричество может нанести вред, конечно. Можно сказать, пускай разработчик розеток несет ответственность за все несчастные случаи, а можно научить детей не совать пальцы в розетку».
«Если мы боимся ChatGPT, что же мы не боимся тогда интернета? Давайте бояться коммутаторов, давайте отключим интернет»
«Давайте не будем пытаться запрещать то, что мы не понимаем, на всякий случай»
Сильно на фоне предыдущих выступающих отличилась речь председателя патриаршей комиссии по вопросам семьи, защиты материнства и детства РПЦ отца Федора (Лукьянова), который перечислил, казалось бы, все самые пугающие новости о нейросетях. Он напомнил о том, как с использованием нейросетей управляли «группами смерти» и что сам искусственный интеллект в интервью рассказал, что планирует занять место человека.
«Система может формировать собственные нормы, условную „мораль“. Часто она становится ментором, тьютором, учителем, психологом, врачом. Начинает давать консультации в этих областях, в том числе как человеку себя вести, или проводить некую психотерапию собственную», — сказал спикер. Кроме этого, он считает, что пользователи могут обойти системы настройки безопасности при поиске информации. Представитель церкви призвал поддержать ограничения на разработку GPT, ограничить доступ к нейросетям для несовершеннолетних, запретить ИИ использовать образ человека (антропоморфизацию программ), закрепить передачу персональных данных только в заявительном характере и даже создать «киберполицию».
Вице-президент по развитию и планированию фонда «Сколково» Сергей Израйлит, впрочем, тут же заверил, что пока интеллектуального потенциала у нейросети нет. В подтверждение своих слов он рассказал, что у нейросети AlexNet, которая распознает изображения, 60 млн параметров, у ChatGPT — 175 млрд, а у коммутаторов интернета — 110 триллионов. «Если мы боимся ChatGPT, что же мы не боимся тогда интернета? Давайте бояться коммутаторов, давайте отключим интернет», — сказал он.
И добавил, что языковые системы могут освободить людей от технических рутинных действий. В качестве примера Израйлит привел исследования Пенсильванского университета, согласно которым ИИ может вдвое увеличить продуктивность 19% профессий. «Наша оценка — примерно 11 миллиардов человеко-часов в год через 5 лет. Это 7 процентов ВВП», — рассказал он.
По словам Тормасова, запретительные тенденции особенно сильно работают в образовании
«Я бы хотел обратиться к законодателям с тем, чтобы мы не пытались запрещать то, чего мы не понимаем, на всякий случай — вдруг оно к чему-то плохому приведет, — обратился к присутствующим ректор Университета Иннополис Александр Тормасов. — Потому что нам потом придется или стыдливо, втихую отменять то, что мы насочиняли, или пытаться на ходу корректировать. Если мы чего-то не понимаем, давайте не будем это регулировать, а посмотрим, что произойдет».
По словам Тормасова, запретительные тенденции особенно сильно работают в образовании. Например, система «Антиплагиат» обещает функционал, который позволит определить, был ли тот или иной текст сгенерирован ИИ или нет, но ректор не верит, что это будет работать долго, поскольку появятся сервисы для обхода системы. «Я бы не надеялся на то, что мы сможем отличить генерированный текст от человеческого. В конце концов, рассматривайте это как усовершенствованную ручку. Давайте учить, как этим можно пользоваться», — призвал он членов круглого стола.
Внимание!
Комментирование временно доступно только для зарегистрированных пользователей.
Подробнее
Комментарии 5
Редакция оставляет за собой право отказать в публикации вашего комментария.
Правила модерирования.