Дискуссии о рисках развития искусственного интеллекта дошли и до Совета Федераци Дискуссии о рисках развития искусственного интеллекта дошли и до Совета Федерации Фото: council.gov.ru

«ИИ будет не меньше, чем живые журналисты, следовать приоритетам, расставленным редакцией»

Дискуссии о рисках развития искусственного интеллекта дошли и до Совета Федерации. На этот раз сенаторы обеспокоились судьбой журналистов и их читателей, которые будут поглощать материалы, созданные ИИ. «Искусственный интеллект претендует на то, чтобы вытеснить целые профессии, — предупредил председатель комиссии по информационной политике и взаимодействию со СМИ Алексей Пушков. — Сейчас говорят о том, что искусственный интеллект может вполне писать материалы, статьи, пока еще не говорят, что он может вести колонку обозревателя, но я опасаюсь, что и до этого может дойти. Деперсонализация средств массовой информации довольно опасное явление. Если технические средства начнут нам подавать информацию, то напрасно считать, что она будет непременно объективной».

Хотя с написанием необъективной информации справляются и живые журналисты. Пушков подчеркивает, что в российской прессе нередко появляется калька либеральной точки зрения, господствующей за рубежом, и это «не просто неверно, а вредно». В качестве примера спикер привел сообщения СМИ об «ультраправых» политических силах в Европе, которые на самом деле таковыми не являются. «Ультраправые — это „Азов“*, нацистские организации. А Партия национального объединения во Франции, которая имеет 35 процентов голосов и представлена в Европарламенте и Национальном собрании, не является ультраправой, а у нас это воспроизводят», — отметил он.

Алексей Пушков: «Искусственный интеллект претендует на то, чтобы вытеснить целые профессии» Алексей Пушков: «Искусственный интеллект претендует на то, чтобы вытеснить целые профессии» Фото: council.gov.ru

«ИИ будет способен воспринимать совокупность того, что происходит в современном мире в области СМИ. А там происходит на самом деле гибель информации, — эмоционально продолжал Пушков. — Информация на Западе превратилась в инструмент. Иракская война была построена на совершенно сознательном создании ложной информации, что у Саддама Хусейна есть атомное, химическое, биологическое оружие. Ливийская война — на обвинении Каддафи, в том что он убил 6 тысяч человек. По данным Human Rights Watch от 2015 года, в Ливии погибли 325 человек при столкновении восставшего населения и полиции. <…> Потом мы увидели это с вами в Сирии, а затем — на Украине. Мы же видим, какой фон всего украинского кризиса на Западе, и он транслируется на весь мир!»

Проблема, по мысли депутата, в том, что и ИИ будет руководствоваться вот этой некорректной информацией и множить искажения.

Более оптимистичный взгляд оказался у депутата Госдумы Анатолия Вассермана, который допустил, что полноценно развитый искусственный интеллект сможет понять полезность взгляда на мир с разных точек зрения. Правда, есть одно но: то, с чем мы сейчас имеем дело, — это не интеллект. «Он учится на массиве данных, подготовленных людьми, классифицированных людьми, оцениваются результаты его работы опять же людьми», — указал он. Даже интернет-метрики работают необъективно, постоянно подкручиваются Google и выдают в топ СМИ и новости, соответствующие «повесточке». Значит, ИИ, работающий в какой-то редакции, будет не меньше живых журналистов следовать приоритетам владельцев этой редакции.

Анатолий Вассерманс: «ИИ, работающий в какой-то редакции, будет не меньше живых журналистов следовать приоритетам владельцев этой редакции» Анатолий Вассерманс: «ИИ, работающий в какой-то редакции, будет не меньше живых журналистов следовать приоритетам владельцев этой редакции» Фото: council.gov.ru

Совет журналистам от Вассермана: «Пора искать себе работу более интеллектуальную»

Обсудили сенаторы и больной вопрос, кого-таки заменит искусственный интеллект. Сошлись на том, что хорошим журналистам вряд ли в ближайшее время что-то грозит, но проблемы могут возникнуть, например, у тех, кто работает голосом на радио (качество синтеза речи уже сейчас высокое), у рерайтеров, у тех, кто создает фейк-ньюс и кликбейт. Вассерман и вовсе посоветовал работникам СМИ сменить профессию. «Моим коллегам журналистам, освоившим эти специальности, пора искать себе работу более интеллектуальную. Ну не знаю: землекопы, швеи-мотористки, может быть, кто-то даже до экскурсовода поднимется», — предложил он.

Президент компаний «Ашманов и партнеры» и «Крибрум» Игорь Ашманов, занимающийся ИИ, в качестве примера алгоритмизированной журналистики даже зачитал новостное сообщение неназванного СМИ:

«НАТО заверило Молдавию в продолжении поддержки…

Генсек НАТО Столтенберг заверил Молдавию в продолжении поддержки…

Генеральный секретарь НАТО Йенс Столтенберг заверил премьера Молдавии в продолжении поддержки…»

«Это кто-то сделал руками. Понятно, что за него это может сделать ChatGPT! Вообще, искусственный интеллект этого типа все усредняет. Он производит интеллектуальный „доширак“ и приучает людей к абсолютной невзыскательности. И все, кто захочет в СМИ сэкономить на этих алгоритмизированных журналистах, начнут производить еще более пресную дрянь», — спрогнозировал он.

Главный редактор «Московского комсомольца» и член совета при президенте РФ по правам человека Павел Гусев рассказал о том, что владельцы российских СМИ уже готовы заменить журналистов на ИИ для сокращения расходов. «„Мы собираемся снизить человеческую нагрузку за счет искусственного интеллекта“, — говорят они. И приводят цифры того, что это им даст. Какие дальше будут минусы, они не думают», — посетовал Гусев, признав, что редакция «Московского комсомольца» тоже использует ИИ для написания заголовков в светской хронике.

Еще более популярная страшилка касается обретения ИИ сознания. Ашманов считает, что это полная ерунда. «Угрозой являются злые и очень умные люди, которые этим инструментом пользуются. И надо понимать, что это наши враги», — указал он Еще более популярная страшилка касается обретения ИИ сознания. Ашманов считает, что это полная ерунда. «Угрозой являются злые и очень умные люди, которые этим инструментом пользуются. И надо понимать, что это наши враги», — указал он Фото: council.gov.ru

«Нам помахали этой блестящей обманкой с генеративными сетями, и мы туда бросились»

Еще более популярная страшилка касается обретения ИИ сознания. Ашманов считает, что это полная ерунда. «Угрозой являются злые и очень умные люди, которые этим инструментом пользуются. И надо понимать, что это наши враги», — указал он.

Ашманов пояснил, что у платформ больших языковых моделей есть проекты «по инструктированию интеллекта», которые эксплуатируют десятки тысяч асессоров. «Это дешевые рабочие руки — в основном негры в Африке и индусы. У которых есть методичка, prompt и пять возможных ответов от ИИ, которые они должны отранжировать от неприемлемого до блестящего. И в этой методичке вся повестка зашита», — объяснил он логику обучения ИИ.

Беда в том, что большинство проектов по ИИ в России вторичны — у нас нет такого количества «железа», на котором это все можно было бы собрать, уверен Ашманов. А те 3–4 месяца, на которые якобы отстают российские модели от американских, — это то время, за которое русские «стягивают» иностранные модели. Именно поэтому, например, заместитель председателя совета безопасности России Дмитрий Медведев не смог с помощью нейросети «Шедеврум» от «Яндекса» нарисовать украинского солдата. «Вбил в программу: „Русский с автоматом в руках“. Сделала. Вбил: „Украинец с автоматом в руках“. Не хочет! Противоречит, мол, политике приложения. И теперь не знаю, хорошо ли это или плохо», — сообщал тогда Медведев в своем телеграм-канале.

«Это не наш прогресс. Нам помахали этой блестящей обманкой с генеративными сетями, и мы туда бросились — частные компании и государственные корпорации. Большинство из этих изделий вторичны. Это можно выяснить», — говорил Ашманов. И в качестве иллюстрации рассказал, как якобы отечественная нейросеть однажды даже признала, что была создана американским OpenAI. «Наши разработчики даже поленились вставить свой шаблон!» — посетовал спикер.

Герман Клименко: «Пока у нас замки на дверях открыты, у нас получается очень смешная история. СМИ пишут в рамках действующего законодательства, а на другой стороне…» Герман Клименко: «Пока у нас замки на дверях открыты, у нас получается очень смешная история. СМИ пишут в рамках действующего законодательства, а на другой стороне…» Фото: council.gov.ru

«Есть Первый канал, а на соседнем — порнуха. Надо это как-то ограничивать»

При этом ИИ даже в существующем несовершенном виде — удобный для компаний способ снять с себя ответственность. «Я много лет разговариваю с „Яндексом“. Еще с тех пор, когда они, не стесняясь, показывали детское порно в выдаче. И они говорили: это роботы работают, мы не можем. „У нас работают роботы“ — это отмазка Google и „Яндекса“ последние 25 лет», — сказал Ашманов.

Поэтому эксперты все чаще говорят о необходимости регулирования не только СМИ, но и цифровых источников информации: социальных сетей и прочих цифровых платформ.

«Мне каждый раз говорят, что я призываю к запрету. Я не призываю к запрету. Это констатация факта. Пока у нас замки на дверях открыты, у нас получается очень смешная история. СМИ пишут в рамках действующего законодательства, а на другой стороне… Я всегда раньше приводил пример: есть Первый канал, а на соседнем канале — порнуха. Либо надо это как-то ограничивать, либо двигаться куда-то, я не знаю куда», — указал владелец LiveInternet Герман Клименко, который несколько раз за заседание упомянул закрытый интернет в Китае.

«С какой стати TikTok или „Яндекс“ не являются средством массовой информации, совершенно непонятно. Они доставляют информацию массам», — согласился с ним Ашманов и призвал признать СМИ все цифровые платформы.