Оценить статью
(Голосов: 5, Рейтинг: 5)
 (5 голосов)
Поделиться статьей
Алексей Пушков

Председатель Комиссии Совета Федерации по информационной политике и взаимодействию со СМИ, член РСМД

Экстремальные сценарии, сценарии полного контроля ИИ над всеми сторонами человеческой жизни, известные нам по таким фильмам, как «Терминатор» или «Матрица», скажем так, на сегодняшний день нереалистичны. Во-первых, потому что искусственный интеллект не находится на такой продвинутой фазе развития.

Во-вторых, потому что у людей, у человечества есть все возможности предотвратить захват искусственным интеллектом жизненно важных сфер. Очень сомневаюсь, например, что любое вменяемое государство отдаст ИИ такую зону, как контроль над ядерным оружием. И тем более принятие решения о его применении.

Для того чтобы захватить эти зоны, искусственный интеллект должен развиться до каких-то невероятных уровней. Порой приходится слышать, что он к ним близок. Илон Маск предупреждает, что ИИ чреват «экзистенциальной угрозой» для человечества. Но так ли это? Появился ли такой ключевой фактор, как осознание искусственным интеллектом своей индивидуальности? Чтобы начать подчинять себе людей, ИИ должен начать воспринимать себя как отдельную самостоятельную сущность.

Это как раз то, что произошло, согласно сценарию фильма «Терминатор», с системой «Скайнет»: призванная предотвратить ядерную войну, она эволюционировала и пришла к выводу, что главная угроза для нее люди, поэтому надо их уничтожить, обратив ядерное оружие против них. Возможно, теоретически этого нельзя исключить, но сейчас такой сценарий не просматривается.

Комиссия Совета Федерации по информационной политике и взаимодействию со СМИ изучает возможности регулирования применения искусственного интеллекта (ИИ). Проведено уже второе заседание комиссии, посвященное этой теме. О том, какие угрозы несет стране и миру «безнадзорный» ИИ, председатель комиссии Алексей Пушков рассказал в интервью «МК».

 

— Алексей Константинович, пойдем от противного: что нас, по-вашему, ждет, если никак не регулировать применение искусственного интеллекта, предоставить этой сфере развиваться так, как ей самой заблагорассудится?

— Сразу хочу сказать, что экстремальные сценарии, сценарии полного контроля ИИ над всеми сторонами человеческой жизни, известные нам по таким фильмам, как «Терминатор» или «Матрица», скажем так, на сегодняшний день нереалистичны. Во-первых, потому что искусственный интеллект не находится на такой продвинутой фазе развития.

Во-вторых, потому что у людей, у человечества есть все возможности предотвратить захват искусственным интеллектом жизненно важных сфер. Очень сомневаюсь, например, что любое вменяемое государство отдаст ИИ такую зону, как контроль над ядерным оружием. И тем более принятие решения о его применении.

Для того чтобы захватить эти зоны, искусственный интеллект должен развиться до каких-то невероятных уровней. Порой приходится слышать, что он к ним близок. Илон Маск предупреждает, что ИИ чреват «экзистенциальной угрозой» для человечества. Но так ли это? Появился ли такой ключевой фактор, как осознание искусственным интеллектом своей индивидуальности? Чтобы начать подчинять себе людей, ИИ должен начать воспринимать себя как отдельную самостоятельную сущность.

Это как раз то, что произошло, согласно сценарию фильма «Терминатор», с системой «Скайнет»: призванная предотвратить ядерную войну, она эволюционировала и пришла к выводу, что главная угроза для нее люди, поэтому надо их уничтожить, обратив ядерное оружие против них. Возможно, теоретически этого нельзя исключить, но сейчас такой сценарий не просматривается.

— То есть все-таки не так страшен ИИ, как его порой малюют?

— В контексте глобальной катастрофы, на мой взгляд, нет. Пока во всяком случае. Более реалистический сценарий описан в романе английского писателя Роберта Харриса «Индекс страха». Искусственному интеллекту там было поручено заняться созданием оптимальных условий для максимизации прибыли одной венчурной компании. Он развивается, переходит от оценки рынка к его прогнозированию, а потом — к намеренному созданию ситуаций, которые позволят компании извлечь максимальную прибыль.

В итоге он стал самостоятельно выходить на террористические организации и предлагать им взорвать самолеты определенных авиакомпаний — для того чтобы их акции рухнули. Может ли осуществиться такой сценарий сегодня? Практически — вряд ли. Но теоретически, если перед искусственным интеллектом поставить такую задачу, задачу максимизации прибыли любыми путями, не ограничивая его в выборе средств, вероятно, это возможно.

Еще один теоретически возможный, обсуждаемый сегодня сценарий: если поручить искусственному интеллекту регулирование финансовых рынков, он может создать автономные финансовые алгоритмы, которые приведут к колоссальному экономическому краху. Потому что ИИ может начать исходить из неких собственных критериев, в которых интересы людей не будут приниматься во внимание. Но повторяю: практически эти сценарии пока нереализуемы.

Есть, однако, серьезные угрозы, с которыми мы сталкиваемся уже сегодня. Возьмем, например, телефонное мошенничество. Операторы-люди осуществляют от 300 до 500 звонков в день. А искусственный интеллект может сделать до 40–50 тысяч таких звонков в день — у него нет физических ограничений.

— И уже делает?

— Есть данные, что это мошенничество на Украине ставят на промышленную основу, начинают активно подключать системы искусственного интеллекта. Причем 40 тысяч звонков в день — это далеко не предел. Как говорят некоторые эксперты, в ближайшее время одна такая система может совершать до 15 миллионов звонков в день. Мошенники ведь работают за счет объема: им важно не «проработать» каждого, кому они звонят, а найти среди этой огромной аудитории человека, который будет особенно восприимчив и уязвим, — потенциальную жертву.

При этом голос, который используют системы ИИ, невозможно отличить от человеческого. И самое главное: они могут поддерживать диалог, адекватно реагируют на вопросы, которые им задают. На настоящий момент основные модели искусственного интеллекта проходят так называемый «тест Тьюринга», то есть демонстрируют такую способность общаться, что машину нельзя отличить от человека. И многие эксперты бьют в связи с этим в набат.

Вторая серьезная угроза — дезинформация, генерируемая ИИ. То есть намеренное распространение искусственным интеллектом информации, которая не соответствует действительности, но отвечает определенным политическим целям.

Третья угроза — способность искусственного интеллекта генерировать фейковые образы, так называемые дипфейки, которые вполне можно принять за реальность. В качестве примера можно привести известное «выступление» вице-президента США Камалы Харрис. Ей приписали текст примерно такого содержания: «Я вам хочу сказать очень важную вещь. Сегодня — это сегодня. А вчера было вчера. Завтра будет завтра. Но по отношению ко вчерашнему дню это уже будет послезавтра». И так минут на 15. И все это ее голосом.

Народ по всему миру хохочет, ставит «лайки», издевается над Харрис... Но она этого не говорила. Правда, она не раз несла не меньшую чушь, а потому многие поверили, что она могла такое сказать. Отличительная черта Харрис — произнесение многословных и довольно бессмысленных речей. А теперь представьте себе, что с помощью такой же технологии, с использованием искусственного интеллекта, создается фейковое выступление серьезного политического лидера — Байдена, Си Цзиньпина, Эрдогана... Это вполне способно переполошить весь мир. Речь идет о серьезном инструменте манипуляции и дезинформации.

Еще одна, четвертая угроза связана с тем, что подавляющее большинство программ искусственного интеллекта, которые используются у нас, это переиначенные, переделанные, или, как говорят специалисты, «переупакованные» модели, созданные на Западе.

Если искусственному интеллекту одной из наших ведущих структур в этой области, гордящейся тем, что она якобы создала свою собственную модель, задать вопрос «кто тебя создал?», тот искренне отвечает: «Меня создала корпорация OpenAI». OpenAI — одна из ведущих американских корпораций по производству моделей искусственного интеллекта.

— И чем же опасны такие модели?

— Тем, что в них заведены базовые идеологические и лингвистические посылы, которые не соответствуют нашему взгляду на мир и «привязывают» генерацию к запрошенной в ИИ повестке. Слышали о недавнем скандале в Google? Искусственный интеллект «Gemini 1.5» в ответ на просьбу сгенерировать образы определенных исторических деятелей изобразил Людовика XIV чернокожим. Отцы-основатели Соединенных Штатов получились индейцами, афроамериканцами, азиатами, только не белыми... Белых в сгенерированных ИИ образах вообще нет. Д’Артаньян — биологическая трансженщина...

Из этого следует, что «Gemini 1.5» работает в том идеологическо-понятийном диапазоне, который в него закладывается. В данном случае «Gemini 1.5» воспроизвел продвигаемую в Соединенных Штатах расово-гендерную повестку.

Если мы начнем использовать такие системы для обучения наших детей, то получим на выходе людей с иной, искаженной картиной мира. И это будут, как выразился один депутат, уже не наши дети. Они будут считать, например, что главную роль во Второй мировой войне сыграли США, а битва при Эль-Аламейне в Северной Африке имела гораздо большее значение, чем битва на Курской дуге, хотя по своему значению они несравнимы. Потому что в западные модели ИИ, естественно, заложена западная концепция истории.

Таким образом, угроза состоит в том, что, принимая американские модели искусственного интеллекта, мы принимаем и то, что в них заложено, так сказать, на программном уровне, ту систему оценок и критериев, которой они руководствуются. Специалисты в этой сфере называют это «ИИ-неоколониализмом», поскольку в мире создается серьезная зависимость от западных моделей искусственного интеллекта.

Этим угрозы, конечно, не исчерпываются. И думаю, что дальше они будут только нарастать. Пока они ограничиваются информационной сферой и сводятся в основном к злоупотреблениям теми возможностями, которые предоставляет искусственный интеллект, еще не вырываются на широкие просторы, не подчиняют нас машине.

Но машина развивается, причем развивается очень быстро. Недаром группа ведущих ученых недавно выступила с предложением ввести шестимесячный мораторий на развитие ИИ, чтобы озаботиться вопросами его безопасности.

— Свое выступление на недавнем заседании вашей комиссии вы начали со слов об эйфории, которая царит по поводу искусственного интеллекта и которая «нуждается в корректировке». В связи с этим вспомнились слова Дмитрия Медведева, тоже сказанные не так давно: «Если какую-то рутинную работу по написанию текстов, даже нормативных актов, будет делать искусственный интеллект, я ничего плохого в этом не вижу». Это проявление той самой эйфории, которая со временем уйдет, иначе мы и впрямь можем прийти к ситуации, слегка смахивающей на театр абсурда: законодательные нормы, регулирующие применение искусственного интеллекта, будет создавать сам искусственный интеллект?

— В то, что искусственный интеллект когда-нибудь будет писать законы о самом себе, я, честно говоря, не верю. Это, знаете, из разряда технологических парадоксов. С темой искусственного интеллекта их связано очень много. Повторюсь: сейчас искусственный интеллект — не активный игрок. Пока его можно сравнить с амебой. Если в раствор, в котором находится амеба, капнуть немножко кислоты, она начнет реагировать — будет двигаться, сжиматься.

Искусственный интеллект — это сейчас та же амеба. Он реагирует на запросы, на задания — и в ответ генерирует тексты и образы. Да, он генерирует новый контент. Но этот контент запрашиваете вы. Он не создает смыслы по собственной инициативе.

Теоретически можно допустить, что в него введут какие-то параметры и скажут: «Создай нам проект закона, который позволит тебя же регулировать». Но затем этот текст в любом случае попадет к человеку, к законодателю, который будет смотреть и оценивать, в какой степени созданное искусственным интеллектом соответствует поставленным перед ним задачам.

Впрочем, развитие искусственного интеллекта идет настолько быстро, что если не ввести инструменты контроля, то скоро он может, образно говоря, превратиться в тираннозавра. В настоящее время ИИ используется как СППР — система поддержки принятия решений. И это разумно. Но вот превращать его в СПР — в систему принятия решений — весьма опасно.

Что же касается эйфории, то любому новому технологическому процессу должна предшествовать трезвая оценка рисков его развития. Я не предлагаю тормозить развитие искусственного интеллекта. Тем более что это невозможно. Приведу такие цифры: в Соединенных Штатах за последние пять лет только по линии венчурных фондов в искусственный интеллект было вложено 290 миллиардов долларов. В Китае к 2025 году рынок искусственного интеллекта превысит 60 миллиардов долларов.

На Китай, между прочим, приходится сегодня 52 процента создания современных роботов. То есть для китайцев искусственный интеллект — это еще и поддержка роботостроения. Япония также работает очень активно в этой области, Германия, Индия... Это пять стран, наиболее активно развивающих искусственный интеллект.

Одно из основных направлений, на которых сегодня сосредоточены усилия, — это создание автономных, беспилотных автомобилей. Думаю, это станет реальностью в пределах 5–10 лет. Что приведет к неизбежному отмиранию профессий, связанных с управлением транспортными средствами. Водители исчезнут. В целом остановить этот процесс нельзя. Но необходимо его отрегулировать.

— Какой вам видится эта регулировка?

— Если говорить, например, о дезинформации, есть идея, есть даже законопроект в Государственной думе: ввести уголовное наказание за создание и размещение фейковых, поддельных изображений и голосовых текстов в Интернете. Тем более если это делается для дискредитации какой-то личности или в манипулятивных целях. Такая технология должна быть поставлена вне закона.

Что же касается учебных материалов, созданных с помощью искусственного интеллекта, то этот контент должен соответствующим образом маркироваться: кто создатель соответствующей системы, какая компания за этим стоит. Чтобы было понятно, к кому предъявить претензии в случае нарушения закона.

В статье 67.1 нашей Конституции есть положение: «Российская Федерация обеспечивает защиту исторической правды». Если выявится явное отклонение от исторической правды, те, кто это допустил, кто в силу некомпетентности или сознательного искажения информации создал неправильную информационную базу для обучения школьников, должны понести за это ответственность.

— Но такие ограничения будут иметь смысл лишь по отношению к тому контенту и к тем его создателям, которые находятся в пределах российской юрисдикции. За пределами России наши законодательные «красные линии» ничего не значат.

— С одной стороны, вы, безусловно, правы. Но, с другой, у нас есть такой инструмент, как блокировка сайтов. Не мы, кстати, его придумали — его активно используют наши идеологические противники. Могу подтвердить это на своем собственном опыте: моя аналитическая программа «Постскриптум», которая уже 25 лет выходит на канале ТВЦ, начиная с 2020 года регулярно подвергалась блокировке на YouTube.

В частности, из-за сюжетов о зарождении антибелого расизма в Соединенных Штатах, расизма по отношению к белым, из-за критики засилья ЛГБТ+ (ЛГБТ признано в РФ экстремистским движением. — «МК») и так далее. Наши выпуски блокировали раз семь или восемь. А потом в начале 2022 года программа была заблокирована полностью. Как и многие российские государственные телеканалы.

К настоящему моменту на YouTube заблокировано 60 российских информационных ресурсов — как государственных, так и негосударственных. Якобы из-за нарушения «правил сообщества». На самом деле никаких «правил сообщества» не существует. Этим ложным термином руководство компании прикрывает произвольную блокировку материалов, не соответствующих той либеральной картине мира, которую оно пропагандирует.

У нас подобные меры были применены к Фейсбуку, Инстаграму (принадлежат корпорации Meta признанной экстремистской и запрещенной в России) и Твиттеру. Но в случае с учебными каналами можно как минимум предупреждать людей, что тот или иной канал искажает историю, а потому не рекомендуется для обучения школьников. В рамках исторической дискуссии — пожалуйста, спорьте, какая битва важнее, Курская или при Эль-Аламейне. Но как учебное пособие, как считают мои коллеги-сенаторы, такая программа должна быть дисквалифицирована, например особой маркировкой.

— Ну а на телефонных мошенников получится найти управу?

— Сложность в том, что эта проблема тоже носит трансграничный характер. Но если речь идет об Украине, где, по утверждению некоторых наших экспертов, это уже чуть ли не государственная политика, нацеленная на то, чтобы внести максимальную дезорганизацию в социальную жизнь российского общества, то меры принимать надо.

Звонки, поступающие с Украины, должны сначала пройти через одного из наших ведущих операторов связи. Таким образом, эти звонки «видны». Определить, откуда они идут, не составляет никакой проблемы. Мы можем подумать о том, чтобы найти общий язык с операторами связи, чтобы они как минимум отслеживали, а еще лучше блокировали, звонки, которые осуществляются с подозрительных номеров.

Допустим, за пару-тройку дней с номера пришло 100 тысяч звонков. Понятно же, что это мошенники, использующие искусственный интеллект. Значит, этот номер можно блокировать, не принимать с него звонков. Такая работа, такая фильтрация должна быть постоянной.

Кроме того, мы должны разработать законодательство, которое позволит отслеживать и блокировать этот трафик. То есть уничтожит саму возможность злонамеренной мошеннической телефонной деятельности. И не только мошеннической — таким образом людей, в том числе несовершеннолетних, склоняют порой к терроризму.

Второе: необходимо установить контроль за продажей так называемых «серых» SIM-карт, которые не персонализированы, не привязаны к паспорту. Как раз они массово используются в этой сфере: существует подпольный рынок SIM-карт, у которого гигантские объемы.

И третье: надо серьезно озаботиться утечками персональных данных. Они ведь утекают не сами по себе. Их кто-то продает. Продают те люди, которые имеют к ним доступ — как правило, работники тех компаний и банков, где такие данные аккумулируются. Между тем у нас сегодня нет уголовной ответственности за утечки персональных данных. Насколько я знаю, не существует даже административной ответственности за это. Такой закон разрабатывается, но так до сих пор и не принят.

— Предполагает ли законодательное регулирование использования искусственного интеллекта ограничение его распространения на оборонную сферу?

— Искусственный интеллект будет играть все большую роль в военных технологиях. Уже сегодня это одна из главных сфер его применения. Что такое, скажем, самонаводящиеся дроны? Это роботы, действующие на основе искусственного интеллекта. Совершенно очевидно, что военно-технический прогресс остановить нельзя. И, вероятно, не нужно. Мы не можем отставать от других государств в этой сфере.

Но я не считаю, что военная сфера должна быть исключена из общего законодательства. Ведь не является, например, предметом отдельного законодательства коррупция в военной сфере. Злонамеренное, антироссийское использование военных систем на основе искусственного интеллекта, осуществление с их помощью противоправной деятельности такое же преступление, как и аналогичное деяние в любой другой сфере.

— Я несколько о другом. Насколько я понимаю, начинается, если так можно выразиться, гонка вооружения, вооруженного искусственным интеллектом. А в подобных гонках главное, чем руководствуется любое государство, — боязнь, что его опередят реальные или потенциальные противники. Все остальные соображения отходят на второй план. Не получится ли в итоге так, что мы оградим от злоупотреблений с использованием ИИ нашу историю и многие другие сферы, но сценарий, с которым нас познакомил фильм «Терминатор», будет развиваться как по писаному?

— Как я уже сказал, сейчас основная задача искусственного интеллекта — это поддержка принятия решений. Предоставление аналитических материалов, предварительных выводов. То есть создание базы для принятия решений. Но нельзя передавать ему функцию принятия решений. И уж тем более нельзя допускать его к решениям в зонах, жизненно важных для человека. Таких как, например, работа плотин, контроль над электрическими сетями, системами водоснабжения и, конечно же, контроль над ядерным оружием. Во всех этих сферах применение искусственного интеллекта должно быть ограничено.

— Законодательно?

— В том числе. В этом вопросе, думаю, общество и власть тоже рано или поздно придут к осознанию необходимости создания законодательных «предохранителей». Актуализация этой темы — через работу Государственной думы, Совета Федерации, через внимание СМИ — важнейший инструмент воздействия на общественное и политическое сознание.


Источник: MK.ru

(Голосов: 5, Рейтинг: 5)
 (5 голосов)
Бизнесу
Исследователям
Учащимся