Правовое регулирование ИИ и принцип «сетевой нейтральности»
Вход
Авторизуйтесь, если вы уже зарегистрированы
(Голосов: 34, Рейтинг: 4.88) |
(34 голоса) |
Эксперт International Cyber-Terrorism Regulation Project (ICTRP), руководитель Цифрового образовательного проекта «knowledge+», член ТРГ «Сколково», член Комиссии по высшему юридическому образованию МО АЮР
Принцип «сетевой нейтральности» в сети «Интернет» актуализирует проблему правового регулирования искусственного интеллекта (далее — ИИ). Данная проблема поднимает такие дискуссионные вопросы, как понимание природы ИИ, особенности построения отношений в этой сфере (субъект/объект), а также функционирование ИИ в сети «Интернет».
Данный принцип и ИИ тесно взаимосвязаны друг с другом как явления, составляющие информационную картину сегодняшней реальности на международном и национальном уровнях.
Впервые идея принципа «сетевой нейтральности» возникла в США на уровне Университета Вирджинии в научной статье Тима Ву, который определял «сетевую нейтральность» как принцип, который предоставит оператору общую свободу управления и использования пропускной полосы Интернета и решения других вопросов местного значения отдельного штата (например, вопросы интернет-трафика).
В самом общем виде принцип «сетевой нейтральности» вытекает из требований антимонопольного законодательства и основывается на запрете дискриминации в действиях доминирующих субъектов. Однако важно различать регуляторный механизм закрепления этого принципа в виде подробного свода норм, касающихся взаимоотношений между сетями и интернет-компаниями, и антимонопольный принцип, который задает лишь общие параметры такой балансировки.
Принцип «сетевой нейтральности» был заимствован ЕС и нашел свое отражение в Регламенте, устанавливающем меры по открытому доступу в Интернет от 25 ноября 2015 г. № 2120: «Общие правила обеспечения равного и недискриминационного отношения к трафику при предоставлении услуг доступа в Интернет и соответствующих прав конечных пользователей».
Принцип «сетевой нейтральности» в сети «Интернет» призывает к ликвидации каких-либо границ в отношении субъектов связи, и пользователи могут использовать абсолютно любые цифровые услуги. Связь ИИ с данными новациями иллюстрируется через примеры, когда ИИ начинает администрировать рабочий функционал систем связи.
Важно отметить, что если подходить к данному вопросу методологически и теоретически через призму формирующейся подотрасли права международной информационной безопасности, то можно вычленить следующие аспекты:
- ИИ и принцип «сетевой нейтральности» в Интернете тесно взаимосвязаны через технические аспекты: использование ИИ в приложениях, в процессах администрирования подключения к сети «Интернет;
- юридический компонент, если его рассматривать как связующее звено между ИИ и принципом «сетевой нейтральности» в сети «Интернет», к сожалению, практически не содержит каких-либо точек соприкосновения между ИИ и «сетевой нейтральностью».
Международное правовое регулирование на уровне ЕС разрабатывается на каждом уровне отдельно (по ИИ и по сети «Интернет»), на универсальном уровне, к сожалению, нет базы для правового регулирования.
Следует отметить, что в данных вопросах приоритет должен быть на стороне международного права. Это объясняется более подробно японскими коллегами тем, что «сетевая нейтральность» (ее нормативные границы) зависит от трансграничности Интернета. Если меняются правила к цифровым платформам в части принципов «сетевой нейтральности», они также будут отражаться и влиять на цифровой рынок в государствах. Поэтому для долгосрочной перспективы развития «сетевой нейтральности» требуется ее перенос на глобальный уровень с целью достижения единообразия.
Во многом оправдан подход международного правового регулирования в форме стратегий, резолюций и прочих документов, так как именно в таком формате возможно более детальное описание ИИ в различных сферах жизни и выведение норм soft law.
На сегодняшний день существует международно-правовое регулирование ИИ и принцип «сетевой нейтральности» на уровне ЕС, однако документов или рекомендаций, которые бы связывали данные институты отсутствуют. В этой связи предлагается исследовать правовую и техническую сторону вопроса и предложить комбинированную стратегию в области развития принципа «сетевой нейтральности» в условиях глобальности Интернета и ИИ (например, на уровне цифровых платформ). Комбинированная стратегия на международном уровне отражала бы комплексность проблемы и правовые риски, которые необходимо решать.
Принцип «сетевой нейтральности» в сети «Интернет» актуализирует проблему правового регулирования искусственного интеллекта (далее — ИИ). Данная проблема поднимает такие дискуссионные вопросы, как понимание природы ИИ, особенности построение отношений в этой сфере (субъект/объект), а также функционирование ИИ в сети «Интернет».
Концепции ИИ: теоретические и прикладные вопросы
Искусственный интеллект и его партнёры
Многие исследователи утверждают, что методология ИИ основывается на декартовской теории, а именно — ее положениях о разделении разума и физического мира. Кроме того, в теории Декарта отмечается, что сущность идей о мире не обязательно соответствует изучаемому предмету [1]. Основываясь на этих положениях, исследователи приходят к выводу, что ментальные процессы существуют сами по себе и опираются на собственные законы. Соответственно по такому же принципу должен функционировать и ИИ, как и должны быть выработаны технические правила, на основе которых будет работать ИИ.
Сегодня совершаются попытки дать характеристику, оценку и определение ИИ. Компания PWC дает весьма емкое определение, которое заключается в том, что под ИИ понимается собирательный термин, охватывающий множество умных технологий, которые объединяет способность к самообучению.
В настоящее время накапливаются и систематизируются знания о построении ИИ, и объектом изучения выступают нейронные сети и машинное обучение. Фундаментальным проектом, отражающим данные подходы в здравоохранении, является IBM Watson. Изначально IBM Watson стали обучать и затем применять в онкологической сфере, а уже в наши дни система позволяет ставить точный диагноз. Далее IBM объявила о создании программного обеспечения Avicenna, которое смогло бы считывать и анализировать медицинские снимки. Кроме того, существуют и проекты, целью которых является анализ сотни снимков на предмет отклонений от нормы.
Подходы к определению ИИ можно разделить на теоретический и прикладной. Оба подхода уместны при разработке правовой базы регулирования. Однако здесь следует понимать, что конечной целью продукта ИИ является полностью самостоятельная машина, способная принимать те или иные решения. Человечество не изобрело автономное ИИ. Вышеназванный аспект следует учитывать при формировании тех или иных политико-правовых документов в той степени, в какой имеются риск-факторы (технические и иные).
Концепция ИИ компании DAPRA
Компания Defense Advanced Research Projects Agency (DARPA) — агентство перспективных оборонных исследовательских проектов при Министерстве обороны США. В сферу интересов DARPA входят и проекты ИИ. Данная компания выделяет три направления ИИ [2]:
- «ручные знания» — созданный инженерами свод правил, представляющий знания в четко определенной области. При этом структура знаний определяется людьми, а специфика этого знания исследуется машиной;
- «статистическое обучение» — инженеры создают статистические модели для конкретных областей и обучают ИИ работе с данными. Данное направление выделяется тем, что в нем предусмотрена тонкая классификация и возможность прогнозирования тех или иных событий. Существенным недостатком ИИ выступает минимальная способность к рассуждению.
- «концептуальная адаптация» — это направление обеспечивает развитие систем, создающих контекстные объяснительные модели для классов и явлений реального мира (например, генеративная модель, которая создана для того, чтобы генерировать объяснения того, как тот или иной объект мог быть создан.
На наш взгляд, именно агентство DARPA рассматривает ИИ наиболее объективно. При этом создателями документа делается акцент на развитие трех направлений ИИ и сферы, в которых будут развиваться данные направления.
Хотя концепция DARPA нам кажется наиболее глубокой и логически связанной с сегодняшней ситуацией в сфере развития ИИ, данные технологии не изучены в части функциональных возможностей и определения нравственных, правовых и организационных пределов.
На наш взгляд, концептуально искусственный интеллект можно подразделять на несколько содержательных направлений:
- техническое направление;
- бизнес-направление (использование ИИ в целях аналитики бизнес- процессов;
- правовое направление (политико-правовой и юридический).
Далее, в статье мы рассмотрим именно правовое направление, которое заключается в регулирование ИИ и его пределах.
Опыт Европейского союза по правовому регулированию ИИ
10 апреля 2018 г. 25 европейских стран подписали Декларацию о сотрудничестве в области ИИ. Государства-члены договорились совместно работать над наиболее важными вопросами, поднимаемыми в эпоху развития цифровых технологий, начиная с обеспечения конкурентоспособности Европы в области исследований ИИ и заканчивая решением социальных задач в связи с его внедрением. Кроме того, государства определили «упреждающий подход» в области регулирования ИИ, который означает модернизацию европейской системы образования и профессиональной подготовки, включая повышение квалификации и переподготовку европейских граждан.
После декларации последовал не менее важный документ — «Рекомендации по политике и инвестициям для надежного ИИ». В данном руководстве освещаются следующие элементы в сфере правового регулирования ИИ: расширение социально полезных знаний об ИИ, ускорение внедрения технологий и услуг ИИ во всех секторах Европейского союза; поощрение и масштабирование решений ИИ путем внедрения инноваций и содействия трансформации технологического сектора; развитие в рамках Европейского союза юридически совместимых и этичных инициатив по управлению данными и обмену данными; разработка и поддержка инфраструктур кибербезопасности, ориентированных на ИИ. В руководстве подчеркивается, что необходимо развивать режим кибербезопасности инфраструктуры в сфере ИИ и методы ИИ. Кроме того, в документе особенно выделяется момент разработки ориентированных на пользователя политик кибербезопасности ИИ для защиты прав пользователей в сети «Интернет». Следует отметить, что минусом Руководства является его многозадачность и низкий уровень регулирования, хотя подобные документы важны для формирования политико-правовых начал в сфере ИИ.
На данном документе регулирование вопросов ИИ не заканчивается, 19 февраля 2020 г. Европейская комиссия издала Белую книгу, в которой акцент смещается на создание экосистемы ИИ. ЕК на базе данного документа планирует пересмотреть и принять обновленный скоординированный план по регулированию и развитию ИИ к концу 2020 г.
По мнению авторов документа, подобная инициатива существенно повлияет на качество потребительского рынка, социальных услуг, обеспечение безопасности. В Белой книге выделены следующие пункты в сфере нормативных мероприятий в области ИИ:
- создание ключевых инновационных и научных центров в области ИИ и выработка их стратегических положений;
- содействие внедрению ИИ в государственный сектор. Европейская комиссия инициирует открытые и прозрачные отраслевые диалоги, отдавая приоритет в здравоохранении и т.д.;
- создание этических принципов, а также разработка рекомендаций по ИИ.
Также в Белой книге провозглашается «экосистема доверия», которая выступает нормативной основой ИИ. Руководящие принципы опираются на принципы кибербезопасности, которая должна базироваться на технической надежности, конфиденциальности, прозрачности, разнообразии, недискриминации и справедливости.
В данном документе широко обозначено направление в нормативно-правовом регулировании, которое подразумевает устранение возможных рисков появления ИИ (имеется ввиду полностью автономного ИИ).
Если говорить о правовой неопределенности в части ИИ через призму рисков, следует отметить, что регламентированное правовое отражение каждого риска может снизить общий уровень безопасности и подорвать конкурентоспособность европейских компаний. Это будет наглядно наблюдаться через последующие правовые ограничения в связи с подробной регламентацией рисков.
Наиболее важной задачей законодательной базы ЕС является ее применимость в сфере ИИ. Белой книге подчеркивается, что необходима адекватная оценка законодательной базы и ее применимости. Отмечается изменение в концепции безопасности. Дело в том, что использование ИИ в продуктах и услугах порождает массу рисков, что создает необходимость правового регулирования данного направления (например, создание стандартов, связанных с новыми приложениями ИИ).
Следующие цели в гонке ИИ — объяснимость и обучаемость
В дополнение отметим, что аргументы в отношении нормативно-правового регулирования ИИ подкреплены отчетом о последствиях использования ИИ, интернета вещей и робототехники. В отчете подробно анализируется соответствующая нормативно-правовая база.
Исходя из анализа Белой книги, можно сделать вывод, что проблемы правового регулирования ИИ должны решаться не только на уровне нормативных актов, но и рассмотрения сущности ИИ, его перспектив использования на рынках (например, проблема автономных систем ИИ). Также важно достигнуть согласия в правовых вопросах регулирования ИИ (исходя из сущности ИИ), границ его развития, динамики внедрения в другие производства.
После издания Белой книги на уровне Европейского союза была проведена консультативная работа с общественностью. В ходе данной работы, все государства — члены ЕС и соответствующие заинтересованные стороны (включая гражданское общество, промышленность и академические круги) были приглашены принять участие в консультациях.
Вышеназванное мероприятие позволило получить соответствующий опыт для дальнейшего совершенствования законодательства.
Европейский союз исследует ИИ в рамках проекта Horizon 2020. Данный проект позволяет исследовать ИИ в рамках следующих векторов развития:
- укрепление исследовательских центров ИИ в рамках Европейского союза;
- поддержка разработки платформы «AI-on-demand», которая обеспечит доступ к соответствующим ресурсам ИИ в ЕС;
- поддержка разработки специальных приложений для ИИ в ключевых секторах экономики.
Также, на уровне Европейского союза активно развивается проект платформы «AI-on-demand». Данная платформа представляет собой комплекс новостей в области разработок ИИ, что позволяет обеспечивать определенную информативную составляющую для формирования новых инициатив в области ИИ.
Европейская комиссия сформулировала семь основных условий для формирования надежной базы ИИ:
- управление и надзор. Крайне широко указывается на некое «справедливое общество», которое должно быть достигнуто с помощью ИИ;
- надежность и безопасность. Безопасность ИИ должна гарантироваться через систему его алгоритмов (причем на всех этапах жизненного цикла ИИ);
- конфиденциальность и управление данными. Граждане должны иметь полный контроль над своими собственными данными, в то время как данные, касающиеся их, не будут использоваться для нанесения им вреда или дискриминации;
- прозрачность. В заявлении ЕК указывается, что должна быть использована некая система фильтрации ИИ в части предлагаемых самим ИИ решений и согласование с субъектом обработки данной информации. Однако конкретики в отношении субъекта обработки ЕК не дает;
- ИИ должен быть многофункционален и учитывать весь спектр человеческих способностей;
- социальное и экологическое благополучие. В этом блоке ЕК отмечает, что ИИ должен использоваться и для повышения социальной устойчивости и решения экологических задач (даже упоминается понятие «экологическая ответственность, однако представляется непонятным как она должна быть реализована);
- подотчетность. ЕК справедливо информирует государства-члены, что необходимо создавать механизмы, которые бы обеспечивали ответственность и подотчётность органов в сфере работы системы ИИ.
Данные блоки характеризуют не общее отношение Европейского союза к развитию ИИ, а указывают на конкретные проблемы, которые могут стать сложностью в развитие экосистемы ИИ и правовой базы в этой сфере. Условно можно выделить следующие трудности в правоприменении условий, сформулированных ЕК:
- вопросы ответственности. Пока не совсем ясна схема ответственности органов власти за работу ИИ и как это будет аргументироваться в части доказательственной базы;
- противоречивость положений друг другу. Кроме того, стоит упомянуть, что есть скрытое противоречие между вышеназванным блоком и блоком по развитию ИИ в целом, где последний призван развивать ИИ с учетом всего спектра человеческих способностей. Речь идет о создании вполне автономной системы, обладающей человеческими способностями в принятии решений, и причинно-следственная связь ввиду этого не раскрыта;
- система прозрачности носит неопределенный характер, т.е. не совсем понятно, как будут фильтроваться решения ИИ.
ЕК сделала важные правовые попытки, но они не содержат конкретных действий в организационной и правовой сфере (например, технические регламенты, дополнительные стратегии, директивы).
Подобный опыт международного правового регулирования ИИ воспринимается двояко. С одной стороны, использование опыта Белой книги помогает обозначить весь спектр вопросов ИИ (в т.ч. кибербезопасности). С другой стороны, международное правовое регулирование не исчерпывается данными документами. Мы полагаем, что детальная проработка блоков, которые обозначает ЕК, необходима для исключения их противоречивости.
Следует отметить, что несмотря на начальные стадии развития большинства блоков, ЕК создала организационное подразделение — Группу в сфере ИИ (Группа по ИИ). Именно данная группа разработала «Правила этики в сфере ИИ» (далее — Правила), в которых содержатся следующие рекомендации [3]:
- разработка и использование систем ИИ в соответствии с этическими принципами: уважение к человеку, автономность ИИ (допустимые пределы, которые будут постепенно определяться и прорабатываться), предупреждение правонарушений, объяснимость процессов ИИ. В направлении указывается на устранение противоречий между принципами;
- внимание к уязвимым группам, таким как инвалиды и дети, которые наиболее подвержены риск-фактору со стороны новых технологий (ИИ);
- внимание к рискам системы ИИ, которые сложно прогнозировать (в этой связи следует обратить внимание на правовые меры, которые могут быть приняты);
- разработка, развертывание и использование систем ИИ должны отвечать следующим требованиям: контроль специальных функций ИИ человеком (надзор); техническая надежность и безопасность; конфиденциальность; прозрачность; разнообразие, недискриминация и справедливость; экологическое и социальное благополучие; ответственность;
- рекомендации Группы по ИИ должны быть имплементированы в национальное законодательство других государств.
Следует отметить, что вышеназванная модель правового регулирования, избранная ЕС, имеет ряд преимуществ:
- стратегии и рекомендации позволяют оперативно реагировать на динамику ИИ и его возможности, в соответствии с чем постоянно подвергать изменениям правовую материю в рамках ЕС и государств-членов;
- Декларация о сотрудничестве в сфере ИИ не предполагает каких-то рамочных определений и формулировок, что позволяет дорабатывать отдельные вопросы в выше проанализированных документах.
Следует подчеркнуть, исходя из вышеприведенного анализа, что отсутствует систематизированность в документах ЕС. Также в документах ЕС не обращается внимание на влияние сети «Интернет», в частности, принципа сетевой нейтральности, который будет рассмотрен отдельно в тексте настоящей статьи.
Принцип «сетевой нейтральности» в сети «Интернет» и ИИ
Принцип «сетевой нейтральности» и ИИ тесно взаимосвязаны друг с другом как явления, составляющие информационную картину сегодняшней реальности на международном и национальном уровнях. Следует отметить несколько характеристик принципа «сетевой нейтральности» в сети «Интернет».
Впервые идея данного принципа возникла в США на уровне университета Вирджинни в научной статье Тима Ву, который определял «сетевую нейтральность» как принцип, который предоставит оператору общую свободу управления и использования пропускной полосы Интернета и решения других вопросов местного значения отдельного штата (например, вопросы трафика в сети «Интернет) [4]. Также автором были выработаны критерии для нормотворчества (в основном они касаются антимонопольного законодательства):
- требуется различать основания дискриминации, которые закрепляются в законодательстве;
- администрирование IP и управление сетью.
Данные критерии были восприняты законодательством США, закрепившим «сетевую нейтральность», которая базируется на следующих элементах: защита прав потребителей; прозрачность; устранение ненужных правил для поощрения инвестиций в широкополосную сеть. Однако после смены администрации США в декабре 2017 г. Федеральная комиссия по связи США отменила свои прежние решения в отношении сетевой нейтральности (так как сочла излишним правовое регулирование в этой сфере), но принцип «сетевой нейтральности» получил закрепление в большом числе штатов, в том числе в Калифорнии. Кроме того, в самом общем виде принцип «сетевой нейтральности» вытекает из требований антимонопольного законодательства и основывается на запрете дискриминации в действиях доминирующих субъектов. Однако важно различать регуляторный механизм закрепления этого принципа в виде подробного свода норм, касающихся взаимоотношений между сетями и интернет-компаниями, и антимонопольный принцип, который задает лишь общие параметры такой балансировки.
IGF поднимает проблему цифрового изоляционизмай
Принцип «сетевой нейтральности» был заимствован ЕС и нашел свое отражение в Регламенте, устанавливающем меры по открытому доступу в Интернет от 25 ноября 2015 г. № 2120: «Общие правила обеспечения равного и недискриминационного отношения к трафику при предоставлении услуг доступа в Интернет и соответствующих прав конечных пользователей».
Любопытным является то, как раскрыт данный принцип. Так, в Регламенте о «сетевой нейтральности» указывается, что «конечные пользователи имеют право получать доступ и распространять информацию и контент, использовать и предоставлять приложения и услуги, а также использовать терминальное оборудование по своему выбору, независимо от местоположения конечного пользователя или поставщика услуг или местоположения, происхождения или назначения информации, контента, приложения или услуги через свою службу доступа в Интернет».
Принцип «сетевой нейтральности» в сети «Интернет» призывает к ликвидации каких-либо границ в отношении субъектов связи, и пользователи могут использовать абсолютно любые цифровые услуги. Связь ИИ с данными новациями иллюстрируется через примеры, когда ИИ начинает администрировать рабочий функционал систем связи.
Приоритетом является использование ИИ и его совершенствование до уровня автономности. Данная задача остается реальной, как было отмечено в национальных стратегических документах США и весьма косвенно в документах ИИ. Это создает определенные риск-факторы в правовой сфере в свете реализации сетевой нейтральности.
Исходя из проведенного анализа, следует отметить перспективы правового регулирования данных явлений. Важно отметить, что если подходить к данному вопросу методологически и теоретически через призму формирующейся подотрасли права международной информационной кибербезопасности, то можно вычленить следующие аспекты:
- ИИ и принцип «сетевой нейтральности» в сети «Интернет» тесно взаимосвязаны через технические аспекты: использование ИИ в приложениях, в процессах администрирования подключения к сети «Интернет»;
- юридический компонент, если его рассматривать как связующее звено между ИИ и принципом «сетевой нейтральности» в сети «Интернет», к сожалению, практически не содержит каких-либо точек соприкосновения между ИИ и «сетевой нейтральностью». Это объясняется двумя факторами: организационным и содержательным. Под организационным мы понимаем отсутствие междисциплинарного диалога между техническими и юридическими специальностями на международном уровне. Под содержательным понимается только зарождающаяся концепция сети «Интернет» на международном уровне, а также третья стадия развития ИИ (автономности) и ее моделей. Однако юридический компонент в принципе должен быть нацелен на комплексное понимание проблем и дальнейшие «рецепты» в сфере правого регулирования ИИ и принципа «сетевой нейтральности» комплексно, а не отдельно друг от друга.
Международное правовое регулирование на уровне ЕС разрабатывается на каждом уровне отдельно (по ИИ и по сети «Интернет), на универсальном уровне, к сожалению, нет базы для правового регулирования.
Исходя из анализа двух компонентов цифровой среды (ИИ и принципа «сетевой нейтральности»), представляется верным предложить следующие способы решения:
- теоретически проработать вопрос технической сферы связи ИИ и принципа «сетевой нейтральности». Необходимо с точки зрения права понять степень связанности и точки соприкосновения для разработки международной нормотворческой концепции;
- практическая сторона вопроса для международного правового регулирования, с точки зрения применения ИИ и принципа «сетевой нейтральности», должна быть рассмотрена через цифровые платформы. Цифровые платформы могут работать на основе ИИ и обязательным условием их функционирования является подключение к сети «Интернет».
Следует отметить, что в данных вопросах приоритет должен быть на стороне международного права. Это объясняется более подробно японскими коллегами тем, что «сетевая нейтральность» (ее нормативные границы) зависит от трансграничности Интернета [5]. Если меняются правила к цифровым платформам в части принципов «сетевой нейтральности», они также будут отражаться и влиять на цифровой рынок в государствах. Поэтому для долгосрочной перспективы развития «сетевой нейтральности» требуется ее перенос на глобальный уровень с целью достижения единообразия.
Для решения вышеназванных вопросов во многом оправдан подход международного правового регулирования в форме стратегий, резолюций и прочих документов, так как именно в таком формате возможно более детальное описание ИИ в различных сферах жизни и выведение норм soft law.
На сегодняшний день существует международно-правовое регулирование ИИ и принцип «сетевой нейтральности» на уровне ЕС, однако документов или рекомендаций, которые бы связывали данные институты отсутствуют. В этой связи предлагается исследовать правовую и техническую сторону вопроса и предложить комбинированную стратегию в области развития принципа «сетевой нейтральности» в условиях глобальности Интернета и ИИ (например, на уровне цифровых платформ). Комбинированная стратегия на международном уровне отражала бы комплексность проблемы и правовые риски, которые необходимо решать.
1. Фулье А. Декарт: С прил. перевода главы о Спинозе из «Истории новой философии» В. Виндельбанда / Пер. с фр. А. П. Татариновой; Под ред. Н. Я. Грота. — М.: Тип. Т-ва И. Д. Сытина, 1894.C.200-300.
2. DARPA Creating technologies breakthroughs and New Capabilities for National Security.2019. P.20-30.
3. Ethics Guidelines for Trustworthy. AI High-Level Expert Group on Artificial Intelligence. European Commission. 2019. P.2-24.
4. Tim Wu A Proposal for Network Neutrality. University of Virginia Law School. 2002.P.2-7
5. Toshiya Jitsuzumi Discussion on network neutrality: Japan’s perspective Communications & Convergence Review. Vol. 3, No. 1. 2011 P. 71-89; Jitsuzumi, T. and Koguchi, T. The value of personal information in the e-commerce market. 24th European Regional Conference of the International Telecommunication Society, Florence, Italy.20-23 October 2013.
(Голосов: 34, Рейтинг: 4.88) |
(34 голоса) |
Единственный способ для человека избежать вырождения и морального устаревания — принять на себя всю ответственность и осознанно регулировать создание и использование искусственного интеллекта
IGF поднимает проблему цифрового изоляционизмаИнтернет находится под угрозой цифрового, социального и политического разрыва
Следующие цели в гонке ИИ — объяснимость и обучаемостьВремя для нейросимвольной интеграции?
Максим Федоров: Искусственный интеллект — это не терминатор и не сверхсущество с благими намерениямиПроблема в том, что, обсуждая опасности, которых нет и не будет в ближайшем будущем, мы пропускаем реальные угрозы.
Искусственный интеллект и его партнёрыГлобальное партнёрство по искусственному интеллекту должно помочь участникам наладить практическое сотрудничество и выработать общие подходы к развитию и внедрению технологий ИИ