Способы, которыми правительства могут регулировать инструменты ИИ

Распространено мнение, что должны быть специальные правила для регулирования технологий ИИ. С этим согласны большинство правительств, разработчики продуктов ИИ и даже обычные пользователи. К сожалению, лучший способ организовать эту быстрорастущую область — загадка, которую еще предстоит решить.

Оставленные без внимания, технологии искусственного интеллекта могут негативно повлиять на наш образ жизни и поставить под угрозу само наше существование. Но как правительства могут ориентироваться в лабиринте проблем, возникающих в этой быстро развивающейся области, и преодолевать препятствия, стоящие впереди? Проверять Человечеству грозит вымирание из-за искусственного интеллекта — как его остановить?

1. Правила конфиденциальности и защиты данных

Конфиденциальность и безопасность данных — одна из основных задач технологий искусственного интеллекта. Системы искусственного интеллекта — это модели, жаждущие доступа к различным данным. Им нужны данные, чтобы давать соответствующие ответы и выполнять различные задачи, чтобы быть эффективными и улучшать свои возможности. Хотя это якобы не проблема, способ получения этих данных, их природа, а также то, как они обрабатываются и хранятся, является одним из самых больших вопросов для споров, связанных с правилами ИИ.

Учитывая это, логично было бы ввести строгие правила конфиденциальности данных, которые регулируют способы сбора, хранения и обработки данных, а также права лиц, чьи данные используются, на их контроль. Вопросы, которые, скорее всего, будут затронуты в этих правилах, следующие:

  1. Какие типы данных можно собирать?
  2. Следует ли рассматривать некоторые частные данные среди тех, к которым ИИ не должен получать доступ?
  3. Как компании, использующие искусственный интеллект, должны обращаться с конфиденциальными личными данными, такими как медицинские записи или биометрические данные?
  4. Должны ли компании, использующие искусственный интеллект, внедрять механизмы, позволяющие людям легко запрашивать удаление или исправление своих личных данных?
  5. Каковы последствия для компаний ИИ, которые не соблюдают правила конфиденциальности данных? Как следует контролировать соблюдение и как обеспечивать правоприменение?
  6. Возможно, самое главное, какой стандарт должны применять компании, использующие искусственный интеллект, для обеспечения целостности конфиденциальной информации, которую они хранят?

Эти и несколько других вопросов легли в основу того, почему ChatGPT был временно запрещен в Италии. Если эти проблемы не будут решены, область ИИ может стать проклятием конфиденциальности данных, а запрет Италии может превратиться в модель запрета, принятую другими странами по всему миру. Проверять Некоторые распространенные мифы об искусственном интеллекте, которые не соответствуют действительности.

2. Разработайте этическую основу для ИИ

Компании, занимающиеся ИИ, часто гордятся тем, что придерживаются этических принципов при разработке систем ИИ. По крайней мере, на бумаге все они являются сторонниками ответственного и этичного развития ИИ. В средствах массовой информации руководители Google подчеркивали, что компания очень серьезно относится к безопасности и этике ИИ. Точно так же «Безопасный и этичный ИИ» — девиз генерального директора OpenAI Сэма Альтмана. Что очень похвально.

Но кто устанавливает правила? Кто решает, какие этические принципы ИИ достаточно хороши? Кто решает, как выглядит разработка безопасного ИИ? На данный момент кажется, что каждая компания, занимающаяся ИИ, играет свою роль в разработке ответственного и этичного ИИ. OpenAI, Anthropic, Google, Meta, Microsoft, все. Просто полагаться на компании, занимающиеся искусственным интеллектом, опасно.

Последствия неконтролируемого пространства ИИ могут быть катастрофическими. Позволить отдельным компаниям решать, какие этические принципы принять, а каких избегать, — все равно что ходить во сне на пути к апокалипсису ИИ. решение? Четкая этическая основа для ИИ обеспечивает:

  1. Системы искусственного интеллекта не причиняют вреда и не дискриминируют определенных лиц или группы лиц по признаку расы, пола или социально-экономического статуса.
  2. Системы искусственного интеллекта безопасны и надежны и сводят к минимуму риск непредвиденных последствий или вредного поведения.
  3. Системы искусственного интеллекта разрабатываются с учетом более широкого социального воздействия технологий искусственного интеллекта.
  4. Чтобы люди сохраняли полный контроль над системами ИИ и прозрачно принимали свои решения.
  5. Системы искусственного интеллекта намеренно ограничены способами, которые выгодны для людей.

Проверять Причины, по которым проблемы безопасности для генеративного ИИ ухудшаются.

3. Специальное регулирующее агентство

Из-за его потенциального воздействия на человеческую цивилизацию обсуждение безопасности ИИ обычно проводится параллельно угрозе кризиса в области здравоохранения или ядерной катастрофы. Чтобы избежать потенциальных ядерных аварий, требовалось специальное агентство, такое как NRC США (Комиссия по ядерному регулированию). В то время как во избежание рисков серьезных кризисов со здоровьем потребовалось создание Управления по санитарному надзору за качеством пищевых продуктов и медикаментов (FDA).

Точно так же, чтобы гарантировать, что ИИ не пойдет не так, необходимо специальное агентство, подобное Управлению по санитарному надзору за качеством пищевых продуктов и медикаментов и Норвежскому комитету по делам беженцев, поскольку ИИ продолжает добиваться значительных успехов во всех сферах нашей жизни. К сожалению, вопрос регулирования ИИ внутри страны сложный. Функционирование специального регулирующего органа, вероятно, будет очень затруднено без трансграничного сотрудничества. Точно так же, как Комиссия по ядерному регулированию США (NRC) должна работать вместе с Международным агентством по атомной энергии (МАГАТЭ), чтобы быть на высоте, любому регулирующему органу, занимающемуся ИИ внутри страны, также нужен международный партнер.

Это агентство будет нести ответственность за следующее:

  1. Разработка систем искусственного интеллекта.
  2. Обеспечить соблюдение и исполнение.
  3. Контролируйте процесс этической проверки проектов ИИ.
  4. Межстрановое сотрудничество в области безопасности и этики ИИ.

4. Решение вопросов авторского права и интеллектуальной собственности

Существующие законы об авторском праве и правовая база рушатся перед лицом ИИ. То, как устроены инструменты ИИ, особенно генеративные инструменты ИИ, делает их похожими на публично санкционированную машину для нарушения авторских прав, с которой вы ничего не можете поделать.

как? Что ж, многие современные системы искусственного интеллекта обучаются с использованием материалов, защищенных авторским правом. Вы знаете, статьи, защищенные авторским правом, песни, защищенные авторским правом, изображения, защищенные авторским правом, и т. д. Вот как такие инструменты, как ChatGPT, Bing AI и Google Gemini, могут делать удивительные вещи.

Хотя эти системы явно используют интеллектуальную собственность людей, то, как эти системы ИИ делают это, ничем не отличается от того, как человек читает книгу, защищенную авторским правом, слушает песни, защищенные авторским правом, или смотрит на изображения, защищенные авторским правом.

Вы можете прочитать книгу, защищенную авторским правом, узнать из нее новые факты и использовать эти факты в качестве основы для своей собственной книги. Вы также можете прослушать песню, защищенную авторским правом, чтобы вдохновиться на создание собственной музыки. В каждом случае я использовал материалы, защищенные авторским правом, но это не обязательно означает, что производный продукт нарушает авторские права оригинала.

Хотя это и является логичным объяснением того хаоса, который технологии искусственного интеллекта вызывают в законах об авторском праве, он по-прежнему наносит ущерб владельцам авторских прав и интеллектуальной собственности. В связи с этим регламент необходим для того, чтобы:

  1. Четко определите ответственность и обязанности всех сторон, участвующих в жизненном цикле системы ИИ. Это включает в себя уточнение ролей каждой стороны, от разработчиков ИИ до конечных пользователей, чтобы гарантировать, что ответственные стороны несут ответственность за любые нарушения авторских прав или другие нарушения интеллектуальной собственности, совершенные системами ИИ.
  2. Укрепление существующей системы авторского права и, возможно, введение законов об авторском праве для ИИ.
  3. Чтобы обеспечить инновации в области ИИ и защитить права первоначальных создателей, правила ИИ должны переопределить концепции добросовестного использования и преобразовательной работы в контексте контента, созданного ИИ. Необходимы более четкие определения и руководящие принципы, чтобы гарантировать, что пространство ИИ может продолжать совершенствоваться при соблюдении границ авторского права. Необходимо найти баланс между инновациями и защитой прав создателей контента.
  4. Четкие пути для сотрудничества с правообладателями. Если системы ИИ все равно будут использовать интеллектуальную собственность людей, должны быть четкие пути или рамки для сотрудничества разработчиков ИИ и правообладателей, особенно с точки зрения денежной компенсации, если производная работа этой интеллектуальной собственности когда-либо будет коммерциализирована.

Проверять Кому принадлежат авторские права на творения ИИ? Как действует авторское право на эти произведения искусства?

Регулирование ИИ — очень необходимое исправление

Хотя ИИ стал многообещающим решением многих наших социальных проблем, сам ИИ быстро становится проблемой, требующей срочного решения. Пришло время сделать шаг назад, подумать и провести необходимые реформы, чтобы обеспечить положительное влияние ИИ на общество. Нам отчаянно нужна срочная перекалибровка нашего подхода к созданию и использованию систем ИИ. Вы можете просмотреть сейчас Ключевые факторы, которые следует учитывать при тестировании чат-ботов с искусственным интеллектом на точность.

Перейти к верхней кнопке