Услуги
Бесплатный поиск
товарных знаков
Поиск онлайнтоварных знаков
Одна из лучших
юридических компаний
Мы в рейтингахюридических компаний
Изменить регион :ОАЭ / СА
Окончание 2023 года ознаменовалось событием, которое стало знаковым для сферы искусственного интеллекта - в декабре Европейский парламент согласовал закон, определяющий границы использований соответствующих технологий. На сегодняшний день это самая масштабная попытка взять под контроль и отрегулировать отношения в соответствующей сфере.
Интересно отметить, что первая версия законопроекта о регулировании ИИ была разработана в Европарламенте еще в 2021 г. Она подытожила результат трехлетнего сотрудничества законодателей Евросоюза с ведущими мировыми экспертами в данной области. Эта версия законопроекта была представлена как глобальная модель обращения с технологиями - предполагалось, что общие положения закона об искусственном интеллекте будут охватывать не только существующие, но и все возможные технологии, которые могут появиться в будущем. Однако вскорости на мировой арене появилась технология ChatGPT, которую окрестили, как мировую сенсацию (подробнее см. в статье «Искусственный интеллект ChatGPT – инструмент будущего или угроза авторскому праву»). Данная технология показала «слепые пятна» законопроекта и обозначила новые вызовы. «Мы всегда будем отставать от скорости развития технологий», - отметил по этому поводу один из членов Европарламента, который участвовал в подготовке законопроекта. В итоге на доработку закона с учетом новых реалий потребовалось около двух лет.
Однако проблема регулирования сферы ИИ заключается не только в скорости развития технологий, но в опасениях ведущих государств и объединений упустить лидерство в мировой гонке за технологическими прорывами. Дилемма состоит в том, что с одной стороны национальные законодательные ограничения могут задержать развитие технологий ИИ, за которыми прочат ни много, ни мало, а способность радикально изменить существующую систему экономических и социальных взаимоотношений в обществе. С другой – использование технологий ИИ уже на текущем этапе выявило множество существенных рисков, включая нарушения в сфере авторских прав, дипфейки, нарушения в использовании персональных данных; они пошатнули образовательную и научную сферы деятельности и т.п. Кроме того, прогнозируется, что развитие технологий может привести к массовой безработице в определенных сферах деятельности, недобросовестной конкуренции, включая не только экономические, но и выборные процессы, в том числе влияние на исход политических выборов и поведение избирателей.
Включившись в технологическую гонку, с проблемами столкнулись и сами разработчики систем ИИ. В первую очередь они коснулись таких IT-гигантов, как Microsoft и Google, обладающих финансовыми и техническими ресурсами, а также доступом к огромному количеству данных (big data), необходимых для разработки технологий ИИ. Причем проблемы затронули не только морально-этическую сторону, но и правовую сферу, что в свою очередь вылилось в лавину исков с многомиллионными требованиями. Это привело к необходимости переосмысления ценности технологий ИИ с позиций соотношения их преимуществ с объективно существующими и потенциальными рисками.
Вместе с тем, несмотря на заявления IT-корпораций о снижении объемов и приостановлении выпуска новых технологий, а также о добровольно принятых обязательствах акцентировать внимание на разработке ответственного и безопасного ИИ, многие государства стали принимать меры, направленные на контролирование использования ИИ-технологий. В ход пошли как меры рекомендательного и ограничительного характера (Япония, США, Китай), так и прямые точечные запреты (например, запрет использования в Италии ChatGPT).
В правовой сфере ключевой проблемой является несоответствие текущего нормативного регулирования отношений интеллектуальной собственности с объективной реальностью, в основе которой стоят соответствующие технологические прорывы. Так, проблемы в сфере права интеллектуальной собственности уже затронули как его общие положения, так и специальные нормы по ключевым группам объектов. В частности, набирают актуальность вопросы, связанные с патентованием «синтетических» изобретений и иных объектов промышленной собственности, созданных при помощи систем ИИ (подробнее см. в статье «О проблемах патентной охраны изобретений, созданных искусственным интеллектом»).
Еще более остро стоит проблема в сфере авторского права, особенно в части защиты правообладателями «входных данных» - материалов, которые используются технологическими компаниями для обучения нейросетей и генерации «синтетического» контента (подробнее см. в статье «О проблеме обучения генеративных нейросетей на объектах, охраняемых авторским правом»). Владельцы социальных сетей (Reddit и Twitter), новостные организации, издатели, писатели, художники и иные правообладатели произведений предъявляют как индивидуальные, так и коллективные иски против компаний - разработчиков систем ИИ.
В конце декабря 2023 г. американский медиа-гигант New York Times обратился в суд с иском к технологическим компаниям OpenAI и Microsoft о нарушении авторских прав. По мнению истца, ответчики незаконно использовали для обучения чат-ботов миллионы опубликованных статей, авторские права на которые принадлежат истцу. Помимо требования о возмещении фактического ущерба, New York Times хочет запретить дальнейшее использование материалов чат-ботами, прогнозируя недобросовестную конкуренцию в новостной сфере и, как следствие, упущенную выгоду из-за снижения трафика. В свою очередь OpenAI считает данный иск безосновательным, а использование открытых материалов – добросовестным использованием.
Часть проблем, связанных с использованием «входных данных», снимается путем заключения соответствующих партнерских соглашений. Технологические компании, включая OpenAI, призывают правообладателей к взаимовыгодному сотрудничеству на основе преобразующего потенциала технологий ИИ и связанных с ним новых моделей получения дохода. Однако очевидно, что в отсутствие базового законодательного регулирования соответствующей сферы, такой подход является полумерой: как правило, конкурентное преимущество на стороне первых, а процесс согласования условий сделки может затянуться надолго и в итоге не дать нужных результатов. Так, например, New York Times и OpenAI изначально пытались договориться о сотрудничестве, однако переговорный процесс прервался путем подачи соответствующего иска. При том, что неопределенность ситуации и применяемая в США доктрина «добросовестного использования» в отсутствие нормативных ориентиров не дает надежных гарантий защиты ни для одной из заинтересованных сторон.
В этой связи принятие Европейским Союзом закона об искусственном интеллекте представляется знаковым событием, направляющем развитие революционных технологий в надежное и экологическое русло. По заявлению пресс-центра Европарламента, закон одновременно защищает от использования ИИ с высоким риском, направлен на стимулирование инноваций, делая Европу лидером в этой области, а также устанавливает обязательства для ИИ-систем в зависимости от их потенциальных рисков и уровня воздействия.
В частности, при разработке и использовании ИИ-технологий закон по общему правилу устанавливает ряд запретов. Например, таких как:
При этом компании - разработчики ИИ с высоким потенциальным риском для людей и общества (например, если технология может причинить вред при найме на работу или обучении и т.п.) должны будут проводить предварительную оценку соответствия ИИ-моделей, оценивать и снижать системные риски, проводить состязательное тестирование и отчитываться перед регулирующим органом.
Для ИИ-систем общего назначения (к которым в том числе относится ChatGPT) и моделям, на которых они основаны, установлены требования об обеспечении прозрачности, которые включают:
Кроме того, в законе предусмотрены:
Европейские парламентарии называют закон об искусственном интеллекте сделкой по всеобъемлющим правилам для надежного ИИ, которая окажет значительное влияние на цифровое будущее Европейского Союза. Однако эксперты в соответствующей сфере отмечают, что помимо официального утверждения, новоиспеченному закону еще предстоит долгий и тернистый путь.