Право
Елена Савчук, фото: Павел Садовский, «Про бизнес» 5 июня 2024

«Не верьте искусственному интеллекту. Вообще никогда». Юристы — о том, почему использование ИИ может вызвать больше проблем, чем радости

Татьяна Игнатовская (слева) и Надежда Шакель.

Искусственный интеллект — сейчас главная «рок-звезда» в сфере бизнеса, производства, сервиса, найма людей. Осталось мало сфер, где его нельзя внедрить и использовать. С не меньшим энтузиазмом за всем этим наблюдают юристы, хотя у них сразу появляется ряд вопросов о законности использования ИИ, об авторском праве, об ответственности за ошибки нейросетей… Да, искусственный интеллект ошибается. «Про бизнес» на конференции «AI DAY_CONFERENCE: ПРОДАЖИ, КЛИЕНТЫ, МАРКЕТИНГ» зафиксировал главное из выступления партнера Татьяны Игнатовской и старшего юриста Надежды Шакель компании «Степановский, Папакуль и партнёры. Юридические услуги». Советуем ознакомиться. Не все так безоблачно с ИИ, как хотелось бы.

Порассуждаем о том, где искусственный интеллект пересекается с правом, особенно в части бизнеса. Постараемся никого не пугать, просто поделимся осмыслением ситуации, потому как в целом на сегодня у нас нет специального регулирования в сфере ИИ.

Искусственный интеллект и авторское право

Татьяна:

— Расскажу, о чем стоит помнить при использовании ИИ.

  • Первое: искусственный интеллект очень тесно связан с правом интеллектуальной собственности, с авторским правом, причем как на стороне разработчика и владельца этого продукта, так и на стороне пользователей, которые в результате использования инструмента могут получить удивительные результаты, при этом не должны попасть впросак, не нарушить права других лиц.
  • Второе: искусственный интеллект связан с персональными данными — это основная проблема, которая может повлечь неясные последствия с учетом отсутствия норм и практики.
  • Третье: результаты работы и данные искусственного интеллекта активно используются сейчас в HR, рекрутинге, при оценке, обучении персонала. ИИ затрагивает вопросы защиты коммерческой тайны, и эта область очень чувствительна для бизнеса.

Итак, что такое искусственный интеллект с точки зрения права? Это первый вопрос, на который мы в любом случае должны ответить перед тем, как начать классифицировать другие, связанные с ИИ вопросы и думать, как это можно урегулировать. Несмотря на ряд дискуссий, правовая мысль сводится к тому, что это программный продукт, соответственно, у него есть правообладатель. В любом случае, мы должны обращаться к условиям пользовательских соглашений данного программного продукта для того, чтобы понимать, насколько мы вправе использовать его самостоятельно, даже если речь идет о бесплатных сервисах.

Можем ли мы создавать на этой базе свой продукт? Ограничения, которые установлены в пользовательском соглашении, должны учитываться пользователями данного инструмента для того, чтобы в последующем мы могли говорить о реальности вашего продукта.

Надежда:

— Иногда кажется, что бесплатные версии вам разрешают все, но это не так. Нужно всегда обращать внимание не просто на сервис и то, какие он дает возможности, но и на то, что вы далее планируете делать с результатами работы этого сервиса. Большинство соглашений ограничивает возможности бесплатного использования в зависимости от объема и от целей. Можно ли использовать изображение в коммерческих целях, полученных при помощи Midjourney? Можно почти во всех случаях, кроме двух исключений: первое — использование сгененированного иным лицом изображения, а второе — если оборот вашего бизнеса более, чем $ 1 млн в год.

Сейчас эти условия такие, но у любого ресурса есть возможность и право в любой момент свои условия поменять. Мы часто видим нарушение прав даже с картинками с фотостоков: какие-то изображения мы брали в один момент, и тогда условия были одни, а когда приходится использовать их через 2−3 года, могут быть совсем иные условия.

Сервисы генерации изображений могут доставить больше проблем, чем радости, когда они начинают использоваться не в тех целях, которые предполагались их разработчиками, например для создания дипфейков. Например, широко распространилось фейковое изображение папы римского в пуховике. Оно не только нарушило правила платформы, но и затронуло имидж папы римского: считая изображение реальным, многие критиковали «модного понтифика» или смеялись над его внешним видом.

Источник: скриншоты из презентации Т. Игнатовской и Н. Шакель

Когда мы начинаем злоупотреблять возможностями каких-либо сервисов, тогда, конечно, владельцы начинают менять условия использования. Именно поэтому некогда бесплатный Midjourney ввел оплату за предоставление своих услуг. ИИ не следит за вами и не оценивает то, что вы создаете, все результаты — на вашей совести, в том числе, какие нормы права они потенциально могут нарушить.

Другой пример: искусственный интеллект поучаствовал в создании обложки для издания. И возник вопрос: а кто правообладатель этой обложки? Если я, например, захочу эту обложку скопировать и у себя использовать, может ли кто-нибудь из тех, кто ее генерировал, или даже сам искусственный интеллект как субъект права предъявить ко мне иск. Эту работу при помощи нейросетей создал нейрохудожник. Однако, что это была за помощь и какая часть деятельности самого художника позволяет нам думать, что он автор? Вопросы остаются открытыми.

В чем здесь проблема? Вроде бы большинство сервисов пока дают права на использование сгенерированного контента тому, кто их генерирует. Однако даже если этот сервис назвал нас правообладателем, то это не всегда означает, что у нас возникает авторское право. Критерий, который иногда удивляет обычных пользователей, заключается в том, что для признания какого-либо объекта, охраняемым авторским правом, необходим не творческий результат, а творческий труд. Обратите на это внимание. Сама по себе картинка может быть некрасивой, неинтересной, но если мы совершили творческий труд при ее создании, то возникает авторско-правовая охрана. А если наша картинка получилась очень красивая и интересная, но творческого труда нет, то формально и по нашему закону, и по закону других стран, авторское право не возникает.

Это сложный вопрос со множеством нюансов. Недавний пример — компания из России, которая создала дипфейк с Киану Ривзом в рекламе, была признана правообладателем, так как присутствовал творческий труд и при использовании инструментов искусственного интеллекта.

Базовый подход, который сейчас есть в большинстве юрисдикций, — это то, что объекты, которые генерируют проекты, продукты, программы, охраняются товарными знаками. И товарные знаки чаще всего имеют международные регистрации, распространяются на разные страны мира, поэтому если вдруг вы хотите использовать в своей деятельности товары, услугу с таким же обозначением, как известные сервисы, есть большая вероятность, что в определенной стране товарный знак будет зарегистрирован и к вам могут быть предъявлены соответствующие претензии от правообладателя.

Здесь мы смотрим не только базу данных Национального центра интеллектуальной собственности (белорусского патентного ведомства), но и регистрации по международным процедурам, чтобы определить страны, где эти данные защищаются и охраняются.

Важно понимать: то, что мы создаем, то, что генерирует нейросеть, может оказаться похожим либо идентичным тому, что уже есть. Так происходит, когда пытаются генерировать красивые картины и символы, а потом использовать это как свое лого либо в публикациях, в маркетинговых активностях. В подобных случаях мало вариантов для беспрепятственного использования, если картинка слишком похожа на то, что кто-то раньше уже сделал. Принципиальным вопросом является степень идентичности с явно узнаваемыми картинками, символами, образами.

Скорее всего, не будет проблем, если я такую сгененированную картинку (идентичную или похожую на произведение или товарный знак другого лица) никому не показываю или использую в рамках разрешенных целей. Если же она становится лого, например, в моей книге и распространяется на весь мир, то у меня могут быть определенные вопросы в тех или иных юрисдикциях. Нейросеть не проверяет законность использования вами генерируемого изображения, совпадает ли оно с охраняемым авторском правом или как товарный знак объектом, поэтому спокойно выдаст изображение по запросу. Например, Микки Маус защищается как товарный знак в отдельных странах. Одновременно его изображение охраняется и как художественный объект сразу во всех странах мира. По этой причине многие художники возражают против того, чтобы субъект (ИИ) использовал для обучения их картинки, потому что он выдает похожие на их работу результаты..

Всегда нужно учитывать условия и ограничения, которые могут быть, потому что генерация происходит легко, а вот использование результатов может быть сопряжено с рядом трудностей и нарушений.

Искусственный интелллект и персональные данные

Татьяна:

— Теперь стоит подумать над темой использования ИИ в работе с персональными данными. С ними сталкивается любая компания: неважно работает ли она в сфере В2С, либо только с корпоративными клиентами, потому что в любом случае у компаний есть и потребители, и сотрудники, и акционеры.

Специального регулирования в Беларуси в отношении автоматизированной обработки персональных данных инструментами искусственного интеллекта нет. Та автоматизированная обработка, которая упоминается в нашем законе о защите ПД, относится к обработке ПД с помощью компьютера, а это не инструмент искусственного интеллекта — не надо путать. В любом случае, так как у нас нет специального регулирования, мы должны руководствоваться общими «офлайновыми» нормами, понимая, что искусственный интеллект такой же инструмент, как руки нашего сотрудника, который эти данные будет обрабатывать.

Буквально на днях появился текст Конвенции Совета Европы по искусственному интеллекту, который с сентября будет открыт для подписания заинтересованными государствами. Это такой первый фундаментальный документ, который регулирует широкий круг вопросов по использованию искусственного интеллекта, в том числе в сфере бизнеса. Да, у нас нет пока четкого регулирования нюансов обработки ПД инструментами ИИ, но мы должны всегда понимать, для каких целей нам нужно обрабатывать персональные данные. Достаточно ли нам определенного объема и не планируем ли обрабатывать больше информации, чем нужно для определенной цели обработки, потому что обработка избыточных данных — это одно из наиболее частых замечаний Национального центра защиты персональных данных при проведении проверки в отношении компаний в части использования ими персональных данных.

Мы должны понимать, что объем обрабатываемых данных должен четко соответствовать цели такой обработки. Часто сталкиваемся в своей практике с тем, что бизнес считает: если есть согласие пользователя на обработку персональных данных, то этого достаточно для сбора любого объема данных, а на самом деле, конечно, это не так. В любом случае, даже если согласие пользователя есть, это не всегда может «спасти» от претензии Центра об избыточности обработки ПД конкретного лица для конкретной цели.

Используя искусственный интеллект для работы с ПД, мы должны также понимать функционал ПО (программного обеспечения), продукта, при этом важно учитывать, использует ли инструмент ИИ какие-то сторонние сервисы. Мы всегда должны понимать, что условный WhatsApp либо какое-то другое программное обеспечение — это иностранный программный продукт, мы не знаем, где находятся их сервера, не знаем, безопасные ли это юрисдикции, в какие страны ПД передаются, если передаются. Перечень небезопасных юрисдикций никак не коррелирует с перечнем недружественных стран: Китай — дружественная страна, но считается небезопасной юрисдикцией. Необходимо разбираться и в таких нюансах.

Когда мы говорим о том, что необходимо согласие в случае передачи данных в небезопасные юрисдикции, надо понимать, что обязательно наличие расширенного согласия, в котором должны быть перечислены те риски, которые имеют место в небезопасной юрисдикции, либо на такое использование (передача в небезопасные юрисдикции) может быть получено разрешение Центра.

Должны ли мы сообщать сотруднику о том, что его данные обрабатываются инструментами искусственного интеллекта, а не человеком? В Беларуси такого требования нет. Если мы обращаемся к международной практике, то можно обратить внимание на GDPR (Общий регламент ЕС по защите персональных данных), в котором имеется специальная 22 статья. В ней определяется, что в случае автоматической обработки лицо, чьи данные обрабатываются, имеет право возразить и отказаться от такой автоматической обработки, потребовав, чтобы его данные обрабатывались человеком, в том числе в части профилирования (оценка определенных личных качеств инструментами искусственного интеллекта для получения какой-то аналитической информации). Это требование не будет действовать, если такая автоматизированная обработка необходима для принятия решения о заключении договора с конкретным лицом или если субъект дал до этого свое согласие на подобную обработку.

Если у вас есть ресурсы, которые обрабатывают данные физлиц, размещенные в европейских доменных зонах, на вас может распространяться действие данного регламента. Например, если вы разработчик мобильной игры и вашими пользователями являются европейские граждане, которые предоставляют вам свои персональные данные, то для вас эта информация может быть актуальна и ее нужно держать в поле зрения.

Искусственный интеллект и ответственность за его ошибки

Надежда:

— Использование ИИ при найме на работу может повлечь дискриминацию по разным признакам. ИИ анализирует предоставленные данные, и если мы «скормили» ему некорректную информацию — результаты могут быть с ошибками. Так, если дать для анализа ИИ резюме принятых на работу лиц (для подбора похожих кандидатов), может оказаться, что найм на работу не был свободен от дискриминации, покольку осуществлялся конкретными топ-менеджерами со своими расовыми, гендерными и другими представлениями (и предубеждениями). У Amazon был кейс: в какой-то момент искусственный интеллект, проанализировав резюме, решил, что мужчины предпочтительнее, и стал отсеивать резюме женщин или лиц, учившихся в учебных заведениях для женщин. Вот такая предвзятость появилась там, где не должна была.

При использовании ИИ следует задуматься и над тем, а что именно мы загружаем в соответствующую систему, когда хотим, например, какие-то документы адаптировать, проверить и т.д. При этом многие данные, которые мы в эти системы загружаем, — это коммерческая тайна. Именно поэтому лучше сразу убирать из них информацию, которая может быть чувствительна для вас, а также контрагентов, потому что это все реальные люди с именами и фамилиями, или конкретные условия взаимодействия. Одно дело — генерация картинки, другое — использование ИИ в работе с информацией ограниченного распространения.



Еще один совет — не верьте искусственному интеллекту. Вообще никогда. Был кейс, когда американский юрист спросил у ИИ, реальны ли те дела, которые ему нашел ИИ и которые он далее использовал для обоснования своей позиции. Chat GPT ответил, что все дела реальны. И юрист пошел с иском с соответствующими данными в суд. Другая сторона долго искала те кейсы, на которые он ссылался, не нашла подтверждения их реальности и обратилась в суд. Выяснислось, что таких кейсов в действительности не было — их придумал ИИ. В итоге — штраф и компании, и юристу.

Татьяна:

— Много вопросов остается за рамками права, вне зависимости от того, в какой мы находимся юрисдикции. И главный вопрос: кто будет отвечать за ошибки искусственного интеллекта? Простая аналогия: нож, которым можно заточить карандаш, резать мясо или совершать убийство. В любом случае производитель ножа, если он только в самом начале не имел направленности на совершение убийства, отвечать за использование ножа не может.

Если же говорить об ИИ как о субъекте права, мы должны понимать, что субъект права должен иметь возможность нести юридическую ответственность. Мы все-таки воспринимаем ИИ как инструмент, и даже в отсутствие правового регулирования должны находить для него другие нормы, регулирующие по сути предмет, на который воздействуем искусственным интеллектом, для того, чтобы думать, как с этим можно работать.