Закон RISE сенатора Ламмис своевременен и необходим, но не хватает деталей.

Гражданско-правовая ответственность — не самая популярная тема для светских бесед, но она может оказать огромное влияние на развитие новых технологий, таких как искусственный интеллект.

Плохо сформулированные правила ответственности могут создать барьеры для будущих инноваций, подвергая предпринимателей — в данном случае разработчиков ИИ — ненужным юридическим рискам. Именно так рассуждает сенатор США Синтия Ламмис, которая на прошлой неделе представила Закон об ответственном инновационном и безопасном опыте (RISE) от 2025 года.

Этот законопроект призван защитить разработчиков ИИ от судебных исков в гражданском суде, чтобы врачи, юристы, инженеры и другие специалисты «могли понимать, на что способен ИИ, а на что нет, прежде чем полагаться на него».

Первые реакции на Закон RISE, полученные Cointelegraph от различных источников, были в основном положительными, хотя некоторые критиковали ограниченный масштаб законопроекта, его недостатки в отношении стандартов прозрачности и ставили под сомнение предоставление разработчикам ИИ защиты от ответственности.

Большинство охарактеризовали RISE как работу в процессе, а не как завершенный документ.

Является ли Закон RISE «подарком» разработчикам ИИ?

По словам Хамида Экбии, профессора Школы гражданства и государственных дел Сиракузского университета, законопроект Ламмис «своевременен и необходим» (Ламмис назвала его первым в стране законопроектом о целевой реформе ответственности в отношении профессионального ИИ).

Но этот законопроект слишком сильно склоняет чашу весов в пользу разработчиков ИИ, заявил Экбия Cointelegraph. Закон RISE требует от них публиковать спецификации моделей, чтобы специалисты могли принимать обоснованные решения об используемых ими инструментах ИИ, но:

«Он возлагает основную тяжесть риска на «квалифицированных специалистов», требуя от разработчиков лишь «прозрачности» в форме технических спецификаций — карт моделей и спецификаций — и предоставляя им широкую иммунную защиту в противном случае».

Неудивительно, что некоторые быстро обвинили законопроект Ламмис в том, что это «подарок» компаниям, занимающимся ИИ. Democratic Underground, описывающая себя как «левоцентристское политическое сообщество», отметила в одном из своих форумов, что «компании, занимающиеся ИИ, не хотят судиться за сбои в работе их инструментов, и этот законопроект, если он будет принят, позволит им этого избежать».

Не все с этим согласны. «Я бы не стал называть этот законопроект «подарком» компаниям, занимающимся ИИ», — заявил Феликс Шипкевич, главный юрист Shipkevich Attorneys at Law, в беседе с Cointelegraph.

Предлагаемое положение об иммунитете в Законе RISE, по-видимому, направлено на защиту разработчиков от строгой ответственности за непредсказуемое поведение больших языковых моделей, пояснил Шипкевич, особенно когда отсутствует халатность или намерение причинить вред. С юридической точки зрения это рациональный подход. Он добавил:

«Без какой-либо защиты разработчики могут столкнуться с неограниченной ответственностью за результаты, которыми они никак не могут управлять».

Область действия предлагаемого законодательства довольно узкая. Оно в основном сосредоточено на сценариях, в которых специалисты используют инструменты ИИ при работе со своими клиентами или пациентами. Например, финансовый консультант может использовать инструмент ИИ для разработки инвестиционной стратегии для инвестора, или радиолог может использовать программу ИИ для помощи в интерпретации рентгеновского снимка.

Закон RISE не решает случаи, когда между разработчиком ИИ и конечным пользователем нет профессионального посредника, например, когда чат-боты используются в качестве цифровых компаньонов для несовершеннолетних.

Недавно в штате Флорида произошел подобный случай гражданско-правовой ответственности: подросток покончил с собой после нескольких месяцев общения с чат-ботом ИИ. Семья погибшего заявила, что программное обеспечение было разработано таким образом, что не обеспечивало разумной безопасности для несовершеннолетних. «Кто должен нести ответственность за смерть этого человека?» — спросил Экбия. Такие случаи не рассматриваются в предложенном законопроекте в Сенате.

«Необходимы четкие и единые стандарты, чтобы пользователи, разработчики и все заинтересованные стороны понимали правила игры и свои юридические обязательства», — заявил Райан Эбботт, профессор права и наук о здоровье Школы права Университета Суррея, в беседе с Cointelegraph.

Но это сложно, потому что ИИ может создавать новые виды потенциального вреда, учитывая сложность, непрозрачность и автономность этой технологии. Сфера здравоохранения будет особенно сложной с точки зрения гражданско-правовой ответственности, по мнению Эбботта, который имеет ученые степени как в области медицины, так и права.

Например, врачи исторически превосходили программное обеспечение ИИ в медицинских диагнозах, но в последнее время появляются данные о том, что в некоторых областях медицинской практики «человек в цикле» фактически достигает худших результатов, чем если ИИ выполняет всю работу, объяснил Эбботт. «Это порождает множество интересных вопросов об ответственности».

Кто будет выплачивать компенсацию, если будет допущена серьезная медицинская ошибка, когда врач больше не участвует в процессе? Покроет ли это страхование от врачебных ошибок? Возможно, нет.

AI Futures Project, некоммерческая исследовательская организация, предварительно одобрила законопроект (ей было проконсультировано при разработке законопроекта). Но исполнительный директор Дэниел Кокотайло заявил в социальной сети X, что требования к прозрачности, предъявляемые к разработчикам ИИ, недостаточны.

«Общественность заслуживает того, чтобы знать, какие цели, ценности, повестки дня, предубеждения, инструкции и т. д. компании пытаются передать мощным системам ИИ». Этот законопроект не требует такой прозрачности и поэтому не идет достаточно далеко, заявил Кокотайло.

Кроме того, «компании всегда могут принять на себя ответственность вместо того, чтобы быть прозрачными, так что, когда компания хочет сделать что-то, что не понравится общественности или регулирующим органам, она может просто отказаться от участия», — сказал Кокотайло.

Подход ЕС, основанный на правах

Как Закон RISE соотносится с положениями об ответственности в Акте об ИИ ЕС от 2023 года, первом всеобъемлющем регулировании ИИ со стороны крупного регулирующего органа?

Позиция ЕС в отношении ответственности за ИИ находится в стадии изменения. Директива ЕС об ответственности за ИИ была впервые разработана в 2022 году, но была отозвана в феврале 2025 года, по некоторым данным, из-за лоббирования со стороны индустрии ИИ.

Тем не менее, законодательство ЕС в целом придерживается подхода, основанного на правах человека. Как отмечается в недавней статье в UCLA Law Review, подход, основанный на правах, «подчеркивает расширение прав и возможностей отдельных лиц», особенно конечных пользователей, таких как пациенты, потребители или клиенты.

Подход, основанный на рисках, как в законопроекте Ламмис, напротив, основывается на процессах, документации и инструментах оценки. Он будет больше сосредоточен на выявлении и смягчении предубеждений, например, чем на предоставлении пострадавшим людям конкретных прав.

Когда Cointelegraph спросил Кокотайло, какой подход к гражданско-правовой ответственности — «основанный на рисках» или «основанный на правилах» — более уместен для США, он ответил: «Я думаю, что основное внимание должно быть уделено подходу, основанному на рисках, и сосредоточению внимания на тех, кто создает и развертывает технологию».

ЕС придерживается более проактивного подхода к таким вопросам, добавил Шипкевич. «Их законы требуют от разработчиков ИИ заранее демонстрировать, что они соблюдают правила безопасности и прозрачности».

Заключение

Закон RISE от Ламмис представляет собой важный шаг к решению вопросов ответственности в эпоху искусственного интеллекта. Хотя он, возможно, и не решает всех проблем, связанных с прозрачностью и защитой интересов потребителей, он предлагает разумную основу для стимулирования инноваций, одновременно защищая права и безопасность граждан. Успех этого законопроекта будет зависеть от его способности адаптироваться к быстро меняющемуся ландшафту искусственного интеллекта и решать возникающие проблемы этичным и эффективным способом.