Legal regulation and ethical challenges of using artificial intelligence in medical research

Abstract

Artificial intelligence (AI) is increasingly used in medical research, leading to significant innovations while simultaneously raising complex legal and ethical issues. This article provides an academic analysis of the legal aspects of intellectual property (IP) as applied to AI in medicine, ethical challenges, and the interaction between IP rights and innovation. It discusses how existing IP protection regimes—patents, copyright, and trade secrets—apply to AI-generated algorithms and results, and the problems that arise in determining ownership. Special attention is given to ethical dilemmas such as data privacy and patient rights, algorithmic transparency, and the prevention of algorithmic unfairness. Finally, the paper examines how IP regimes influence innovation—on the one hand, by incentivizing development through legal protection, and on the other hand, potentially hindering scientific progress if legal frameworks are not adapted to the AI era. The conclusion emphasizes the need for a balance between protecting intellectual rights and ensuring ethical standards, which would promote innovation in medical AI without harming society.

Source type: Journals
Years of coverage from 2020
inLibrary
Google Scholar
HAC
elibrary
doi
 
CC BY f
129-139

Downloads

Download data is not yet available.
To share
Yokubov Ш. (2025). Legal regulation and ethical challenges of using artificial intelligence in medical research. Society and Innovation, 6(7/S), 129–139. https://doi.org/10.47689/2181-1415-vol6-iss7/S-pp129-139
Crossref
Сrossref
Scopus
Scopus

Abstract

Artificial intelligence (AI) is increasingly used in medical research, leading to significant innovations while simultaneously raising complex legal and ethical issues. This article provides an academic analysis of the legal aspects of intellectual property (IP) as applied to AI in medicine, ethical challenges, and the interaction between IP rights and innovation. It discusses how existing IP protection regimes—patents, copyright, and trade secrets—apply to AI-generated algorithms and results, and the problems that arise in determining ownership. Special attention is given to ethical dilemmas such as data privacy and patient rights, algorithmic transparency, and the prevention of algorithmic unfairness. Finally, the paper examines how IP regimes influence innovation—on the one hand, by incentivizing development through legal protection, and on the other hand, potentially hindering scientific progress if legal frameworks are not adapted to the AI era. The conclusion emphasizes the need for a balance between protecting intellectual rights and ensuring ethical standards, which would promote innovation in medical AI without harming society.


background image

Жамият

ва

инновациялар

Общество

и

инновации

Society and innovations

Journal home page:

https://inscience.uz/index.php/socinov/index

Legal regulation and ethical challenges of using artificial
intelligence in medical research

Shukhratjon YOKUBOV

1


Tashkent State University of Law

ARTICLE INFO

ABSTRACT

Article history:

Received July 2025

Received in revised form

15 July 2025
Accepted 25 July 2025

Available online

15 August 2025

Artificial intelligence (AI) is increasingly used in medical

research,

leading

to

significant

innovations

while

simultaneously raising complex legal and ethical issues. This

article provides an academic analysis of the legal aspects of

intellectual property (IP) as applied to AI in medicine, ethical
challenges, and the interaction between IP rights and

innovation. It discusses how existing IP protection regimes

patents, copyright, and trade secrets

apply to AI-generated

algorithms and results, and the problems that arise in
determining ownership. Special attention is given to ethical

dilemmas such as data privacy and patient rights, algorithmic

transparency, and the prevention of algorithmic unfairness.

Finally, the paper examines how IP regimes influence
innovation

on the one hand, by incentivizing development

through legal protection, and on the other hand, potentially

hindering scientific progress if legal frameworks are not

adapted to the AI era. The conclusion emphasizes the need for a
balance between protecting intellectual rights and ensuring

ethical standards, which would promote innovation in medical

AI without harming society.

2181-

1415/©

2025 in Science LLC.

DOI:

https://doi.org/10.47689/2181-1415-vol6-iss7/S-pp129-139

This is an open access article under the Attribution 4.0 International
(CC BY 4.0) license (https://creativecommons.org/licenses/by/4.0/deed.ru)

Keywords:

artificial intelligence,

medical research,
intellectual property,

data privacy,

ethics,

patent law,

algorithmic fairness,

legal regulation.

Tibbiy tadqiqotlarda sun’iy intellektni qo‘llashning

huquqiy tartibga solinishi va axloqiy muammolari

ANNOTATSIYA

Kalit so‘zlar

:

sun’iy intellekt,

tibbiy tadqiqotlar,
intellektual mulk,

Sun’iy intellekt (SI) tobora ko‘proq tibbiyot sohasidagi

tadqiqotlarda qo‘llanilmoqda, bu esa muhim innovatsiyalarga

olib kelmoqda, shu bilan birga murakkab huquqiy va axloqiy

1

Teacher, Department of Intellectual Property Law, Tashkent State University of Law. E-mail: shukhrat.y2000@gmail.com


background image

Жамият

ва

инновациялар

Общество

и

инновации

Society and innovations

Special Issue

07 (2025) / ISSN 2181-1415

130

ma’lumotlar maxfiyligi,

etika, patent huquqi,

algoritmik adolat,

huquqiy tartibga solish.

masalalarni ham yuzaga keltirmoqda. Ushbu maqolada SI

tibbiyotida intellektual mulk (IM) huquqlarining tatbiq etilishi

bo‘yicha huquqiy jihatlar, axloqiy muammolar va IM huquqlari

bilan innovatsiyalar o‘rtasidagi o‘zaro aloqalar ilmiy tahlil

qilinadi. Amaldagi IM himoya tizimlari

patentlar, mualliflik

huquqi va tijorat sirlarini

SI tomonidan yaratilgan algoritmlar

va natijalarga qanday tatbiq etilishi, shuningdek, mulk

huquqlari kimga tegishli bo‘lishi masalalari ko‘rib chiqiladi.

Axloqiy di

lemmalarga alohida e’tibor qaratiladi: ma’lumotlar

maxfiyligi va bemorlarning huquqlari, algoritmlarning
shaffofligi va algoritmik adolatsizlikning oldini olish. Yakunda

maqolada IM tizimlari innovatsiyalarga qanday ta’sir ko‘rsatishi

tahlil qilinadi: bir tomondan, natijalarni himoya qilish orqali

rivojlanishni rag‘batlantirsa, boshqa tomondan, SI davriga

moslashtirilmagan huquqiy asoslar ilmiy taraqqiyotni

sekinlashtirishi mumkin. Xulosa sifatida, intellektual huquqlarni

himoya qilish bilan axloqiy me’yorlarni ta’minlash o‘rtasida

muvozanat zarurligi ta’kidlanadi –

bu tibbiyotdagi SI sohasidagi

innovatsiyalarni jamiyatga zarar yetkazmagan holda ilgari
surishga imkon beradi.

Правовое регулирование и этические вызовы
применения

искусственного

интеллекта

в

медицинских исследованиях

АННОТАЦИЯ

Ключевые слова:

искусственный интеллект,
медицинские
исследования,

интеллектуальная
собственность,
приватность данных,
этика,

патентное право,
алгоритмическая
справедливость,

правовое регулирование

.

Искусственный

интеллект

(ИИ)

все

активнее

используется в медицинских исследованиях, что ведет к

значительным инновациям, но одновременно порождает
сложные правовые и этические вопросы. В данной статье в

академическом стиле анализируются юридические аспекты

интеллектуальной собственности (ИС) применительно к ИИ

в медицине, этические вызовы, а также взаимодействие прав
ИС и инноваций. Обсуждается, как существующие режимы

охраны ИС –

патенты, авторское право, коммерческая тайна –

применяются к алгоритмам и результатам, созданным ИИ, и

какие

проблемы

возникают

при

определении

правообладателей. Особое внимание уделено этическим

дилеммам:

приватности

и

правам

пациентов

на

данные, прозрачности алгоритмов и предотвращению

алгоритмической

несправедливости.

Наконец,

рассматривается, как режим ИС влияет на инновации: с
одной стороны, стимулируя разработки посредством охраны

результатов, с другой –

рискуя затормозить научный

прогресс, если правовые рамки не адаптированы к эре ИИ.

Сделан вывод о необходимости баланса между защитой
интеллектуальных прав и обеспечением этических норм, что

позволит стимулировать инновации в области медицинского

ИИ без ущерба для общества

.


background image

Жамият

ва

инновациялар

Общество

и

инновации

Society and innovations

Special Issue

07 (2025) / ISSN 2181-1415

131

ВВЕДЕНИЕ

Внедрение технологий искусственного интеллекта в сферу медицинских

исследований открывает новые горизонты для науки: алгоритмы машинного
обучения помогают обнаруживать закономерности в больших массивах данных,
ускорять поиск лекарственных препаратов и повышать точность диагностики.
Однако одновременно с этими перспективами встают серьезные правовые

и

этические вопросы. Одними из центральных являются вопросы интеллектуальной
собственности (ИС) и инноваций. Кто является обладателем прав на результаты,
полученные при участии ИИ? Можно ли патентовать алгоритмы и открытия,
созданные машинным интеллектом?

Эти правовые неопределенности уже

проявляются на практике: к примеру, суды в США подтвердили, что в
соответствии с действующим патентным законодательством изобретателем
может быть только человек. Это означает, что изобретения, выполненные
автономным ИИ без непосредственного творческого вклада человека, формально
не подпадают под критерий патентоспособности, что создает пробелы в правовом
регулировании. С другой стороны, компании

-

разработчики стремятся защитить

вложенные средства и результаты исследований, всё чаще полагаясь на
механизмы ИС. Так, в области медицинского ИИ наблюдается отход от принципа
открытой публикации научных результатов (“publish or perish”), свойственного
классической науке, в пользу патентования и сохранения ноу

-

хау. Юристы

отмечают, что отсутствие чётких правил в этой сфере может затормозить
инновации: правовая неопределенность способна сдерживать внедрение
разработок ИИ в клиническую практику.

Не менее важны и этические проблемы, сопровождающие применение ИИ в

медицине. Во

-

первых, это

вопросы конфиденциальности и использования

персональных данных пациентов: алгоритмы требуют огромных объёмов данных
для обучения, что создаёт риск нарушения приватности и неопределённость в
соблюдении норм о защите данных. Например, в юрисдикциях Евросоюза
действует Общий регламент по защите данных (GDPR), устанавливающий строгие
требования к использованию медицинской информации, тогда как в других
странах (например, в США действует закон HIPAA) режим защиты носит
фрагментарный характер; такие различия затрудняют трансграничные
исследования с использованием ИИ.

Во

-

вторых, проблема алгоритмической справедливости: если наборы

данных неполны или смещены, ИИ может унаследовать и воспроизводить
существующие предубеждения. Исследования показывают, что медицинские

системы ИИ могут систематически давать менее точные результаты для
отдельных групп пациентов –

например, алгоритм анализа рентгеновских снимков

хуже диагностировал заболевания у представителей расовых меньшинств [5].

Это чревато усилением неравенства в здравоохранении, если не принять мер по
устранению такого смещения.

В

-

третьих, этические принципы требуют прозрачности и объяснимости

решений ИИ. Однако многие современные системы ИИ функционируют как
«чёрный ящик», а разработчики нередко ссылаются на коммерческую тайну для
защиты своих алгоритмов, не раскрывая деталей их работы. Такое сокрытие
информации может осложнить внешнюю оценку безопасности и эффективности


background image

Жамият

ва

инновациялар

Общество

и

инновации

Society and innovations

Special Issue

07 (2025) / ISSN 2181-1415

132

алгоритмов и противоречит публичным интересам в сфере здравоохранения.
Пациенты и врачи вправе понимать, каким образом ИИ приходит к тем или иным
выводам, особенно когда от этого зависят диагноз или выбор терапии.
Информированное согласие на использование ИИ в лечении предполагает, что
пациент, по крайней мере в общих чертах, знает о степени участия

алгоритмов

в принятии решений –

это ещё один этический аспект на стыке с правовыми

требованиями к раскрытию информации.

В настоящей статье проводится комплексный анализ указанных проблем.

В разделе I рассматриваются юридические аспекты охраны интеллектуальной
собственности применительно к ИИ в медицинских исследованиях –

какие

объекты защищаются, каким образом и с какими затруднениями сталкиваются
правообладатели. В разделе II обсуждаются ключевые этические вызовы,
возникающие при внедрении ИИ (приватность, справедливость, прозрачность), и
их связь с правовыми мерами. В разделе III анализируется взаимодействие
системы ИС с инновационным развитием: как режим охраны прав влияет на темпы
и направление инноваций в медицине. В заключение формулируются выводы и

рекомендации по совершенствованию правовой базы, чтобы уравновесить
стимулирование инноваций и соблюдение этических принципов.

Юридические аспекты интеллектуальной собственности в контексте ИИ

Интеллектуальная собственность и ИИ в медицине. Разработки на основе ИИ

в медицинской сфере затрагивают разные объекты, потенциально охраняемые
правом ИС. Один комплексный продукт ИИ может включать сразу несколько
охраняемых результатов. Например, алгоритмическая система диагностики может
подпадать под патентную охрану –

патентоспособны способы обработки

медицинских данных или новые технические решения в работе алгоритма. В то же
время, используемые для обучения алгоритма базы данных могут охраняться
авторским правом как составные произведения или sui generis правом на базы
данных (где оно предусмотрено). Программный код, реализующий модель, также
защищается авторским правом как литературное произведение. Наконец,
специфические конфигурации модели, параметры и ноу

-

хау нередко сохраняются

разработчиками в режиме коммерческой тайны (ноу

-

хау), позволяя длительно

удерживать технологическое преимущество без разглашения информации. Такая
множественность применимых видов ИС порождает сложность в правовом
режиме: разные элементы одной системы ИИ могут подпадать под различные
законы об интеллектуальной собственности, и охрана каждого из них имеет свои
пределы и условия.

Патентоспособность изобретений ИИ. Традиционное патентное право

рассчитано на изобретения, созданные человеком, и предъявляет требования
новизны, изобретательского уровня и промышленной применимости к решениям,
подаваемым на патент. Возникает вопрос: насколько эти критерии применимы к
результатам, полученным при участии автономного ИИ? На сегодня большинство
юрисдикций сходятся на том, что изобретатель в патентной системе –

это

физическое лицо. Прецедентом стала история с ИИ “DABUS”, которого его
создатель С.

Талер пытался указать в качестве изобретателя в патентных заявках.

Патентные ведомства ЕС, США, Великобритании и ряда других стран
последовательно отклонили эти заявки; в США дело дошло до апелляции в


background image

Жамият

ва

инновациялар

Общество

и

инновации

Society and innovations

Special Issue

07 (2025) / ISSN 2181-1415

133

Федеральном округе, где было прямо указано, что только естественное лицо
может признаваться изобретателем согласно закону. Таким образом, если новый
медицинский препарат или метод диагностики будет в существенной степени
“придуман” самоуправляемым ИИ, без творческого вклада конкретного
исследователя, патент получить затруднительно –

нужно указать человеческого

изобретателя, либо результаты могут остаться вне патентной охраны. Это
правовой пробел, который уже обсуждается экспертами: если роль ИИ в создании
инновации велика, как защитить такой результат и стоит ли пересматривать
определение изобретателя в законе. Неопределенность в этом вопросе способна
снижать инвестиционную привлекательность проектов ИИ: компании опасаются,
что не смогут запатентовать ключевые достижения, и это тормозит инновации [9].
С другой стороны, законодательные и судебные органы ряда стран стремятся
адаптировать существующие нормы: например, в США проведены консультации,
показавшие, что действующие критерии патентоспособности в целом могут
применяться к изобретениям с использованием ИИ, а патентная система остается
важным стимулом для разработчиков новой техники. В частности, подтверждено,
что изобретения, созданные при помощи ИИ (но при участии человека), должны
рассматриваться на общих основаниях и получать патенты, поскольку патентное
право исторически гибко реагирует на появление новых технологий. Таким
образом, в краткосрочной перспективе ставка делается на приспособление
существующих принципов (например, признание разработчика или владельца ИИ
изобретателем при подаче заявки), тогда как идея о придании самим ИИ статуса
субъекта права пока остается теоретической.

В контексте Республики Узбекистан правовое регулирование интеграции

искусственного интеллекта постепенно формируется. В октябре 2024 года
Президентом Республики Узбекистан утверждена Стратегия развития технологий
искусственного интеллекта до 2030 года (ПП

-

358 от 17.10.2024) в составе

национальной концепции «Цифровой Узбекистан –

2030» [1]. Документ

определяет приоритетные направления внедрения ИИ, включая здравоохранение,
и предусматривает разработку нормативной базы для обеспечения правомерного
использования технологий ИИ.

Альтернативные стратегии охраны и их ограничения. Столкнувшись с

проблемами патентования, разработчики медицинских ИИ могут выбирать
альтернативные способы защиты результатов. Один из них –

сохранение

алгоритмов в секрете, т.е. режим коммерческой тайны. Преимущество такого
подхода в том, что нет необходимости раскрывать подробности алгоритма (как
того требует патентное законодательство при публикации заявки), а срок охраны
ноу

-

хау не ограничен 20 годами –

секрет может охраняться бессрочно при условии

неразглашения. В области медицинских технологий, где скорость устаревания
решений высока, это кажется привлекательным. Однако обратной стороной
является ограничение доступа к информации: ни конкуренты, ни регуляторы, ни
потребители не получают сведений о внутреннем устройстве алгоритма.

Это вызывает обеспокоенность с точки зрения общественных интересов. Эксперты
подчеркивают, что скрытность, обеспечиваемая правом коммерческой тайны,
затрудняет внешнюю проверку безопасности и справедливости медицинских ИИ.
Например,

если

алгоритм

поддержки

врачебных

решений

держится


background image

Жамият

ва

инновациялар

Общество

и

инновации

Society and innovations

Special Issue

07 (2025) / ISSN 2181-1415

134

производителем в тайне, сложно оценить, не допущены ли в нем системные
ошибки, нет ли встроенной предвзятости. Патентное же право, напротив, требует
раскрытия изобретения, публикуя существенные детали в описании патента –

но и

эта система не идеально обеспечивает прозрачность, так как заявители часто
ограниченно раскрывают информацию ровно в объеме, требуемом законом. В
результате возникает коллизия между охраной ИС и регуляторными целями:
стремление компаний защитить свои инвестиции (через патенты или секреты)
может противоречить необходимости открытости и мониторинга ИИ со стороны
государства и общества. В юридической науке обсуждаются способы
балансирования этих интересов –

например, введение обязательных требований

по доступности для надзорных органов исходных данных и алгоритмов,
использующихся в клинической практике, либо стимулирование открытого
лицензирования на критически важные медицинские ИИ. На международном
уровне уже признается, что подходы к охране ИИ в медицине нуждаются в
гибкости: так, Всемирная организация интеллектуальной собственности (ВОИС) и
Всемирная организация здравоохранения в своих докладах отмечают важность
как поддержки инноваторов, так и обеспечения общественного блага при
распределении плодов ИИ

-

технологий.

Законодательная инициатива в Узбекистане уже предлагает закрепление

понятия «искусственный интеллект», маркировку информационных ресурсов,
созданных с применением ИИ, а также ввод административной ответственности за
незаконную обработку персональных данных с использованием ИИ. В проект
Кодекса об административной ответственности предлагается включить статью

46

2

[3], предусматривающую штрафы и возможность ареста до 15 суток за такие

нарушения. Эти шаги свидетельствуют о серьёзной попытке узбекского
законодательства адаптироваться к вызовам ИИ эры.

Этические

вызовы

при

использовании

ИИ

в

медицинских

исследованиях

Как видно из вышесказанного, правовые аспекты тесно связаны с вопросами

этики. Рассмотрим подробней основные этические вызовы, возникающие в
контексте ИИ.

Приватность и права на данные. Медицинские данные пациентов –

чрезвычайно ценная ресурсная основа для алгоритмов ИИ, но

их использование

поднимает вопросы конфиденциальности и информированного согласия.
Этический императив уважения частной жизни пациента требует, чтобы любая
вторичная обработка его данных (например, использование медицинских снимков
для обучения нейросети)

происходила с разрешения пациента и при должной

защите от несанкционированного доступа. Однако на практике соблюдение этих
принципов затруднено: наборы данных часто агрегируются из разных источников
и передаются между организациями и странами. Существует риск утечки
персональных данных либо их использования вне первоначальных целей.
Правовые режимы разных стран по

-

разному защищают конфиденциальность: так,

в Европейском союзе Общий регламент по защите данных (GDPR) требует явного
согласия пациента на большинство операций по обработке его данных и
предоставляет ему права контроля над информацией, тогда как американский
закон HIPAA охватывает не все случаи обработки медицинских данных, оставляя


background image

Жамият

ва

инновациялар

Общество

и

инновации

Society and innovations

Special Issue

07 (2025) / ISSN 2181-1415

135

многих технологических участников вне сферы регулирования. Этически
проблематична практика обхода «жёстких» юрисдикций путём переноса данных
или расчётов туда, где контроль слабее, –

подобная стратегия подрывает

глобальное доверие. Исследовательские протоколы с использованием ИИ должны
строго соответствовать нормам биоэтики и законодательства о данных, включая
получение информированного согласия пациентов на использование их
информации в исследованиях и анонимизацию данных там, где это возможно.

Справедливость и недопущение дискриминации. Применение ИИ не должно

приводить

к усилению социального неравенства. Однако алгоритмы обучаются на

исторических данных, которые могут содержать уклон (bias). Если, скажем, в
выборке для обучения диагностического ИИ недостаточно представлены данные о
каких

-

либо группах пациентов (по возрасту, полу, этнической принадлежности и

т.д.), точность алгоритма для этих групп окажется ниже. Это уже подтверждено
исследованиями:

так,

алгоритм

анализа

рентгенограмм,

обученный

преимущественно на данных от пациентов европеоидной расы, хуже выявлял
заболевание у пациентов из других расовых групп. В результате без коррекции
алгоритм мог бы реже направлять таких пациентов на нужное лечение, что
нарушает принцип справедливости и равенства в медицине. Этический долг
разработчиков –

отслеживать и устранять подобные предубеждения. Для этого

при разработке ИИ необходимо привлекать специалистов по медицине и биоэтике,
проводить независимые испытания на разных популяциях. Также важна
прозрачность: раскрытие информации о том, на каких данных обучался алгоритм
и как он проверялся, позволило бы внешним экспертам оценить риски
дискриминации. В некоторых случаях оправдано нормативное требование, чтобы
медицинские организации аудировали приобретаемые ИИ

-

системы на предмет

bias перед внедрением. Недопущение дискриминации тесно связано с правовыми
принципами недискриминационного доступа к медицинской помощи; если бы
алгоритм системно ущемлял права определенной категории пациентов, это могло
бы повлечь юридическую ответственность клиники за некачественную помощь.
Таким образом, этический принцип справедливости должен быть встроен в цикл
создания и применения медицинского ИИ.

Прозрачность и ответственность. Этическим и правовым стандартом

современной медицины является подотчетность –

понятная и обоснованная

медицина, где каждое решение может быть объяснено. ИИ ставит вызов этому
принципу, поскольку сложные модели (нейросети и др.) зачастую работают как
«черный ящик». Возникает эффект дефицита объяснимости: врач, опирающийся
на подсказку ИИ, может не понимать, почему алгоритм рекомендовал
определенное решение. Это проблематично на нескольких уровнях. Во

-

первых, для

врача: медицинская этика обязывает его принимать ответственные решения, а
опора на непонятный инструмент затрудняет исполнение этого долга. Во

-

вторых,

для пациента: он вправе получить от врача объяснение, почему выбрано то или
иное лечение, и просто сослаться на мнение ИИ недостаточно. В

-

третьих, для

юридической ответственности: если ИИ совершит ошибку, а механизм принятия
решения неясен, будет трудно установить, на каком

этапе произошел сбой и кто

несет ответственность –

разработчик алгоритма, врач, использующий его, или

учреждение. С этической точки зрения, следует стремиться к максимальной


background image

Жамият

ва

инновациялар

Общество

и

инновации

Society and innovations

Special Issue

07 (2025) / ISSN 2181-1415

136

прозрачности алгоритмов в той мере, в какой это не раскрывает критически
важных секретов ИС. Международные руководства (например, ВОЗ) рекомендуют
обеспечивать «объяснимый ИИ»

в здравоохранении. Это может включать

использование моделей, которые позволяют интерпретировать ключевые
факторы, повлиявшие на результат, либо предоставление врачам и пациентам
доступной для понимания информации о принципах работы системы. Кроме того,
документирование решений ИИ и логов его работы может помочь в дальнейшем
анализе и ответственности. Следует отметить, что правовые механизмы
стимулируют прозрачность: в ЕС, например, GDPR предусматривает право
индивида не быть подверженным полностью автоматизированному решению без
возможности объяснения. Этический же подход идет дальше, призывая
разработчиков

добровольно

внедрять

принципы

«ответственного

инновационного развития», когда на этапе проектирования ИИ учитываются
возможные социальные и этические последствия его применения.

Наконец, важным этическим аспектом, перекликающимся с правом, является

баланс интересов частных компаний и общественного здравоохранения. ИИ

-

разработки в медицине зачастую финансируются и продвигаются коммерческими
структурами, которые естественно стремятся окупить инвестиции и заработать.
Однако медицина –

особая сфера, где чрезмерно агрессивная монополизация

знаний и технологий недопустима, поскольку ставит под угрозу жизнь и здоровье
людей. С этической точки зрения, доступность медицинских инноваций не менее
важна, чем их появление. Это означает, что системы ИИ, позволяющие спасать
жизни или лечить болезни, не должны чрезмерно ограничиваться патентными
барьерами или высокой ценой лицензий. Международные документы по биоэтике
и правам человека (включая положение о праве на здоровье) устанавливают
обязанность государств стремиться к тому, чтобы плоды научного прогресса были
доступны населению. Значит, государства и общество вправе ожидать от
правообладателей определенной степени открытости –

например, участия в

партнерствах для распространения технологий в беднейших регионах,
лицензирования жизненно важных ИИ

-

продуктов на льготных условиях, либо

передачи технологий по истечении патентной охраны. Эти меры выходят за рамки
сугубо юридических требований, но продиктованы высшими этическими
соображениями справедливости и милосердия.

Взаимодействие прав ИС и инноваций

Система охраны интеллектуальной собственности изначально призвана

стимулировать инновации, предоставляя изобретателям и авторам временную
монополию и выгоды от своих достижений. В области ИИ для медицины этот
стимулирующий эффект особенно актуален: создание алгоритма или новой
модели требует значительных вложений (сбор данных, оплата вычислительных
мощностей, клинические валидации), и инвесторы рассчитывают на защиту
результатов. Патентная охрана и другие формы ИС действительно могут поощрять
компании и научные организации вкладываться в исследования, зная, что в случае
успеха они получат конкурентное преимущество. Как показывают опросы в
индустрии, возможность патентовать AI

-

решения рассматривается бизнесом как

важный фактор окупаемости инноваций. В крупных юрисдикциях, таких как США,
за последнее десятилетие отмечен резкий рост патентных заявок на изобретения


background image

Жамият

ва

инновациялар

Общество

и

инновации

Society and innovations

Special Issue

07 (2025) / ISSN 2181-1415

137

в области медицинского ИИ, что совпало с увеличением инвестиций в эту сферу.
Это подтверждает, что режим ИС способен быть мотором прогресса: наличие
правовой охраны результатов ИИ

-

исследований привлекает капитал и усилия

талантливых специалистов к решению сложных медицинских задач.

Однако обратная сторона взаимодействия ИС и инноваций проявляется,

когда правовые механизмы отстают от технологического развития. Если система
ИС не предоставляет ясных и адекватных путей охраны для новых видов
результатов

(например,

для

полностью

автономных

открытий

ИИ),

инновационная

активность

может

столкнуться

с

неопределенностью.

Разработчики ИИ могут предпочесть не раскрывать свои достижения вовсе,
опасаясь

их

некорректного

использования

конкурентами,

либо

концентрироваться на тех решениях, которые легче встроить в существующую
правовую рамку, в ущерб более радикальным инновациям. Экспертами описан
феномен «сдерживающего эффекта»

правовой неопределенности: пока

законодатель не разъяснит статус ИИ

-

изобретений, компании будут осторожнее,

что замедлит выход перспективных технологий на рынок. Кроме того, чрезмерно
жесткое применение режимов ИС –

например, расширение патентной монополии

на фундаментальные алгоритмы или диагностические методы –

способно

затруднить дальнейшие исследования. В научной сфере принята открытая
публикация знаний, тогда как патенты накладывают ограничения на
использование запатентованных методов без разрешения. Если каждый элемент
нового медицинского ИИ окажется покрыт патентами крупных корпораций, у
академических исследователей и стартапов могут возникнуть барьеры для
разработки улучшенных версий или альтернативных подходов (эффект
“патентного троллинга” и «антиобщественного» использования ИС). Классическим
примером из биомедицины считается ситуация, когда чрезмерное патентование
генов и методов диагностики в начале 2000

-

х грозило остановить научный

прогресс (антитезис “традиции открытой науки”). Для предотвращения подобных
ситуаций в

некоторых юрисдикциях из патентной охраны исключены, например,

методы лечения и диагностики человека, а также научные исследования
разрешается проводить без согласия патентообладателя (исключение для
экспериментальных целей). В контексте ИИ возможно развитие аналогичных
исключений –

например, установление обязательных лицензий или открытых

стандартов для наиболее важных алгоритмов, чтобы обеспечить совместимость
систем и конкурентность.

Таким образом, взаимодействие режима ИС с инновационной деятельностью

носит двоякий характер. С одной стороны, эффективно функционирующая система
ИС является необходимым условием непрерывного инвестирования в новые
технологии и их доведения до стадии практического применения. Без правовой
охраны многие инициативы в области ИИ просто не получили бы финансирования
или были бы досрочно свернуты, а наиболее талантливые специалисты не
стремились бы в эту отрасль. С другой стороны, режим ИС не должен
превращаться

в самоцель и тем более в тормоз прогресса. Законодателю важно

своевременно обновлять нормы, чтобы они учитывали особенности ИИ
(например, разъяснять вопросы авторства/изобретательства, критерии охраны
алгоритмов и данных). Регуляторам –

следить за тем, чтобы предоставляемые


background image

Жамият

ва

инновациялар

Общество

и

инновации

Society and innovations

Special Issue

07 (2025) / ISSN 2181-1415

138

права не использовались злоупотребительно и не нарушали баланс интересов
(например, пресекать ситуации, когда патентообладатель отказывает в лицензиях
жизненно

важным

медицинским

технологиям).

Наконец,

требуется

взаимодействие между держателями прав ИС и обществом: модели открытого
сотрудничества (Open Innovation) в медицине, публично

-

частные партнерства для

обмена данными и алгоритмами могут смягчить жесткость монополий и ускорить
прогресс. В идеале правовая система должна достигать тонкого баланса:
достаточно

защищать

результаты

интеллектуального

труда,

чтобы

стимулировать создание новых ИИ

-

решений, но при этом обеспечивать, чтобы эти

решения максимально служили интересам пациентов и здравоохранения в целом.

В рамках проводимой политики

государство в Узбекистане также

предпринимает меры по развитию образовательной и институциональной
инфраструктуры в области ИИ: с 2021 года реализуется Постановление
Президента ПП4996 [2] от 18.02.2021, предусматривающее программы подготовки
кадров по ИИ,

создание лабораторий и платформы Data.egov.uz для свободного

доступа к государственным данным, включая медицинские наборы данных. Это
создаёт предпосылки для реализации прозрачного и этически ответственного ИИ
в медицине и исследований с участием алгоритмов.

ЗАКЛЮЧЕНИЕ

Развитие искусственного интеллекта в медицинских исследованиях требует

переосмысления привычных подходов как в праве интеллектуальной
собственности, так и в области медицинской этики. Проведенный анализ
позволяет сделать следующие выводы. Во

-

первых, действующие правовые рамки

ИС испытывают напряжение под влиянием новых технологий: возникают лакуны
(например, неурегулированный статус результатов, созданных ИИ) и коллизии
(между коммерческой тайной и требованиями прозрачности в медицине). Во
избежание торможения инноваций необходимо адаптировать законодательство:
уточнять критерии патентоспособности применительно к ИИ, рассматривать
возможность признания вкладов программных агентов при выдаче патентов,
совершенствовать режимы защиты данных. При этом принцип персональной
ответственности и авторства человека пока остается краеугольным –

суды и

ведомства не готовы наделять ИИ самостоятельными правами, что задает рамки
для разработчиков (им нужно обеспечивать участие человека в изобретательском
процессе или искать иные методы охраны результатов).

Во

-

вторых, этические стандарты должны идти рука об руку с правовым

регулированием. Защита прав интеллектуальной собственности (ИС) не должна

наносить ущерб пациентам и обществу. Это означает, что конфиденциальность

пациентов должна оставаться приоритетом: даже в погоне за «большими

данными» нельзя игнорировать нормы конфиденциальности и требования

информированного согласия. Алгоритмы ИИ должны разрабатываться с учётом

принципа справедливости: разработчикам необходимо тестировать их на

отсутствие дискриминации и устранять выявленные смещения. Прозрачность и

подотчётность в использовании ИИ –

залог доверия: медицинские учреждения и

компании должны стремиться раскрывать максимально возможный объём

информации о работе ИИ

-

систем, по крайней мере для регуляторов и независимых

экспертов. Если коммерческие интересы требуют сохранения секрета, следует


background image

Жамият

ва

инновациялар

Общество

и

инновации

Society and innovations

Special Issue

07 (2025) / ISSN 2181-1415

139

искать компромиссные механизмы (например, предоставление алгоритмов для

закрытой оценки государственными органами). Этические принципы также

требуют обеспечения доступности важных инноваций: жизнь человека ценнее

прибыли, поэтому в глобальном масштабе следует поддерживать инициативы по

распространению ключевых ИИ

-

разработок (например, систем ранней

диагностики рака) в менее развитые регионы –

возможно, через добровольные

лицензии или фонды доступа.

В

-

третьих, взаимосвязь ИС и инноваций в медицинском ИИ должна

регулироваться на стратегическом уровне. Государственной политике важно

поддерживать инновационный потенциал, не подавляя его чрезмерной

зарегулированностью и не превращая медицинские технологии в закрытую

область, доступную лишь избранным. Необходимо поощрять сотрудничество

между научными центрами, стартапами и крупными компаниями, создание пулов

патентов для обмена технологиями, а также развитие открытых стандартов в

сфере медицинского ИИ. Такие шаги помогут снизить фрагментацию прав и

ускорить внедрение лучших решений повсеместно.

Подводя итог, можно сказать, что юридические и этические аспекты

развития ИИ в медицине неразрывно связаны. Оптимальный режим –

это режим

«ответственных инноваций», когда правовая система обеспечивает создателям ИИ

должную защиту и стимулы, но ставит во главу угла защиту здоровья, прав и

достоинства человека. Только при соблюдении этого баланса

достижения ИИ

смогут полностью реализовать свой потенциал в медицине –

спасая и улучшая

жизни пациентов, не создавая новых рисков и неравенства.

БИБЛИОГРАФИЧЕСКИЕ ССЫЛКИ:

1.

Постановление Президента Республики Узбекистан от 14.10.2024 г. N ПП

-

358 "Об утверждении Стратегии развития технологий искусственного интеллекта

до 2030 года"

2.

Постановление Президента Республики Узбекистан, от 17.02.2021 г. № ПП

-4996

3.

Кодекс Республики Узбекистан об административной ответственности (в

ред. от 22 июля 2025 г.) // Национальная база данных законодательства

Республики Узбекистан

4.

Cohen I.G., Mello M.M. (2018). HIPAA and protecting health information in the

21st century. JAMA, 320(3), 231

232.

5.

Seyyed-Kalantari L., Zhang H., McDermott M.B.A., Chen I.Y., Ghassemi M. (2021).

Underdiagnosis bias of artificial intelligence algorithms applied to chest radiographs in

under-served patient populations. Nature Medicine, 27(12), 2176

2182.

6.

Tschider C.A., Ho C.M. (2024). Artificial intelligence and intellectual property in

healthcare technologies.

В

кн

.: Solaiman B., Cohen I.G. (eds.) Research Handbook on

Health, AI and the Law.

Cheltenham: Edward Elgar Publishing. (глава 11).

7.

Tschider C.A., Ho C.M. (2024). Artificial intelligence and intellectual property in

healthcare technologies (

фрагмент

об

этике

раскрытия

информации

).

8.

Poddar A., Rao S.R. (2024). Evolving intellectual property landscape for AI-

driven innovations in the biomedical sector: opportunities in stable IP regime for shared

success. Frontiers in Artificial Intelligence, Vol.7.

9.

Poddar A., Rao S.R. (2024). Evolving intellectual property landscape for AI-

driven innovations...

(о влиянии неопределенности ИС на инновации

).

References

Постановление Президента Республики Узбекистан от 14.10.2024 г. N ПП-358 "Об утверждении Стратегии развития технологий искусственного интеллекта до 2030 года"

Постановление Президента Республики Узбекистан, от 17.02.2021 г. № ПП-4996

Кодекс Республики Узбекистан об административной ответственности (в ред. от 22 июля 2025 г.) // Национальная база данных законодательства Республики Узбекистан

Cohen I.G., Mello M.M. (2018). HIPAA and protecting health information in the 21st century. JAMA, 320(3), 231–232.

Seyyed-Kalantari L., Zhang H., McDermott M.B.A., Chen I.Y., Ghassemi M. (2021). Underdiagnosis bias of artificial intelligence algorithms applied to chest radiographs in under-served patient populations. Nature Medicine, 27(12), 2176–2182.

Tschider C.A., Ho C.M. (2024). Artificial intelligence and intellectual property in healthcare technologies. В кн.: Solaiman B., Cohen I.G. (eds.) Research Handbook on Health, AI and the Law. Cheltenham: Edward Elgar Publishing. (глава 11).

Tschider C.A., Ho C.M. (2024). Artificial intelligence and intellectual property in healthcare technologies (фрагмент об этике раскрытия информации).

Poddar A., Rao S.R. (2024). Evolving intellectual property landscape for AI-driven innovations in the biomedical sector: opportunities in stable IP regime for shared success. Frontiers in Artificial Intelligence, Vol.7.

Poddar A., Rao S.R. (2024). Evolving intellectual property landscape for AI-driven innovations... (о влиянии неопределенности ИС на инновации).