Искусственный интеллект. Кто ответит за его ошибку? Беседа с экспертом Кариной Палковой

Искусственный интеллект. Кто ответит за его ошибку? Беседа с экспертом Кариной ПалковойФото из архива Министерства образования и науки

В феврале 2020 года Еврокомиссия представила политику Европы касательно искусственного интеллекта (ИИ). Это дополняет представленную еще в 2018 году стратегию ЕС по развитию ИИ и скоординированный план действия, рассчитанный на срок до 2027 года.

Евросоюз готов вкладывать в развитии ИИ до 20 млрд евро в год и развивать «этичный ИИ» – подконтрольный человеку. До конца 2020 года страны-члены ЕС должны пересмотреть ранее разработанные ими планы в области искусственного интеллекта (ИИ) и принять их новые версии. В итоге Евросоюзу предстоит выработать европейский подход к искусственному интеллекту и разработать законодательные изменения, необходимые для развития экосистемы ИИ в ЕС.

О правовом регулировании в области ИИ, в том числе в нашей стране, RigaPlus.lv побеседовал с доктором юридических наук и членом Европейской ассоциации искусственного интеллекта Кариной Палковой.  Карина была включена в список 12 самых современных молодых ученых Латвии 2020 года.

Справка: Согласно определению Еврокомиссии, системы искусственного интеллекта (ИИ) – это программные системы, разработанные людьми, которые, имея сложную цель, действуют в физическом или цифровом измерении, воспринимая свою среду посредством сбора данных, интерпретируя собранные структурированные или неструктурированные данные, обоснование знаний или обработка информации, полученной из этих данных, и принятие решения о наилучших действиях, которые необходимо предпринять для достижения поставленной цели. Системы ИИ могут использовать символические правила или изучать числовую модель, а также могут адаптировать свое поведение, анализируя, как на среду влияют их предыдущие действия.

Насколько вопрос искусственного интеллекта вообще сейчас актуален?

Очень актуален. Искусственный интеллект набирает обороты в своем развитии и открывает новые возможности, которые влияют на развитие самых разных сфер экономики. В то же время, чем больше ИИ развивается, тем больше возникает рисков, что системы искусственного интеллекта могут нанести нежелательный ущерб – например, для здоровья человека, и даже для его жизни. Когда мы говорим об ИИ и о роботах, которые работают на основе программ ИИ, очень важно понимать значимость правового регулирования и проблематику этических принципов, которые должны искусственным интеллектом соблюдаться.

В 2018 году Латвия подписала декларацию ЕС о сотрудничестве в сфере ИИ? Что дальше?

Латвия наконец-то активно начала заниматься вопросом искусственного интеллекта, и Кабинет министров в феврале 2020 года принял информативное сообщение, разработанное Министерством охраны окружающей среды и регионального развития, о развитии решений в отношении искусственного интеллекта (Par mākslīgā intelekta risinājumu attīstību). В этом сообщении указывается на то, что важно развивать ИИ, соблюдая этические принципы, но и не вредить развитию технологического прогресса, так как это чрезвычайно важно для предпринимательства. Думаю, скоро мы дойдем и до вопросов субъекта права в контексте ИИ.

На данный момент искусственный интеллект является объектом права, то есть ответственность за его деятельность несет лицо, владеющее этим ИИ. Какие перспективы того, что искусственный интеллект может привлекаться к ответственности, то есть станет субъектом права? 

Этот вопрос изучают юристы и эксперты во всей Европе, и не только. На данный момент никто не может точно сказать, как это будет выглядеть, но я уверена, что в самое ближайшее время мы будем говорить об искусственном интеллекте как о субъекте права. В рекомендациях Евросоюза также есть пункт о том, что искусственный интеллект мог бы быть наделен субъектом права, но технически – принимая во внимание особенности законодательства разных стран – это достаточно сложно, и как это осуществить на практике, пока непонятно.

Во всем мире ответственность за действия искусственного интеллекта несет его владелец, а не он сам?

Есть страны, в которых, если, например, робот, который задействован в системе здравоохранения, причинил какой-то ущерб пациенту, или беспилотный автомобиль – пешеходу, ответственность за это несет производитель. Но проблема в том, что не всегда понятно, кто именно является производителем – например, беспилотника. Если беспилотный автомобиль нанесет ущерб пешеходу, то ответственность может нести как автопроизводитель, так и подрядчик, разработавший для машины программное обеспечения, или поставщик, предоставивший неисправную камеру.

Но, например, в некоторых штатах США искусственный интеллект обладает аспектами права субъекта и соответственно ответственность несет он сам – как отдельное юридическое лицо. То есть, если я регистрирую ИИ в качестве юридического лица, тогда это юридическое лицо и несет ответственность за свои действия. Фактически – отвечают члены правления этого юридического лица.

Даже, если представить, что ответственность может нести сам искусственный интеллект,  важно понимать, что разработчикам программного обеспечения, производителям в любом случае не удастся от нее уклониться. В случае происшествия они, на мой взгляд, тоже должны быть привлечены к ответственности, например за  халатность или даже за соучастие. Но это, конечно, очень дискутируемый и открытый вопрос.

Однозначно, в наше время вынести приговор искусственному интеллекту нелегко. Самым простым наказанием может быть его отключение. Например, рассматривая вопрос с точки зрения футуризма, можем предположить, что суд постановил о том что искусственный интеллект нарушил закон, его могут выключить на определенный срок (это будет эквивалентом тюремного заключения) Можно, например, робота с искусственным интеллектом заставить выполнять общественные работы в зависимости от его структуры – убирать улицы, чистить снег  и т.д.

Еще одна проблема, говоря об ответственности искусственного интеллекта, – это отсутствие четкого определения здравого смысла. Говоря об ответственности людей, многие законы учитывают фактор вменяемости нарушителя, чего нет, например у роботов с искусственным интеллектом

А зачем это нужно? Ведь все прописано еще Айзеком Айзимовым – «роботы не могут и не должны вредить человеку».  

А кто застрахован от ошибки? В Латвии искусственный интеллект широко применяется в медицине: например, в радиологии, где врач принимает решение, основываясь на анализе огромного количества данных по пациенту. Эти данные ему предоставляет и обрабатывает их искусственный интеллект. Окончательное решение – пока что за радиологом, но это вопрос времени, потому что программы искусственного интеллекта в радиологии становятся все «умнее» и точнее.

И вот когда решение будет принимать искусственный интеллект, кто примет на себя ответственность в случае неправильного диагноза? Кстати, в Эстонии сейчас разрабатывают систему искусственного интеллекта – судьи, который будет рассматривать мелкие иски до 7000 евро. Наверняка и в Латвии будет что-то похожее, и искусственному интеллекту придется самому принимать решения.

Пока что у нас более популярны чат-боты.

Да, чат-боты консультируют пациентов в той же системе здравоохранения. Например, можно описать свои симптомы и чат-бот посоветует вам какие лекарства принять. Если у вас возникнут какие-то осложнения, куда вы можете жаловаться и с кого взыскать деньги за причиненный ущерб? На данный момент в Латвии решить это очень сложно. Это будет тяжелый гражданско-правовой процесс. Можно поговорить об этом вопросе года через два – когда направление наделения искусственного интеллекта правами субъекта в Евросоюзе станет более понятным.

А в чем сложность зарегистрировать искусственный интеллект?

Предприятие регистрируется физическим или юридическим лицом, а искусственный интеллект – в рамках Коммерческого закона – не может сам себя зарегистрировать. В двух штатах США, например, это возможно. Для этого должны быть произведены изменения в нормативных актах, да и вообще необходимо пересмотреть концепцию как таковую, так что процесс юридически – очень сложный. Искусственный интеллект существует в цифровом мире, его нельзя «потрогать», он «живет» в виде алгоритмов. И этот виртуальный алгоритм может создать, например, новую формулу в фармацевтике. Кто будет обладать правами на эту формулу? Решений пока нет. Но должна отметить, что в начале 2020 года был первый интересный прецедент.

Европейская патентная организация и Управление интеллектуальной собственности Великобритании отклонили заявки на патенты, в которых искусственный интеллект был обозначен как изобретатель. Управление интеллектуальной собственности Великобритании опубликовало решение, в котором излагаются причины отказа. В своем решении управление пояснило, что не оспаривается тот факт, что изобретение было создано искусственным интеллектом, но отметило, что заявка должна быть отозвана, поскольку искусственный интеллект не является лицом, предусмотренным Законом о патентах, и не может считаться изобретателем. Также было отмечено, что вопрос об изобретениях искусственного интеллекта, вероятно, станет более распространенным, и необходимо начать  обсуждать вопросы, связанные с такими изобретениями, поскольку текущая патентная система не предоставляет средств для обработки подобных изобретений.

Насколько актуально сосуществование искусственного интеллекта с регулой ЕС о защите персональных данных?

Искусственный интеллект может хранить огромное количество персональных данных. Конечно, владелец искусственного интеллекта может поставить подпись о неразглашении этих данных, но, если искусственный интеллект примет решение их разгласить? Может быть и такая ситуация, что искусственный интеллект выйдет из-под контроля. Есть и примеры кибер-преступлений. На данный момент в ЕС важно понять, какие у каждой страны Евросоюза потенциальные риски в области искусственного интеллекта.

Что означает этика в отношении искусственного интеллекта?

Еврокомиссия предлагает следующие этические принципы:

  • 1) уважение независимости человека;
  • 2) не причинять вред человеку;
  • 3) придерживаться принципа объяснимости.

Например, если мы говорим о чат-ботах, то был случай, когда потребители услуги спрашивали робота-консультанта, какой вес для них был бы идеальным. В ответ искусственный интеллект разделил этих людей на молодых и старых, латинской национальности, афро-американцев и европейцев, а затем выдал им рекомендации по группам. Возникает вопрос: имеет ли искусственный интеллект с точки зрения этики право делить людей по таким признакам?

Человеку можно это просто объяснить, но искусственному интеллекту вложить понятия об этических нормах – сложно. В Великобритании группа ученых сейчас работает над тем, чтобы обучить искусственный интеллект этике, но решения, как этого добиться, пока не найдено.   

А в Латвии работают над такими вопросами?

В Рижском техническом университете есть отличные специалисты, например, профессор Янис Грундспенскис, который, на мой взгляд, отличный эксперт в вопросах искусственного интеллекта с точки зрения технологических решений. Юридический факультет Рижского университета имени Страдыня на данный момент работает над проектом, изучая вопрос искусственного интеллекта и этики и права в здравоохранении. Отдельного учреждения, работа которого специфически направлена на исследование искусственного интеллекта с точки зрения права и этики, в Латвии на данный момент нет.

В рамках своих лекций о правах пациентов, медицинского права и т.д. которые читаю студентам Рижского университета имени Страдыня, я рассказываю будущим юристам и медикам о новых вызовах в сфере искусственного интеллекта используемого в медицине, об этических проблемах, которые могут возникнуть. Это безусловно важный момент, с которым необходимо считаться. Знаю, что в Рижской юридической школе права есть курс, в рамках которого тоже изучают вопросы искусственного интеллекта.

novosti

Я знаю, что вы хотите основать Институт искусственного интеллекта в Латвии.

Да, и надеюсь, что в течение ближайшего года мне это удастся. Это будет независимый исследовательский институт, который будет сотрудничать, например, с Европейской ассоциацией искусственного интеллекта, с латвийскими предприятиями, которые занимаются вопросами искусственного интеллекта, и с государственными структурами и учреждениями. Пора делать шаг вперед.

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.

Добавить комментарий

Ваш адрес email не будет опубликован.

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: