---------------------------------------------------------------------------------
Выбираю•IT помогает в выборе будущей профессии абитуриентам
и студентам, в развитии профессиональных навыков молодым специалистам,
в выборе дополнительных программ обучения и специальных курсов. " /> ---------------------------------------------------------------------------------
Выбираю•IT помогает в выборе будущей профессии абитуриентам
и студентам, в развитии профессиональных навыков молодым специалистам,
в выборе дополнительных программ обучения и специальных курсов. " />

Портал издательского дома "ПОЛОЖЕВЕЦ и ПАРТНЕРЫ"
---------------------------------------------------------------------------------
Выбираю•IT помогает в выборе будущей профессии абитуриентам
и студентам, в развитии профессиональных навыков молодым специалистам,
в выборе дополнительных программ обучения и специальных курсов.

О портале Каталог профессий

Эксперты ВШЭ разобрались, кто должен нести ответственность за действия искусственного интеллекта

Нужно решить вопрос о порядке ответственности в случае «автоматизированного принятия решения»

В докладе «Правовые аспекты использования искусственного интеллекта: актуальные проблемы и возможные решения» отмечается, что уже в самое ближайшее время во всем мире будет наблюдаться процесс постепенного правового признания тех или иных «действий» системы искусственного интеллекта и их последствий, а также формализации этих действий. Быстрое развитие технологий искусственного интеллекта ставит вопрос о правовом статусе использования систем ИИ, обладающих разной степенью автономности: по некоторым прогнозам, к 2075 году мыслительные процессы роботов уже нельзя будет отличить от процессов мышления человека.

Эксперты подчеркивают, что «принятие юридически значимых решений может обладать характером властного воздействия, то есть, по сути, система ИИ фактически будет наделена властью, в этом случае должен быть определенно решен вопрос о порядке ответственности в случае такого автоматизированного принятия решения».

Расширение использования ИИ поднимает много проблем, одной из важнейших является достижение баланса между экономическими интересами и интересами общества, ставшая отражением глубокого конфликта выгоды и морали. В России этические проблемы развития и использования цифровых технологий в РФ не являются на данный момент действительно важной частью повестки не только государственных органов власти и коммерческих структур, но и общества в целом, подчеркивают авторы доклада.

Тем не менее, этой темой государству придется заниматься. При рассмотрении ответственности ИИ целесообразно говорить, в первую очередь, о деликтной ответственности, то есть меры ответственности должны быть установлены как реакция на вред, который ИИ может причинить или причиняет.

«В случае признания ИИ только объектом права, к чему пока что склоняются в мире, ответственность должна быть распределена по разным этапам жизненного цикла ИИ (этап разработки, этап эксплуатации, этап утилизации). При этом ответственность ИИ сводится не к карательно-воспитательным мерам, а к установлению действенного механизма управления рисками», — считают эксперты Вышки.

В свете возможного возложения ответственности на разработчиков необходимо хотя бы на начальных этапах предусмотреть сбалансированную систему иммунитетов для них, добавив обязательное страхование ответственности, а также регистрацию систем ИИ. В случае признания ИИ субъектом возможно установление режима совмещенной ответственности, когда субсидиарную ответственность могут нести и создатель ИИ, и его владелец или иной субъект, говорится в исследовании.

Эксперты Вышки также предложили способы устранения барьеров для инвестпроектов в сфере искусственного интеллекта и робототехники. В частности, речь идет о создании экспериментальных правовых режимов для разработки новых технологий специальных правовых режимов для привлечения инвестиций, предусматривающих налоговые льготы.

Читать доклад

 
Проект Издательского дома "Положевец и Партнеры"

По вопросам партнерства обращайтесь по электронной почте chooseit@samag.ru

Телефон: +7 499 277-12-45